• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 47
  • 9
  • 3
  • Tagged with
  • 59
  • 45
  • 35
  • 30
  • 19
  • 19
  • 18
  • 18
  • 16
  • 16
  • 15
  • 15
  • 14
  • 14
  • 13
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Beiträge zur Regularisierung inverser Probleme und zur bedingten Stabilität bei partiellen Differentialgleichungen

Shao, Yuanyuan 14 January 2013 (has links)
Wir betrachten die lineare inverse Probleme mit gestörter rechter Seite und gestörtem Operator in Hilberträumen, die inkorrekt sind. Um die Auswirkung der Inkorrektheit zu verringen, müssen spezielle Lösungsmethode angewendet werden, hier nutzen wir die sogenannte Tikhonov Regularisierungsmethode. Die Regularisierungsparameter wählen wir aus das verallgemeinerte Defektprinzip. Eine typische numerische Methode zur Lösen der nichtlinearen äquivalenten Defektgleichung ist Newtonverfahren. Wir schreiben einen Algorithmus, die global und monoton konvergent für beliebige Startwerte garantiert. Um die Stabilität zu garantieren, benutzen wir die Glattheit der Lösung, dann erhalten wir eine sogenannte bedingte Stabilität. Wir demonstrieren die sogenannte Interpolationsmethode zur Herleitung von bedingten Stabilitätsabschätzungen bei inversen Problemen für partielle Differentialgleichungen.
42

Analytische und numerische Studien zu inversen Problemen der Optionspreisbildung

Hein, Torsten 19 December 2003 (has links)
The dissetation deals with the inverse problem of identification of local volatilities from given option price data. The used separation between purely time- and purely price-dependent volatilities enables a detailed mathematical analysis of the corresponding inverse problems. Those are formulated in proper Banach spaces (Hilbert spaces) as operator equations. The unique solvability of these equations are examined. Because the solutions doesn't depend continuously form the given data, possibilities of regularization are discussed. In particular the nonlinear Tikhonov regularization and its applicability to the corresponding problems plays the leading part in these investigations. Detailed numerical studies illustrate these considerations and top this disseration off. / Die Dissertation beschäftigt sich mit dem inversen Problem der Identifikation lokaler Volatilitäten aus gegebenen Optionspreisen. Die dabei benutzte Trennung zwischen rein zeit- und rein preisabhängigen Volatilitäten erlaubt eine tiefgehende mathematische Analyse der entsprechend formulierten inversen Probleme. Diese werden in geeigneten Banachräumen (Hilberträumen) als Operatorgleichung angegeben und auf die eindeutige Lösbarkeit hin untersucht. Da sich die Lösungen als instabil gegenüber Störungen in den Daten erweisen, werden Möglichkeiten der Regularisierung diskutiert. Insbesondere steht dabei die Untersuchung der Anwendbarkeit der Theorie der nichtlinearen Tikhonov-Regularisierung auf die entsprechenden Probleme im Vordergrund. Ausführliche numerische Studien illustrieren die diese Überlegungen und runden die Arbeit ab.
43

Regularization properties of the discrepancy principle for Tikhonov regularization in Banach spaces: Regularization properties of the discrepancy principle for Tikhonov regularization in Banach spaces

Anzengruber, Stephan W., Hofmann, Bernd, Mathé, Peter January 2012 (has links)
The stable solution of ill-posed non-linear operator equations in Banach space requires regularization. One important approach is based on Tikhonov regularization, in which case a one-parameter family of regularized solutions is obtained. It is crucial to choose the parameter appropriately. Here, a variant of the discrepancy principle is analyzed. In many cases such parameter choice exhibits the feature, called regularization property below, that the chosen parameter tends to zero as the noise tends to zero, but slower than the noise level. Here we shall show such regularization property under two natural assumptions. First, exact penalization must be excluded, and secondly, the discrepancy principle must stop after a finite number of iterations. We conclude this study with a discussion of some consequences for convergence rates obtained by the discrepancy principle under the validity of some kind of variational inequality, a recent tool for the analysis of inverse problems.
44

Identification of differential regulation in central carbon metabolism between related cell lines

Rainer, Roman Josef 23 November 2020 (has links)
Darmkrebszellen und T-Zellen regulieren ihren zentralen Kohlenstoffmetabolismus um ihren anabolen Bedarf zu erfüllen. Tumorzellen mit einer KRAS- oder BRAF-Mutation zeigen ein schnelles Wachstum, welches eine Umprogrammierung des Metabolismus vor aussetzt. Der mitochondriale T-Zellen-Aktivierungsinhibitor (TCAIM) ist bekannt dafür die mitochondriale Zellstruktur zu beeinflussen. Der Einfluss auf den Metabolismus nicht klar. In dieser Arbeit präsentiere ich erstmalig ein mathematische Model des zentralen Kohlen stoffmetabolismus in Darmkrebszellen und T-Zellen. Mithilfe dieses Modells analysiere ich, wie sich die Regulation in ähnlichen Zelllinien unterscheidet. In Bezug auf die Darm krebszellen vergleiche ich BRAF-(CaCO2-BRAFV600E), KRAS-(CaCO2-KRASG12V) mu tierte Zelllinien mit einer Basiszelllinie (CaCO2-control) und zeige, dass der Kohlenstoff metabolismus in BRAF-mutierten Zellen im Vergleich zu den beiden übrigen Zelllinien herabreguliert ist. Das Modell bestätigt außerdem, dass der Monocarboxylattransporter (MCT) in den Darmkrebszellen eine wichtige Rolle, insbesondere in den KRAS mu tierten Zellen, spielt. In T-Zellen zeigt der Vergleich von Wildtypzellen (CD8 T-Zellen) mit TCAIM homozygoten Zellen (TCAIM homozygote CD8 T-Zellen), dass der Kohlen stoffmetabolismus in zweiteren überwiegend herabreguliert und weniger aktiv ist. Diesen Effekt konnte ich durch die Analyse von RNASeq-Daten der jeweiligen Zelltypen bestä- tigen. Des Weiteren stelle ich fest, dass sich der Tricarbonsäurezyklus umkehrt, wenn durch die Glykolyse nicht ausreichend Laktat exportiert und die Biomasseproduktion unterstützt werden kann. Meine Arbeit stellt damit insgesamt einen neuartigen Ansatz zur Integration von Meta bolomik und RNAseq Daten dar, um die Regulation des zentralen Kohlenstoffmetabo lismus zu verstehen. / Colon cancer cells and T cells regulate central carbon metabolism to meet their anabolic needs. In KRAS and BRAF tumors, metabolic reprogramming is a premise to support rapid proliferation. In T cells, the mitochondrial T cell activation inhibitor (TCAIM) is known to affect mitochondrial morphology but its effect on cellular metabolism is not well understood. Via mathematical modelling, I investigate the differential regulation of closely related cell lines. I present the first mathematical model for colon cancer and T cell metabolism, unraveling differential regulation between related cell lines. The model shows that CaCO2-BRAFV600Ecells are mostly downregulated compared to CaCO2-KRASG12Vand CaCO2-control. Additionally, it demonstrates the critical role of monocarboxylate transporter (MCT), especially for CaCO2-KRASG12V. Concerning T cells, I compare wild-type T cells to homozygous TCAIM T cells. This unveils that TCAIM homozygous cells have a mostly downregulated TCA cycle, validated by RNASeq data, and are less metabolically active than wild-type T cells. Furthermore, if the glycolytic flux is not sufficient to support lactate export and biomass production, the model reveals that the TCA cycle is reversed as it requires less regulation. Taken together, this work presents a novel approach to integrate data referring to metabolic and genetic regulation of metabolism. On this basis, we can now better discriminate the metabolic capacity of CaCO2-control, CaCO2-BRAFV600E, CaCO2-KRASG12V, wildtype CD8 T cells, and homozygous TCAIM CD8 T cells.
45

The impact of a curious type of smoothness conditions on convergence rates in l1-regularization

Bot, Radu Ioan, Hofmann, Bernd January 2013 (has links)
Tikhonov-type regularization of linear and nonlinear ill-posed problems in abstract spaces under sparsity constraints gained relevant attention in the past years. Since under some weak assumptions all regularized solutions are sparse if the l1-norm is used as penalty term, the l1-regularization was studied by numerous authors although the non-reflexivity of the Banach space l1 and the fact that such penalty functional is not strictly convex lead to serious difficulties. We consider the case that the sparsity assumption is narrowly missed. This means that the solutions may have an infinite number of nonzero but fast decaying components. For that case we formulate and prove convergence rates results for the l1-regularization of nonlinear operator equations. In this context, we outline the situations of Hölder rates and of an exponential decay of the solution components.
46

Studies on two specific inverse problems from imaging and finance

Rückert, Nadja 20 July 2012 (has links) (PDF)
This thesis deals with regularization parameter selection methods in the context of Tikhonov-type regularization with Poisson distributed data, in particular the reconstruction of images, as well as with the identification of the volatility surface from observed option prices. In Part I we examine the choice of the regularization parameter when reconstructing an image, which is disturbed by Poisson noise, with Tikhonov-type regularization. This type of regularization is a generalization of the classical Tikhonov regularization in the Banach space setting and often called variational regularization. After a general consideration of Tikhonov-type regularization for data corrupted by Poisson noise, we examine the methods for choosing the regularization parameter numerically on the basis of two test images and real PET data. In Part II we consider the estimation of the volatility function from observed call option prices with the explicit formula which has been derived by Dupire using the Black-Scholes partial differential equation. The option prices are only available as discrete noisy observations so that the main difficulty is the ill-posedness of the numerical differentiation. Finite difference schemes, as regularization by discretization of the inverse and ill-posed problem, do not overcome these difficulties when they are used to evaluate the partial derivatives. Therefore we construct an alternative algorithm based on the weak formulation of the dual Black-Scholes partial differential equation and evaluate the performance of the finite difference schemes and the new algorithm for synthetic and real option prices.
47

Studies on two specific inverse problems from imaging and finance

Rückert, Nadja 16 July 2012 (has links)
This thesis deals with regularization parameter selection methods in the context of Tikhonov-type regularization with Poisson distributed data, in particular the reconstruction of images, as well as with the identification of the volatility surface from observed option prices. In Part I we examine the choice of the regularization parameter when reconstructing an image, which is disturbed by Poisson noise, with Tikhonov-type regularization. This type of regularization is a generalization of the classical Tikhonov regularization in the Banach space setting and often called variational regularization. After a general consideration of Tikhonov-type regularization for data corrupted by Poisson noise, we examine the methods for choosing the regularization parameter numerically on the basis of two test images and real PET data. In Part II we consider the estimation of the volatility function from observed call option prices with the explicit formula which has been derived by Dupire using the Black-Scholes partial differential equation. The option prices are only available as discrete noisy observations so that the main difficulty is the ill-posedness of the numerical differentiation. Finite difference schemes, as regularization by discretization of the inverse and ill-posed problem, do not overcome these difficulties when they are used to evaluate the partial derivatives. Therefore we construct an alternative algorithm based on the weak formulation of the dual Black-Scholes partial differential equation and evaluate the performance of the finite difference schemes and the new algorithm for synthetic and real option prices.
48

Quantile methods for financial risk management

Schaumburg, Julia 27 February 2013 (has links)
In dieser Dissertation werden neue Methoden zur Erfassung zweier Risikoarten entwickelt. Markrisiko ist definiert als das Risiko, auf Grund von Wertrückgängen in Wertpapierportfolios Geld zu verlieren. Systemisches Risiko bezieht sich auf das Risiko des Zusammenbruchs eines Finanzsystems, das durch die Notlage eines einzelnen Finanzinstituts entsteht. Im Zuge der Finanzkrise 2007–2009 realisierten sich beide Risiken, was weltweit zu hohen Verlusten für Investoren, Unternehmen und Steuerzahler führte. Vor diesem Hintergrund besteht sowohl bei Finanzinstituten als auch bei Regulierungsbehörden Interesse an neuen Ansätzen für das Risikomanagement. Die Gemeinsamkeit der in dieser Dissertation entwickelten Methoden besteht darin, dass unterschiedliche Quantilsregressionsansätze in neuartiger Weise für das Finanzrisikomanagement verwendet werden. Zum einen wird nichtparametrische Quantilsregression mit Extremwertmethoden kombiniert, um extreme Markpreisänderungsrisiken zu prognostizieren. Das resultierende Value at Risk (VaR) Prognose- Modell für extremeWahrscheinlichkeiten wird auf internationale Aktienindizes angewandt. In vielen Fällen schneidet es besser ab als parametrische Vergleichsmodelle. Zum anderen wird ein Maß für systemisches Risiko, das realized systemic risk beta, eingeführt. Anders als bereits existierende Messgrößen erfasst es explizit sowohl Risikoabhängigkeiten zwischen Finanzinstituten als auch deren individuelle Bilanzmerkmale und Finanzsektor-Indikatoren. Um die relevanten Risikotreiber jedes einzelnen Unternehmens zu bestimmen, werden Modellselektionsverfahren für hochdimensionale Quantilsregressionen benutzt. Das realized systemic risk beta entspricht dem totalen Effekt eines Anstiegs des VaR eines Unternehmens auf den VaR des Finanzsystems. Anhand von us-amerikanischen und europäischen Daten wird gezeigt, dass die neue Messzahl sich gut zur Erfassung und Vorhersage systemischen Risikos eignet. / This thesis develops new methods to assess two types of financial risk. Market risk is defined as the risk of losing money due to drops in the values of asset portfolios. Systemic risk refers to the breakdown risk for the financial system induced by the distress of individual companies. During the financial crisis 2007–2009, both types of risk materialized, resulting in huge losses for investors, companies, and tax payers all over the world. Therefore, considering new risk management alternatives is of interest for both financial institutions and regulatory authorities. A common feature of the models used throughout the thesis is that they adapt quantile regression techniques to the context of financial risk management in a novel way. Firstly, to predict extreme market risk, nonparametric quantile regression is combined with extreme value theory. The resulting extreme Value at Risk (VaR) forecast framework is applied to different international stock indices. In many situations, its performance is superior to parametric benchmark models. Secondly, a systemic risk measure, the realized systemic risk beta, is proposed. In contrast to exististing measures it is tailored to account for tail risk interconnections within the financial sector, individual firm characteristics, and financial indicators. To determine each company’s relevant risk drivers, model selection techniques for high-dimensional quantile regression are employed. The realized systemic risk beta corresponds to the total effect of each firm’s VaR on the system’s VaR. Using data on major financial institutions in the U.S. and in Europe, it is shown that the new measure is a valuable tool to both estimate and forecast systemic risk.
49

Feynman integrals and hyperlogarithms

Panzer, Erik 06 March 2015 (has links)
Wir untersuchen Feynman-Integrale in der Darstellung mit Schwinger-Parametern und leiten rekursive Integralgleichungen für masselose 3- und 4-Punkt-Funktionen her. Eigenschaften der analytischen (und dimensionalen) Regularisierung werden zusammengefasst und wir beweisen, dass in der Euklidischen Region jedes Feynman-Integral als eine Linearkombination konvergenter Feynman-Integrale geschrieben werden kann. Dies impliziert, dass man stets eine Basis aus konvergenten Masterintegralen wählen kann und somit divergente Integrale nicht selbst berechnet werden müssen. Weiterhin geben wir eine in sich geschlossene Darstellung der Theorie der Hyperlogarithmen und erklären detailliert die nötigen Algorithmen, um diese für die Berechnung mehrfacher Integrale anzuwenden. Wir definieren eine neue Methode um die Singularitäten solcher Integrale zu bestimmen und stellen ein Computerprogramm vor, welches die Integrationsalgorithmen implementiert. Unser Hauptresultat ist die Konstruktion unendlicher Familien masseloser 3- und 4-Punkt-Funktionen (diese umfassen unter anderem alle Leiter-Box-Graphen und deren Minoren), deren Feynman-Integrale zu allen Ordnungen in der epsilon-Entwicklung durch multiple Polylogarithmen dargestellt werden können. Diese Integrale können mit dem vorgestellten Programm explizit berechnet werden. Die Arbeit enthält interessante Beispiele von expliziten Ergebnissen für Feynman-Integrale mit bis zu 6 Schleifen. Insbesondere präsentieren wir den ersten exakt bestimmten Gegenterm in masseloser phi^4-Theorie, der kein multipler Zetawert ist sondern eine Linearkombination multipler Polylogarithmen, ausgewertet an primitiven sechsten Einheitswurzeln (und geteilt durch die Quadratwurzel aus 3). Zu diesem Zweck beweisen wir ein Paritätsresultat über die Zerlegbarkeit der Real- und Imaginärteile solcher Zahlen in Produkte und Beiträge geringerer Tiefe (depth). / We study Feynman integrals in the representation with Schwinger parameters and derive recursive integral formulas for massless 3- and 4-point functions. Properties of analytic (including dimensional) regularization are summarized and we prove that in the Euclidean region, each Feynman integral can be written as a linear combination of convergent Feynman integrals. This means that one can choose a basis of convergent master integrals and need not evaluate any divergent Feynman graph directly. Secondly we give a self-contained account of hyperlogarithms and explain in detail the algorithms needed for their application to the evaluation of multivariate integrals. We define a new method to track singularities of such integrals and present a computer program that implements the integration method. As our main result, we prove the existence of infinite families of massless 3- and 4-point graphs (including the ladder box graphs with arbitrary loop number and their minors) whose Feynman integrals can be expressed in terms of multiple polylogarithms, to all orders in the epsilon-expansion. These integrals can be computed effectively with the presented program. We include interesting examples of explicit results for Feynman integrals with up to 6 loops. In particular we present the first exactly computed counterterm in massless phi^4 theory which is not a multiple zeta value, but a linear combination of multiple polylogarithms at primitive sixth roots of unity (and divided by the square-root of 3). To this end we derive a parity result on the reducibility of the real- and imaginary parts of such numbers into products and terms of lower depth.
50

Robust boosting via convex optimization

Rätsch, Gunnar January 2001 (has links)
In dieser Arbeit werden statistische Lernprobleme betrachtet. Lernmaschinen extrahieren Informationen aus einer gegebenen Menge von Trainingsmustern, so daß sie in der Lage sind, Eigenschaften von bisher ungesehenen Mustern - z.B. eine Klassenzugehörigkeit - vorherzusagen. Wir betrachten den Fall, bei dem die resultierende Klassifikations- oder Regressionsregel aus einfachen Regeln - den Basishypothesen - zusammengesetzt ist. Die sogenannten Boosting Algorithmen erzeugen iterativ eine gewichtete Summe von Basishypothesen, die gut auf ungesehenen Mustern vorhersagen. <br /> Die Arbeit behandelt folgende Sachverhalte: <br /> <br /> o Die zur Analyse von Boosting-Methoden geeignete Statistische Lerntheorie. Wir studieren lerntheoretische Garantien zur Abschätzung der Vorhersagequalität auf ungesehenen Mustern. Kürzlich haben sich sogenannte Klassifikationstechniken mit großem Margin als ein praktisches Ergebnis dieser Theorie herausgestellt - insbesondere Boosting und Support-Vektor-Maschinen. Ein großer Margin impliziert eine hohe Vorhersagequalität der Entscheidungsregel. Deshalb wird analysiert, wie groß der Margin bei Boosting ist und ein verbesserter Algorithmus vorgeschlagen, der effizient Regeln mit maximalem Margin erzeugt.<br /> <br /> o Was ist der Zusammenhang von Boosting und Techniken der konvexen Optimierung? <br /> Um die Eigenschaften der entstehenden Klassifikations- oder Regressionsregeln zu analysieren, ist es sehr wichtig zu verstehen, ob und unter welchen Bedingungen iterative Algorithmen wie Boosting konvergieren. Wir zeigen, daß solche Algorithmen benutzt werden koennen, um sehr große Optimierungsprobleme mit Nebenbedingungen zu lösen, deren Lösung sich gut charakterisieren laesst. Dazu werden Verbindungen zum Wissenschaftsgebiet der konvexen Optimierung aufgezeigt und ausgenutzt, um Konvergenzgarantien für eine große Familie von Boosting-ähnlichen Algorithmen zu geben.<br /> <br /> o Kann man Boosting robust gegenüber Meßfehlern und Ausreissern in den Daten machen? <br /> Ein Problem bisheriger Boosting-Methoden ist die relativ hohe Sensitivität gegenüber Messungenauigkeiten und Meßfehlern in der Trainingsdatenmenge. Um dieses Problem zu beheben, wird die sogenannte 'Soft-Margin' Idee, die beim Support-Vector Lernen schon benutzt wird, auf Boosting übertragen. Das führt zu theoretisch gut motivierten, regularisierten Algorithmen, die ein hohes Maß an Robustheit aufweisen.<br /> <br /> o Wie kann man die Anwendbarkeit von Boosting auf Regressionsprobleme erweitern? <br /> Boosting-Methoden wurden ursprünglich für Klassifikationsprobleme entwickelt. Um die Anwendbarkeit auf Regressionsprobleme zu erweitern, werden die vorherigen Konvergenzresultate benutzt und neue Boosting-ähnliche Algorithmen zur Regression entwickelt. Wir zeigen, daß diese Algorithmen gute theoretische und praktische Eigenschaften haben.<br /> <br /> o Ist Boosting praktisch anwendbar? <br /> Die dargestellten theoretischen Ergebnisse werden begleitet von Simulationsergebnissen, entweder, um bestimmte Eigenschaften von Algorithmen zu illustrieren, oder um zu zeigen, daß sie in der Praxis tatsächlich gut funktionieren und direkt einsetzbar sind. Die praktische Relevanz der entwickelten Methoden wird in der Analyse chaotischer Zeitreihen und durch industrielle Anwendungen wie ein Stromverbrauch-Überwachungssystem und bei der Entwicklung neuer Medikamente illustriert. / In this work we consider statistical learning problems. A learning machine aims to extract information from a set of training examples such that it is able to predict the associated label on unseen examples. We consider the case where the resulting classification or regression rule is a combination of simple rules - also called base hypotheses. The so-called boosting algorithms iteratively find a weighted linear combination of base hypotheses that predict well on unseen data. We address the following issues:<br /> <br /> o The statistical learning theory framework for analyzing boosting methods.<br /> We study learning theoretic guarantees on the prediction performance on unseen examples. Recently, large margin classification techniques emerged as a practical result of the theory of generalization, in particular Boosting and Support Vector Machines. A large margin implies a good generalization performance. Hence, we analyze how large the margins in boosting are and find an improved algorithm that is able to generate the maximum margin solution.<br /> <br /> o How can boosting methods be related to mathematical optimization techniques?<br /> To analyze the properties of the resulting classification or regression rule, it is of high importance to understand whether and under which conditions boosting converges. We show that boosting can be used to solve large scale constrained optimization problems, whose solutions are well characterizable. To show this, we relate boosting methods to methods known from mathematical optimization, and derive convergence guarantees for a quite general family of boosting algorithms.<br /> <br /> o How to make Boosting noise robust?<br /> One of the problems of current boosting techniques is that they are sensitive to noise in the training sample. In order to make boosting robust, we transfer the soft margin idea from support vector learning to boosting. We develop theoretically motivated regularized algorithms that exhibit a high noise robustness.<br /> <br /> o How to adapt boosting to regression problems?<br /> Boosting methods are originally designed for classification problems. To extend the boosting idea to regression problems, we use the previous convergence results and relations to semi-infinite programming to design boosting-like algorithms for regression problems. We show that these leveraging algorithms have desirable theoretical and practical properties.<br /> <br /> o Can boosting techniques be useful in practice?<br /> The presented theoretical results are guided by simulation results either to illustrate properties of the proposed algorithms or to show that they work well in practice. We report on successful applications in a non-intrusive power monitoring system, chaotic time series analysis and a drug discovery process. <br><br> ---<br> Anmerkung:<br> Der Autor ist Träger des von der Mathematisch-Naturwissenschaftlichen Fakultät der Universität Potsdam vergebenen Michelson-Preises für die beste Promotion des Jahres 2001/2002.

Page generated in 0.4594 seconds