41 |
Beiträge zur Regularisierung inverser Probleme und zur bedingten Stabilität bei partiellen DifferentialgleichungenShao, Yuanyuan 14 January 2013 (has links)
Wir betrachten die lineare inverse Probleme mit gestörter rechter Seite und gestörtem Operator in Hilberträumen, die inkorrekt sind. Um die Auswirkung der Inkorrektheit zu verringen, müssen spezielle Lösungsmethode angewendet werden, hier nutzen wir die sogenannte Tikhonov Regularisierungsmethode. Die Regularisierungsparameter wählen wir aus das verallgemeinerte Defektprinzip. Eine typische numerische Methode zur Lösen der nichtlinearen äquivalenten Defektgleichung ist Newtonverfahren. Wir schreiben einen Algorithmus, die global und monoton konvergent für beliebige Startwerte garantiert.
Um die Stabilität zu garantieren, benutzen wir die Glattheit der Lösung, dann erhalten wir eine sogenannte bedingte Stabilität. Wir demonstrieren die sogenannte Interpolationsmethode zur Herleitung von bedingten Stabilitätsabschätzungen bei inversen Problemen für partielle Differentialgleichungen.
|
42 |
Analytische und numerische Studien zu inversen Problemen der OptionspreisbildungHein, Torsten 19 December 2003 (has links)
The dissetation deals with the inverse problem of identification
of local volatilities from given option price data. The used
separation between purely time- and purely price-dependent
volatilities enables a detailed mathematical analysis of the
corresponding inverse problems. Those are formulated in proper
Banach spaces (Hilbert spaces) as operator equations. The
unique solvability of these equations are examined. Because
the solutions doesn't depend continuously form the given data,
possibilities of regularization are discussed. In particular
the nonlinear Tikhonov regularization and its applicability
to the corresponding problems plays the leading part in these
investigations. Detailed numerical studies illustrate these
considerations and top this disseration off. / Die Dissertation beschäftigt sich mit dem inversen Problem
der Identifikation lokaler Volatilitäten aus gegebenen
Optionspreisen. Die dabei benutzte Trennung zwischen rein zeit-
und rein preisabhängigen Volatilitäten erlaubt eine tiefgehende
mathematische Analyse der entsprechend formulierten inversen
Probleme. Diese werden in geeigneten Banachräumen (Hilberträumen)
als Operatorgleichung angegeben und auf die eindeutige
Lösbarkeit hin untersucht. Da sich die Lösungen als instabil
gegenüber Störungen in den Daten erweisen, werden Möglichkeiten
der Regularisierung diskutiert. Insbesondere steht dabei die
Untersuchung der Anwendbarkeit der Theorie der nichtlinearen
Tikhonov-Regularisierung auf die entsprechenden Probleme im
Vordergrund. Ausführliche numerische Studien illustrieren die
diese Überlegungen und runden die Arbeit ab.
|
43 |
Regularization properties of the discrepancy principle for Tikhonov regularization in Banach spaces: Regularization properties of the discrepancy principle for Tikhonov regularization in Banach spacesAnzengruber, Stephan W., Hofmann, Bernd, Mathé, Peter January 2012 (has links)
The stable solution of ill-posed non-linear operator equations in Banach space requires regularization. One important approach is based on Tikhonov regularization, in which case a one-parameter family of regularized solutions is obtained. It is crucial to choose the parameter appropriately. Here, a variant of the discrepancy principle is analyzed. In many cases such parameter choice exhibits the feature, called regularization property below, that the chosen parameter tends to zero as the noise tends to zero, but slower than the noise level. Here we shall show such regularization property under two natural assumptions. First, exact penalization must be excluded, and secondly, the discrepancy principle must stop after a finite number of iterations. We conclude this study with a discussion of some consequences for convergence rates obtained by the discrepancy principle under the validity of some kind of variational inequality, a recent tool for the analysis of inverse problems.
|
44 |
Identification of differential regulation in central carbon metabolism between related cell linesRainer, Roman Josef 23 November 2020 (has links)
Darmkrebszellen und T-Zellen regulieren ihren zentralen Kohlenstoffmetabolismus um
ihren anabolen Bedarf zu erfüllen. Tumorzellen mit einer KRAS- oder BRAF-Mutation
zeigen ein schnelles Wachstum, welches eine Umprogrammierung des Metabolismus vor
aussetzt. Der mitochondriale T-Zellen-Aktivierungsinhibitor (TCAIM) ist bekannt dafür
die mitochondriale Zellstruktur zu beeinflussen. Der Einfluss auf den Metabolismus nicht
klar.
In dieser Arbeit präsentiere ich erstmalig ein mathematische Model des zentralen Kohlen
stoffmetabolismus in Darmkrebszellen und T-Zellen. Mithilfe dieses Modells analysiere
ich, wie sich die Regulation in ähnlichen Zelllinien unterscheidet. In Bezug auf die Darm
krebszellen vergleiche ich BRAF-(CaCO2-BRAFV600E), KRAS-(CaCO2-KRASG12V) mu
tierte Zelllinien mit einer Basiszelllinie (CaCO2-control) und zeige, dass der Kohlenstoff
metabolismus in BRAF-mutierten Zellen im Vergleich zu den beiden übrigen Zelllinien
herabreguliert ist. Das Modell bestätigt außerdem, dass der Monocarboxylattransporter
(MCT) in den Darmkrebszellen eine wichtige Rolle, insbesondere in den KRAS mu
tierten Zellen, spielt. In T-Zellen zeigt der Vergleich von Wildtypzellen (CD8 T-Zellen)
mit TCAIM homozygoten Zellen (TCAIM homozygote CD8 T-Zellen), dass der Kohlen
stoffmetabolismus in zweiteren überwiegend herabreguliert und weniger aktiv ist. Diesen
Effekt konnte ich durch die Analyse von RNASeq-Daten der jeweiligen Zelltypen bestä-
tigen. Des Weiteren stelle ich fest, dass sich der Tricarbonsäurezyklus umkehrt, wenn
durch die Glykolyse nicht ausreichend Laktat exportiert und die Biomasseproduktion
unterstützt werden kann.
Meine Arbeit stellt damit insgesamt einen neuartigen Ansatz zur Integration von Meta
bolomik und RNAseq Daten dar, um die Regulation des zentralen Kohlenstoffmetabo
lismus zu verstehen. / Colon cancer cells and T cells regulate central carbon metabolism to meet their anabolic
needs. In KRAS and BRAF tumors, metabolic reprogramming is a premise to support
rapid proliferation. In T cells, the mitochondrial T cell activation inhibitor (TCAIM)
is known to affect mitochondrial morphology but its effect on cellular metabolism is
not well understood. Via mathematical modelling, I investigate the differential regulation of closely related cell lines. I present the first mathematical model for colon cancer and T cell metabolism, unraveling differential regulation between related cell lines.
The model shows that CaCO2-BRAFV600Ecells are mostly downregulated compared to
CaCO2-KRASG12Vand CaCO2-control. Additionally, it demonstrates the critical role
of monocarboxylate transporter (MCT), especially for CaCO2-KRASG12V. Concerning T cells, I compare wild-type T cells to homozygous TCAIM T cells. This unveils
that TCAIM homozygous cells have a mostly downregulated TCA cycle, validated by
RNASeq data, and are less metabolically active than wild-type T cells. Furthermore,
if the glycolytic flux is not sufficient to support lactate export and biomass production,
the model reveals that the TCA cycle is reversed as it requires less regulation. Taken
together, this work presents a novel approach to integrate data referring to metabolic
and genetic regulation of metabolism. On this basis, we can now better discriminate the
metabolic capacity of CaCO2-control, CaCO2-BRAFV600E, CaCO2-KRASG12V, wildtype CD8 T cells, and homozygous TCAIM CD8 T cells.
|
45 |
The impact of a curious type of smoothness conditions on convergence rates in l1-regularizationBot, Radu Ioan, Hofmann, Bernd January 2013 (has links)
Tikhonov-type regularization of linear and nonlinear ill-posed problems in abstract spaces under sparsity constraints gained relevant attention in the past years. Since under some weak assumptions all regularized solutions are sparse if the l1-norm is used as penalty term, the l1-regularization was studied by numerous authors although the non-reflexivity of the Banach space l1 and the fact that such penalty functional is not strictly convex lead to serious difficulties. We consider the case that the sparsity assumption is narrowly missed. This means that the solutions may have an infinite number of nonzero but fast decaying components. For that case we formulate and prove convergence rates results for the l1-regularization of nonlinear operator equations. In this context, we outline the situations of Hölder rates and of an exponential decay of the solution components.
|
46 |
Studies on two specific inverse problems from imaging and financeRückert, Nadja 20 July 2012 (has links) (PDF)
This thesis deals with regularization parameter selection methods in the context of Tikhonov-type regularization with Poisson distributed data, in particular the reconstruction of images, as well as with the identification of the volatility surface from observed option prices.
In Part I we examine the choice of the regularization parameter when reconstructing an image, which is disturbed by Poisson noise, with Tikhonov-type regularization. This type of regularization is a generalization of the classical Tikhonov regularization in the Banach space setting and often called variational regularization. After a general consideration of Tikhonov-type regularization for data corrupted by Poisson noise, we examine the methods for choosing the regularization parameter numerically on the basis of two test images and real PET data.
In Part II we consider the estimation of the volatility function from observed call option prices with the explicit formula which has been derived by Dupire using the Black-Scholes partial differential equation. The option prices are only available as discrete noisy observations so that the main difficulty is the ill-posedness of the numerical differentiation. Finite difference schemes, as regularization by discretization of the inverse and ill-posed problem, do not overcome these difficulties when they are used to evaluate the partial derivatives. Therefore we construct an alternative algorithm based on the weak formulation of the dual Black-Scholes partial differential equation and evaluate the performance of the finite difference schemes and the new algorithm for synthetic and real option prices.
|
47 |
Studies on two specific inverse problems from imaging and financeRückert, Nadja 16 July 2012 (has links)
This thesis deals with regularization parameter selection methods in the context of Tikhonov-type regularization with Poisson distributed data, in particular the reconstruction of images, as well as with the identification of the volatility surface from observed option prices.
In Part I we examine the choice of the regularization parameter when reconstructing an image, which is disturbed by Poisson noise, with Tikhonov-type regularization. This type of regularization is a generalization of the classical Tikhonov regularization in the Banach space setting and often called variational regularization. After a general consideration of Tikhonov-type regularization for data corrupted by Poisson noise, we examine the methods for choosing the regularization parameter numerically on the basis of two test images and real PET data.
In Part II we consider the estimation of the volatility function from observed call option prices with the explicit formula which has been derived by Dupire using the Black-Scholes partial differential equation. The option prices are only available as discrete noisy observations so that the main difficulty is the ill-posedness of the numerical differentiation. Finite difference schemes, as regularization by discretization of the inverse and ill-posed problem, do not overcome these difficulties when they are used to evaluate the partial derivatives. Therefore we construct an alternative algorithm based on the weak formulation of the dual Black-Scholes partial differential equation and evaluate the performance of the finite difference schemes and the new algorithm for synthetic and real option prices.
|
48 |
Robust boosting via convex optimizationRätsch, Gunnar January 2001 (has links)
In dieser Arbeit werden statistische Lernprobleme betrachtet. Lernmaschinen extrahieren Informationen aus einer gegebenen Menge von Trainingsmustern, so daß sie in der Lage sind, Eigenschaften von bisher ungesehenen Mustern - z.B. eine Klassenzugehörigkeit - vorherzusagen. Wir betrachten den Fall, bei dem die resultierende Klassifikations- oder Regressionsregel aus einfachen Regeln - den Basishypothesen - zusammengesetzt ist. Die sogenannten Boosting Algorithmen erzeugen iterativ eine gewichtete Summe von Basishypothesen, die gut auf ungesehenen Mustern vorhersagen. <br />
Die Arbeit behandelt folgende Sachverhalte: <br />
<br />
o Die zur Analyse von Boosting-Methoden geeignete Statistische Lerntheorie. Wir studieren lerntheoretische Garantien zur Abschätzung der Vorhersagequalität auf ungesehenen Mustern. Kürzlich haben sich sogenannte Klassifikationstechniken mit großem Margin als ein praktisches Ergebnis dieser Theorie herausgestellt - insbesondere Boosting und Support-Vektor-Maschinen. Ein großer Margin impliziert eine hohe Vorhersagequalität der Entscheidungsregel. Deshalb wird analysiert, wie groß der Margin bei Boosting ist und ein verbesserter Algorithmus vorgeschlagen, der effizient Regeln mit maximalem Margin erzeugt.<br />
<br />
o Was ist der Zusammenhang von Boosting und Techniken der konvexen Optimierung? <br />
Um die Eigenschaften der entstehenden Klassifikations- oder Regressionsregeln zu analysieren, ist es sehr wichtig zu verstehen, ob und unter welchen Bedingungen iterative Algorithmen wie Boosting konvergieren. Wir zeigen, daß solche Algorithmen benutzt werden koennen, um sehr große Optimierungsprobleme mit Nebenbedingungen zu lösen, deren Lösung sich gut charakterisieren laesst. Dazu werden Verbindungen zum Wissenschaftsgebiet der konvexen Optimierung aufgezeigt und ausgenutzt, um Konvergenzgarantien für eine große Familie von Boosting-ähnlichen Algorithmen zu geben.<br />
<br />
o Kann man Boosting robust gegenüber Meßfehlern und Ausreissern in den Daten machen? <br />
Ein Problem bisheriger Boosting-Methoden ist die relativ hohe Sensitivität gegenüber Messungenauigkeiten und Meßfehlern in der Trainingsdatenmenge. Um dieses Problem zu beheben, wird die sogenannte 'Soft-Margin' Idee, die beim Support-Vector Lernen schon benutzt wird, auf Boosting übertragen. Das führt zu theoretisch gut motivierten, regularisierten Algorithmen, die ein hohes Maß an Robustheit aufweisen.<br />
<br />
o Wie kann man die Anwendbarkeit von Boosting auf Regressionsprobleme erweitern? <br />
Boosting-Methoden wurden ursprünglich für Klassifikationsprobleme entwickelt. Um die Anwendbarkeit auf Regressionsprobleme zu erweitern, werden die vorherigen Konvergenzresultate benutzt und neue Boosting-ähnliche Algorithmen zur Regression entwickelt. Wir zeigen, daß diese Algorithmen gute theoretische und praktische Eigenschaften haben.<br />
<br />
o Ist Boosting praktisch anwendbar? <br />
Die dargestellten theoretischen Ergebnisse werden begleitet von Simulationsergebnissen, entweder, um bestimmte Eigenschaften von Algorithmen zu illustrieren, oder um zu zeigen, daß sie in der Praxis tatsächlich gut funktionieren und direkt einsetzbar sind. Die praktische Relevanz der entwickelten Methoden wird in der Analyse chaotischer Zeitreihen und durch industrielle Anwendungen wie ein Stromverbrauch-Überwachungssystem und bei der Entwicklung neuer Medikamente illustriert. / In this work we consider statistical learning problems. A learning machine aims to extract information from a set of training examples such that it is able to predict the associated label on unseen examples. We consider the case where the resulting classification or regression rule is a combination of simple rules - also called base hypotheses. The so-called boosting algorithms iteratively find a weighted linear combination of base hypotheses that predict well on unseen data. We address the following issues:<br />
<br />
o The statistical learning theory framework for analyzing boosting methods.<br />
We study learning theoretic guarantees on the prediction performance on unseen examples. Recently, large margin classification techniques emerged as a practical result of the theory of generalization, in particular Boosting and Support Vector Machines. A large margin implies a good generalization performance. Hence, we analyze how large the margins in boosting are and find an improved algorithm that is able to generate the maximum margin solution.<br />
<br />
o How can boosting methods be related to mathematical optimization techniques?<br />
To analyze the properties of the resulting classification or regression rule, it is of high importance to understand whether and under which conditions boosting converges. We show that boosting can be used to solve large scale constrained optimization problems, whose solutions are well characterizable. To show this, we relate boosting methods to methods known from mathematical optimization, and derive convergence guarantees for a quite general family of boosting algorithms.<br />
<br />
o How to make Boosting noise robust?<br />
One of the problems of current boosting techniques is that they are sensitive to noise in the training sample. In order to make boosting robust, we transfer the soft margin idea from support vector learning to boosting. We develop theoretically motivated regularized algorithms that exhibit a high noise robustness.<br />
<br />
o How to adapt boosting to regression problems?<br />
Boosting methods are originally designed for classification problems. To extend the boosting idea to regression problems, we use the previous convergence results and relations to semi-infinite programming to design boosting-like algorithms for regression problems. We show that these leveraging algorithms have desirable theoretical and practical properties.<br />
<br />
o Can boosting techniques be useful in practice?<br />
The presented theoretical results are guided by simulation results either to illustrate properties of the proposed algorithms or to show that they work well in practice. We report on successful applications in a non-intrusive power monitoring system, chaotic time series analysis and a drug discovery process.
<br><br>
---<br>
Anmerkung:<br>
Der Autor ist Träger des von der Mathematisch-Naturwissenschaftlichen Fakultät der Universität Potsdam vergebenen Michelson-Preises für die beste Promotion des Jahres 2001/2002.
|
49 |
Fenchel duality-based algorithms for convex optimization problems with applications in machine learning and image restorationHeinrich, André 27 March 2013 (has links) (PDF)
The main contribution of this thesis is the concept of Fenchel duality with a focus on its application in the field of machine learning problems and image restoration tasks. We formulate a general optimization problem for modeling support vector machine tasks and assign a Fenchel dual problem to it, prove weak and strong duality statements as well as necessary and sufficient optimality conditions for that primal-dual pair. In addition, several special instances of the general optimization problem are derived for different choices of loss functions for both the regression and the classifification task. The convenience of these approaches is demonstrated by numerically solving several problems. We formulate a general nonsmooth optimization problem and assign a Fenchel dual problem to it. It is shown that the optimal objective values of the primal and the dual one coincide and that the primal problem has an optimal solution under certain assumptions. The dual problem turns out to be nonsmooth in general and therefore a regularization is performed twice to obtain an approximate dual problem that can be solved efficiently via a fast gradient algorithm. We show how an approximate optimal and feasible primal solution can be constructed by means of some sequences of proximal points closely related to the dual iterates. Furthermore, we show that the solution will indeed converge to the optimal solution of the primal for arbitrarily small accuracy. Finally, the support vector regression task is obtained to arise as a particular case of the general optimization problem and the theory is specialized to this problem. We calculate several proximal points occurring when using difffferent loss functions as well as for some regularization problems applied in image restoration tasks. Numerical experiments illustrate the applicability of our approach for these types of problems.
|
50 |
Change point estimation in noisy Hammerstein integral equations / Sprungstellen-Schätzer für verrauschte Hammerstein Integral GleichungenFrick, Sophie 02 December 2010 (has links)
No description available.
|
Page generated in 0.0635 seconds