Spelling suggestions: "subject:"variationsungleichungen"" "subject:"evolutionsgleichung""
1 |
Lösungsmethoden für VariationsungleichungenPonomarenko, Andrej. January 2003 (has links) (PDF)
Berlin, Humboldt-Universiẗat, Diss., 2003.
|
2 |
Über einparametrische Optimierungsprobleme (spezielle Einbettungen) und einparametrische VariationsungleichungenBofill, Gomez Walter. January 1999 (has links)
Berlin, Humboldt-Universiẗat, Diss., 1999.
|
3 |
Lagrange Multiplier Methods for Constrained Optimization and Variational Problems in Banach Spaces / Lagrange-Multiplier-Verfahren für Restringierte Optimierung und Variationsprobleme in Banach-RäumenSteck, Daniel January 2018 (has links) (PDF)
This thesis is concerned with a class of general-purpose algorithms for constrained minimization problems, variational inequalities, and quasi-variational inequalities in Banach spaces.
A substantial amount of background material from Banach space theory, convex analysis, variational analysis, and optimization theory is presented, including some results which are refinements of those existing in the literature. This basis is used to formulate an augmented Lagrangian algorithm with multiplier safeguarding for the solution of constrained optimization problems in Banach spaces. The method is analyzed in terms of local and global convergence, and many popular problem classes such as nonlinear programming, semidefinite programming, and function space optimization are shown to be included as special cases of the general setting.
The algorithmic framework is then extended to variational and quasi-variational inequalities, which include, by extension, Nash and generalized Nash equilibrium problems. For these problem classes, the convergence is analyzed in detail. The thesis then presents a rich collection of application examples for all problem classes, including implementation details and numerical results. / Die vorliegende Arbeit handelt von einer Klasse allgemein anwendbarer Verfahren zur Lösung restringierter Optimierungsprobleme, Variations- und Quasi-Variationsungleichungen in Banach-Räumen.
Zur Vorbereitung wird eine erhebliche Menge an Grundmaterial präsentiert. Dies beinhaltet die Theorie von Banach-Räumen, konvexe und variationelle Analysis sowie Optimierungstheorie. Manche der angegebenen Resultate sind hierbei Verfeinerungen der entsprechenden Ergebnisse aus der Literatur. Im Anschluss wird ein Augmented-Lagrange-Verfahren für restingierte Optimierungsprobleme in Banach-Räumen präsentiert. Der Algorithmus wird hinsichtlich lokaler und globaler Konvergenz untersucht, und viele typische Problemklassen wie nichtlineare Programme, semidefinite Programme oder Optimierungsprobleme in Funktionenräumen werden als Spezialfälle aufgezeigt.
Der Algorithmus wird dann auf Variations- und Quasi-Variationsungleichungen verallgemeinert, wodurch implizit auch (verallgemeinerte) Nash-Gleichgewichtsprobleme abgehandelt werden. Für diese Problemklassen werden eigene Konvergenzanalysen betrieben. Die Dissertation beinhaltet zudem eine umfangreiche Sammlung von Anwendungsbeispielen und zugehörigen numerischen Ergebnissen.
|
4 |
Proximal-ähnliche Verfahren für monotone Variationsungleichungen mit mengenwertigen OperatorenHübner, Ewgenij January 2007 (has links)
Zugl.: Trier, Univ., Diss., 2007
|
5 |
On solving nonlinear variational inequalities by p-version finite elementsKrebs, Andreas. January 2004 (has links) (PDF)
Hannover, Univ., Diss., 2004.
|
6 |
Exploring Non-Smoothness in Shape Optimization: An Analysis of Shape Optimization Problems Constrained by Variational Inequalities and a Diffeological Perspective on Shape SpacesGoldammer, Nico 16 December 2024 (has links)
Diese Arbeit untersucht Nicht-Glattheiten im Bereich der Formoptimierung aus zwei verschiedenen Perspektiven.
Einerseits werden Formoptimierungsprobleme betrachtet, die durch Variationsungleichungen eingeschränkt sind. Häufig fallen diese unter die sogenannten Hindernis-Probleme.
Diese Probleme haben zahlreiche Anwendungen, beispielsweise bei der Konstruktion von Formen, die Einschränkungen durch die Lösung von partiellen Differentialgleichungen unterliegen, welche wiederum von der optimierten Geometrie abhängen.
Oft werden verschiedene Regularisierungsmethoden genutzt, um der Nicht-Glattheit und Nicht-Konvexität Herr zu werden.
Über die Nicht-Glattheiten hinaus ergeben sich weitere Herausforderungen, welche durch die Variationsungleichheiten sowie durch Nicht-Konvexität und Unendlich-Dimensionalität auftreten.
Diese Faktoren erschweren die Formulierung von Optimalitätsbedingungen und die Entwicklung effizienter Lösungsalgorithmen.
In dieser Arbeit wird ein Ansatz vorgestellt, welcher es ermöglicht, Nicht-Glattheiten ohne Regularisierung zu behandeln.
Dazu wird die Hadamard-Semiableitung verwendet.
Auf der anderen Seite steht die Frage nach geeigneten Formräumen im Fokus und motiviert den zweiten Teil dieser Arbeit.
Herkömmliche Formräume umfassen typischerweise glatte Verformungen der Kugel und sind mit einer glatten Struktur versehen.
Dadurch kommt es zu einer Vernachlässigung von Formen mit Ecken und Kanten.
Die Konstruktion eines Formraums, der nicht-glatte Formen beinhaltet, ist keine Herausforderung. Das Arbeiten mit einem solchen Raum hingegen schon.
Typische glatte Strukturen, wie die der riemannschen Mannigfaltigkeit, gehen unter Umständen verloren.
Diese Arbeit führt daher diffeologische Räume als natürliche Verallgemeinerung glatter Mannigfaltigkeiten ein.
Die Erweiterung von Optimierungstechniken von glatten Mannigfaltigkeiten auf diffeologische Räume stellt eine Herausforderung da.
Besondere Aspekte sind die Existenz nicht-äquivalenter Definitionen des Tangentialraums sowie die Notwendigkeit einer erweiterten riemannschen Struktur zur Herleitung von Gradienten.
Diese Arbeit präsentiert eine Erweiterung der bereits bekannten riemannschen Optimierung und ihrer Objekte.
Dazu gehören unter anderem Definitionen für einen geeigneten Tangentialraum, ein diffeologisches riemannsches Setting, einen diffeologischen Gradienten, eine diffeologische Retraktion und einen diffeologischen Levi-Civita-Zusammenhang.
Dies resultiert in der Formulierung eines diffeologischen Gradientenverfahrens, das auf ein Optimierungsproblem angewendet wird.:Abstract
Zusammenfassung
Acknowledgments
Preface
1 Introduction
1.1 Motivation,Aim,andScopeoftheThesis
1.2 StructureoftheThesis
2 Background Knowledge
2.1 DifferentialGeometry
2.2 ShapeOptimization
2.2.1 ABasicIntroduction
2.2.2 A Brief Overview of Variational Inequality Constraints
2.2.3 ShapeSpaces
3 A Hadamard Approach for Variational Inequality Constrains
3.1 HadamardSemiderivative
3.1.1 A Brief Introduction into Hadamard Semiderivatives
3.1.2 HadamardShapeDerivativeCalculus
3.2 HadamardOptimalitySystem
3.3 Application
4 Optimization on Diffeological Spaces
4.1 ABriefIntroductiontoDiffeologicalSpaces
4.2 Towards Optimization Algorithms on Diffeological Spaces
4.2.1 TangentSpace
4.2.2 Examples of Diffeological Tangent Spaces
4.2.3 DiffeologicalRiemannianSpace
4.2.4 Towards Updates of Iterates: Diffeological Levi-Civita ConnectionandDiffeologicalRetraction
4.3 Formulation of Diffeological Optimization Algorithms andTheirApplication
5 Conclusion
6 Notations / This thesis is concerned with non-smoothness from two different points of view regarding shape optimization problems.
On one hand this thesis considers shape optimization problems that are constrained by variational inequalities of the first kind, often known as obstacle-type problems. These problems find numerous applications when constructing a shape that must adhere to constraints imposed on the solution of a partial differential equation dependent on the geometry being optimized. Since those problems are non-smooth and non-convex optimization problems, they are often handled using several regularization methods. Besides the non-smoothness there are complementary aspects due to the variational inequalities as well as non-linear, non-convex and infinite-dimensional aspects due to the shapes. This complicates setting up an optimality system, and thus developing an efficient solution algorithm. This thesis is presenting a way to deal with the non-smoothness without the requirement of regularizations. Therefore, the Hadamard semiderivative setting is considered. After introducing the Hadamard semiderivative and considering the Hadamard shape calculus, the Hadamard adjoint is introduced. This allows us to handle shape optimization problems that are constrained by variational inequalities of the first kind without using any kind of regularization.
On the other hand this thesis is confronted with the question of suitable shape spaces. What is a suitable space that contains all important shapes? This question is the motivation of the second part of this thesis. A common shape space usually contains some kind of smooth deformations of the sphere. Often those shape spaces are equipped with a suitable smooth structure. This can results in the neglection of shapes that have kinks and corners and are non-smooth. The construction of a shape space that includes non-smooth shapes is not a major challenge but working with such a space is. How do you optimize if your space is not a manifold? On answering this question lies the main focus of the second part of this thesis. Therefore, this thesis introduces so-called diffeological spaces. Diffeological spaces, firstly introduced by J.M. Souriau in the 1980s, are a natural generalization of smooth manifolds. To date, optimization techniques have primarily been developed on manifolds. Extending these methods to diffeological spaces presents a significant challenge for several reasons. One prominent obstacle is the existence of different definitions for tangent spaces that do not coincide with one another. Furthermore, the expansion necessitates the creation of a broader concept of a Riemannian structure to establish gradients, which are essential components for optimization strategies. The first major step is a suitable definition of a tangent space in view of optimization methods. This definition is then used in order to present a diffeological Riemannian space and a diffeological gradient, which this thesis needs to formulate an optimization algorithm on diffeological spaces. Moreover, this thesis presents a diffeological retraction and the Levi-Civita connection on diffeological spaces. As a result a diffeological version of the steepest decent method is obtained. This thesis gives examples for the novel objects and apply the presented diffeological algorithm (an algorithm for diffeological spaces) to an optimization problem.:Abstract
Zusammenfassung
Acknowledgments
Preface
1 Introduction
1.1 Motivation,Aim,andScopeoftheThesis
1.2 StructureoftheThesis
2 Background Knowledge
2.1 DifferentialGeometry
2.2 ShapeOptimization
2.2.1 ABasicIntroduction
2.2.2 A Brief Overview of Variational Inequality Constraints
2.2.3 ShapeSpaces
3 A Hadamard Approach for Variational Inequality Constrains
3.1 HadamardSemiderivative
3.1.1 A Brief Introduction into Hadamard Semiderivatives
3.1.2 HadamardShapeDerivativeCalculus
3.2 HadamardOptimalitySystem
3.3 Application
4 Optimization on Diffeological Spaces
4.1 ABriefIntroductiontoDiffeologicalSpaces
4.2 Towards Optimization Algorithms on Diffeological Spaces
4.2.1 TangentSpace
4.2.2 Examples of Diffeological Tangent Spaces
4.2.3 DiffeologicalRiemannianSpace
4.2.4 Towards Updates of Iterates: Diffeological Levi-Civita ConnectionandDiffeologicalRetraction
4.3 Formulation of Diffeological Optimization Algorithms andTheirApplication
5 Conclusion
6 Notations
|
7 |
Generalized Tikhonov regularizationFlemming, Jens 01 November 2011 (has links) (PDF)
The dissertation suggests a generalized version of Tikhonov regularization and analyzes its properties. The focus is on convergence rates theory and an extensive example for regularization with Poisson distributed data is given.
|
8 |
Generalized Tikhonov regularization: Basic theory and comprehensive results on convergence ratesFlemming, Jens 27 October 2011 (has links)
The dissertation suggests a generalized version of Tikhonov regularization and analyzes its properties. The focus is on convergence rates theory and an extensive example for regularization with Poisson distributed data is given.
|
9 |
Numerical treatment of the Black-Scholes variational inequality in computational financeMautner, Karin 16 February 2007 (has links)
In der Finanzmathematik hat der Besitzer einer amerikanische Option das Recht aber nicht die Pflicht, eine Aktie innerhalb eines bestimmten Zeitraums, für einen bestimmten Preis zu kaufen oder zu verkaufen. Die Bewertung einer amerikanische Option wird als so genanntes optimale stopping Problem formuliert. Erfolgt die Modellierung des Aktienkurses durch eine geometrische Brownsche Bewegung, wird der Wert einer amerikanischen Option durch ein deterministisches freies Randwertproblem (FRWP), oder einer äquivalenten Variationsungleichung (VU) auf ganz R in gewichteten Sobolev Räumen gegeben. Um Standardmethoden der Numerischen Mathematik anzuwenden, wird das unbeschränkte Gebiet zu einem beschränkten Gebiet abgeschnitten. Mit Hilfe der Fourier-Transformation wird eine Integraldarstellung der Lösung die den freien Rand explizit beinhaltet, hergeleitet. Mittels dieser Integraldarstellung werden Abschneidefehlerschranken bewiesen. Danach werden gewichtete Poincare Ungleichungen mit expliziten Konstanten bewiesen. Der Abschneidefehler und die gewichtete Poincare Ungleichung ermöglichen, einen zuverlässigen a posteriori Fehlerschätzer zwischen der exakten Lösung der VU und der semidiskreten Lösung des penalisierten Problems auf R herzuleiten. Eine hinreichend glatte Lösung der VU garantiert die Konvergenz der Lösung des penaltisierten Problems zur Lösung der VU. Ein a priori Fehlerschätzer für den Fehler zwischen der exakten Lösung der VU und der semidiskreten Lösung des penaltisierten Problems beendet die numerische Analysis. Die eingeführten aposteriori Fehlerschätzer motivieren einen Algorithmus für adaptive Netzverfeinerung. Numerische Experimente zeigen die verbesserte Konvergenz des adaptiven Verfahrens gegenüber der uniformen Verfeinerung. Der zuverlässige a posteriori Fehlerschätzer ermöglicht es, den Abschneidepunkt so zu wählen, dass der Gesamtfehler (Diskretisierungsfehler plus Abschneidefehler) kleiner als eine gegebenen Toleranz ist. / Among the central concerns in mathematical finance is the evaluation of American options. An American option gives the holder the right but not the obligation to buy or sell a certain financial asset within a certain time-frame, for a certain strike price. The valuation of American options is formulated as an optimal stopping problem. If the stock price is modelled by a geometric Brownian motion, the value of an American option is given by a deterministic parabolic free boundary value problem (FBVP) or equivalently a non-symmetric variational inequality (VI) on weighted Sobolev spaces on R. To apply standard numerical methods, the unbounded domain R is truncated to a bounded one. Applying the Fourier transform to the FBVP yields an integral representation of the solution including the free boundary explicitely. This integral representation allows to prove explicit truncation errors. Since the VI is formulated within the framework of weighted Sobolev spaces, we establish a weighted Poincare inequality with explicit determined constants. The truncation error estimate and the weighted Poncare inequality enable a reliable a posteriori error estimate between the exact solution of the VI and the semi-discrete solution of the penalised problem on R. A sufficient regular solution provides the convergence of the solution of the penalised problem to the solution of the VI. An a priori error estimate for the error between the exact solution of the VI and the semi-discrete solution of the penalised problem concludes the numerical analysis. The established a posteriori error estimates motivates an algorithm for adaptive mesh refinement. Numerical experiments show the improved convergence of the adaptive algorithm compared to uniform mesh refinement. The reliable a posteriori error estimate including explicit truncation errors allows to determine a truncation point such that the total error (discretisation and truncation error) is below a given error tolerance.
|
Page generated in 0.1343 seconds