51 |
Die rechtliche Behandlung von irregulärer Migration zwischen Migrationskontrolle und Menschenrechten in der Bundesrepublik Deutschland und EuropaRausch, Christine 13 June 2016 (has links)
Der Konflikt zwischen der Forderung nach universellen Rechten für „Jedermann“ einerseits und nationalstaatlich angestrebter Migrationskontrolle andererseits ist im Fall der irregulären Migration besonders augenscheinlich. Der Empfängerstaat kann in diesem Fall seine Souveränität hinsichtlich der Entscheidung über Einreise und Aufenthalt nicht ausüben. Die Verpflichtung, den irregulären Migranten menschenrechtliche Mindeststandards zu gewähren, wird ihm sozusagen aufgezwungen. Das erzeugt erhebliche Spannungsfelder. Der Staat befindet sich hier im Dilemma der rechtlichen Einordnung der ordnungsrechtlich an sich nicht vorhandenen Menschen. Die Individualisierung der persönlichen Situation des irregulären Migranten ist in diesem Fall höchst problematisch, da diese grundsätzlich eine Offenbarung des unrechtmäßigen Aufenthalts voraussetzt. Verschärft wird diese Problematik insbesondere in Deutschland durch die staatlichen Übermittlungspflichten des § 87 Abs. 2 AufenthG. Die Inanspruchnahme von menschenrechtlichen Ansprüchen durch den irregulären Migranten beinhaltet das Risiko der Übermittlung des illegalen Aufenthaltes an die Ausländerbehörde. Werden auf der einen Seite dessen individuell-rechtliche Garantien sowohl auf nationaler als auch auf unionsrechtlicher Ebene anerkannt (z.B. Arbeitnehmerrechte), steht andererseits die Übermittlungspflicht öffentlicher Stellen im Widerspruch dazu. Die entscheidende Frage ist daher, inwieweit die Vorgaben internationaler, europäischer, wie auch nationaler Menschenrechte die staatliche Souveränität im Rahmen der illegalen Migration beschränken können. Insofern liegt der Schwerpunkt des ersten Teils der Dissertation auf der rechtlichen Analyse der universellen wie regionalen Menschenrechtsgarantien und unter welchen Voraussetzungen Menschen ohne Aufenthaltsstatus diese Rechte zuerkannt wurden bzw. werden. Die Untersuchung hat ergeben, dass auf internationaler Ebene die Problematik der rechtlichen Stellung des irregulären Migranten inzwischen wahrgenommen worden ist, und dass dessen Rechte in Form eines vorsichtig formulierten Rechtskatalogs explizit anerkannt wurden, aber das Spannungsverhältnis zwischen territorialer Souveränität und Universalität der Menschenrechte weiterhin besteht. So haben es die EU-Staaten bisher abgelehnt, ihre Souveränität in diesem Bereich zu beschränken; entsprechend haben sie z. B. die UN-Wanderarbeitnehmerkonvention nicht als universelles Menschenrechtsinstrument anerkannt. Betrachtet man die allgemeinen und speziellen Menschenrechtsinstrumente, so gelten die Jedermann-Grundrechte selbstverständlich auch für irreguläre Migranten. Dies sagt aber noch nichts über deren konkreten Inhalt sowie deren Durchsetzbarkeit aus. Die aufenthaltsrechtliche Gestaltungsfreiheit der EU-Staaten findet jedoch ihre Grenze, wenn die Menschenwürde des Migranten in Frage steht. Hierzu hat die menschenrechtliche Judikatur klare Aussagen getroffen. So dürfen irreguläre Migranten nicht durch zwangsweise aufenthaltsbeende Maßnahmen einer erheblichen menschenrechtswidrigen Behandlung in ihrem Heimatstaat ausgesetzt werden (Refoulement-Verbot). Das Recht auf Familienschutz kann die Souveränität des Staates insoweit einschränken, als die Ausweisung eines irregulären Migranten eine besondere Härte für ihn bedeutet, namentlich die Trennung eines Kindes von seiner Mutter (Rs Rodrigues da Silva). Dem Staat obliegt ferner die positive Verpflichtung einer Strafverfolgung gegen Menschenhandel und Arbeitsausbeutung und somit ggf. die Pflicht, die Opferrechte eines irregulären Migranten in seiner menschenunwürdigen Situation zu schützen (Rs Silidian). Auch muss der Staat gegenüber dem irregulären Migranten ein faires Verhalten einhalten (Rs Conca). Die Verantwortung des Staates, Personen in einer irregulären Aufenthaltssituation bestimmte Leistungen aus menschenrechtlichen Gründen zu garantieren, ist grundsätzlich auf die Sicherung eines menschenwürdigen Lebens begrenzt. Für den irregulären Migranten besteht insoweit ein Anspruch auf Gesundheit, auf ein nach seinem persönlichen Bedarf zu ermittelndes Existenzminimum und auf Bildung, was aber jeweils die Offenbarung seines irregulären Aufenthaltsstatus voraussetzt. So hängt in diesen Fällen eine effektive Geltendmachung dieser Ansprüche in der Regel davon ab, ob dem irregulären Migranten ein barrierefreier, relativ sicherer Zugang hierzu gewährleistet ist. Der zweite Teil der Arbeit stellt sodann die europäischen und nationalen Maßnahmen zur Regulierung illegaler Migration dar. Die EU und die Mitgliedstaaten haben hierzu ein komplexes mehrstufiges System geschaffen, das vor allem die illegale Migration verhindern soll. Aufgrund der unterschiedlichen Einwanderungskonzepte der EU-Staaten werden zum Teil unterschiedliche Strategien hinsichtlich der irregulären Migration angewandt. So haben z.B. südeuropäische Staaten durch die Regularisierung von irregulärer Migranten wieder ihre Souveränität insoweit hergestellt, als diese Migranten nunmehr für den Staat sichtbar und kontrollierbar geworden sind. Es bestehen demnach unterschiedliche Verständnisse, ob die Gewährung von Rechten für irreguläre Migranten ein Verlust der Steuerungsmöglichkeiten von Migration bedeutet oder nicht. Das neue EU-Recht hat zudem dazu geführt, dass der EuGH durch die Anwendung der EuGRCH an der Entwicklung eines Mindestmaßstabs an individuellen Garantien für irreguläre Migranten beteiligt ist. Die im dritten Teil der Dissertation aufgezeigten Fallbeispiele hinsichtlich des Rechts auf Bildung und auf Gesundheit im illegalen Aufenthalt zeigen die Schwierigkeiten und Möglichkeiten auf, diese Rechte so auszugestalten und umzusetzen, dass sie von Migranten in unrechtmäßiger Aufenthaltssituation faktisch und barrierefrei in Anspruch genommen werden können.
|
52 |
Quantile methods for financial risk managementSchaumburg, Julia 27 February 2013 (has links)
In dieser Dissertation werden neue Methoden zur Erfassung zweier Risikoarten entwickelt. Markrisiko ist definiert als das Risiko, auf Grund von Wertrückgängen in Wertpapierportfolios Geld zu verlieren. Systemisches Risiko bezieht sich auf das Risiko des Zusammenbruchs eines Finanzsystems, das durch die Notlage eines einzelnen Finanzinstituts entsteht. Im Zuge der Finanzkrise 2007–2009 realisierten sich beide Risiken, was weltweit zu hohen Verlusten für Investoren, Unternehmen und Steuerzahler führte. Vor diesem Hintergrund besteht sowohl bei Finanzinstituten als auch bei Regulierungsbehörden Interesse an neuen Ansätzen für das Risikomanagement. Die Gemeinsamkeit der in dieser Dissertation entwickelten Methoden besteht darin, dass unterschiedliche Quantilsregressionsansätze in neuartiger Weise für das Finanzrisikomanagement verwendet werden. Zum einen wird nichtparametrische Quantilsregression mit Extremwertmethoden kombiniert, um extreme Markpreisänderungsrisiken zu prognostizieren. Das resultierende Value at Risk (VaR) Prognose- Modell für extremeWahrscheinlichkeiten wird auf internationale Aktienindizes angewandt. In vielen Fällen schneidet es besser ab als parametrische Vergleichsmodelle. Zum anderen wird ein Maß für systemisches Risiko, das realized systemic risk beta, eingeführt. Anders als bereits existierende Messgrößen erfasst es explizit sowohl Risikoabhängigkeiten zwischen Finanzinstituten als auch deren individuelle Bilanzmerkmale und Finanzsektor-Indikatoren. Um die relevanten Risikotreiber jedes einzelnen Unternehmens zu bestimmen, werden Modellselektionsverfahren für hochdimensionale Quantilsregressionen benutzt. Das realized systemic risk beta entspricht dem totalen Effekt eines Anstiegs des VaR eines Unternehmens auf den VaR des Finanzsystems. Anhand von us-amerikanischen und europäischen Daten wird gezeigt, dass die neue Messzahl sich gut zur Erfassung und Vorhersage systemischen Risikos eignet. / This thesis develops new methods to assess two types of financial risk. Market risk is defined as the risk of losing money due to drops in the values of asset portfolios. Systemic risk refers to the breakdown risk for the financial system induced by the distress of individual companies. During the financial crisis 2007–2009, both types of risk materialized, resulting in huge losses for investors, companies, and tax payers all over the world. Therefore, considering new risk management alternatives is of interest for both financial institutions and regulatory authorities. A common feature of the models used throughout the thesis is that they adapt quantile regression techniques to the context of financial risk management in a novel way. Firstly, to predict extreme market risk, nonparametric quantile regression is combined with extreme value theory. The resulting extreme Value at Risk (VaR) forecast framework is applied to different international stock indices. In many situations, its performance is superior to parametric benchmark models. Secondly, a systemic risk measure, the realized systemic risk beta, is proposed. In contrast to exististing measures it is tailored to account for tail risk interconnections within the financial sector, individual firm characteristics, and financial indicators. To determine each company’s relevant risk drivers, model selection techniques for high-dimensional quantile regression are employed. The realized systemic risk beta corresponds to the total effect of each firm’s VaR on the system’s VaR. Using data on major financial institutions in the U.S. and in Europe, it is shown that the new measure is a valuable tool to both estimate and forecast systemic risk.
|
53 |
Feynman integrals and hyperlogarithmsPanzer, Erik 06 March 2015 (has links)
Wir untersuchen Feynman-Integrale in der Darstellung mit Schwinger-Parametern und leiten rekursive Integralgleichungen für masselose 3- und 4-Punkt-Funktionen her. Eigenschaften der analytischen (und dimensionalen) Regularisierung werden zusammengefasst und wir beweisen, dass in der Euklidischen Region jedes Feynman-Integral als eine Linearkombination konvergenter Feynman-Integrale geschrieben werden kann. Dies impliziert, dass man stets eine Basis aus konvergenten Masterintegralen wählen kann und somit divergente Integrale nicht selbst berechnet werden müssen. Weiterhin geben wir eine in sich geschlossene Darstellung der Theorie der Hyperlogarithmen und erklären detailliert die nötigen Algorithmen, um diese für die Berechnung mehrfacher Integrale anzuwenden. Wir definieren eine neue Methode um die Singularitäten solcher Integrale zu bestimmen und stellen ein Computerprogramm vor, welches die Integrationsalgorithmen implementiert. Unser Hauptresultat ist die Konstruktion unendlicher Familien masseloser 3- und 4-Punkt-Funktionen (diese umfassen unter anderem alle Leiter-Box-Graphen und deren Minoren), deren Feynman-Integrale zu allen Ordnungen in der epsilon-Entwicklung durch multiple Polylogarithmen dargestellt werden können. Diese Integrale können mit dem vorgestellten Programm explizit berechnet werden. Die Arbeit enthält interessante Beispiele von expliziten Ergebnissen für Feynman-Integrale mit bis zu 6 Schleifen. Insbesondere präsentieren wir den ersten exakt bestimmten Gegenterm in masseloser phi^4-Theorie, der kein multipler Zetawert ist sondern eine Linearkombination multipler Polylogarithmen, ausgewertet an primitiven sechsten Einheitswurzeln (und geteilt durch die Quadratwurzel aus 3). Zu diesem Zweck beweisen wir ein Paritätsresultat über die Zerlegbarkeit der Real- und Imaginärteile solcher Zahlen in Produkte und Beiträge geringerer Tiefe (depth). / We study Feynman integrals in the representation with Schwinger parameters and derive recursive integral formulas for massless 3- and 4-point functions. Properties of analytic (including dimensional) regularization are summarized and we prove that in the Euclidean region, each Feynman integral can be written as a linear combination of convergent Feynman integrals. This means that one can choose a basis of convergent master integrals and need not evaluate any divergent Feynman graph directly. Secondly we give a self-contained account of hyperlogarithms and explain in detail the algorithms needed for their application to the evaluation of multivariate integrals. We define a new method to track singularities of such integrals and present a computer program that implements the integration method. As our main result, we prove the existence of infinite families of massless 3- and 4-point graphs (including the ladder box graphs with arbitrary loop number and their minors) whose Feynman integrals can be expressed in terms of multiple polylogarithms, to all orders in the epsilon-expansion. These integrals can be computed effectively with the presented program. We include interesting examples of explicit results for Feynman integrals with up to 6 loops. In particular we present the first exactly computed counterterm in massless phi^4 theory which is not a multiple zeta value, but a linear combination of multiple polylogarithms at primitive sixth roots of unity (and divided by the square-root of 3). To this end we derive a parity result on the reducibility of the real- and imaginary parts of such numbers into products and terms of lower depth.
|
54 |
Generalized estimation of the ventilatory distribution from the multiple‑breath nitrogen washoutMotta-Ribeiro, Gabriel Casulari, Jandre, Frederico Caetano, Wrigge, Hermann, Giannella-Neto, Antonio 10 August 2016 (has links) (PDF)
Background: This work presents a generalized technique to estimate pulmonary ventilation-to-volume (v/V) distributions using the multiple-breath nitrogen washout, in which both tidal volume (VT) and the end-expiratory lung volume (EELV) are allowed to vary during the maneuver. In addition, the volume of the series dead space (vd), unlike the classical model, is considered a common series unit connected to a set of parallel alveolar units. Methods: The numerical solution for simulated data, either error-free or with the N2 measurement contaminated with the addition of Gaussian random noise of 3 or 5 %
standard deviation was tested under several conditions in a computational model constituted by 50 alveolar units with unimodal and bimodal distributions of v/V. Non-negative least squares regression with Tikhonov regularization was employed for parameter retrieval. The solution was obtained with either unconstrained or constrained (VT, EELV and vd) conditions. The Tikhonov gain was fixed or estimated and a weighting matrix (WM) was considered. The quality of estimation was evaluated by the sum of the squared errors (SSE) (between reference and recovered distributions) and by the deviations of the first three moments calculated for both distributions. Additionally, a shape classification method was tested to identify the solution as unimodal or bimodal, by counting the number of shape agreements after 1000 repetitions. Results: The accuracy of the results showed a high dependence on the noise amplitude. The best algorithm for SSE and moments included the constrained and the WM solvers, whereas shape agreement improved without WM, resulting in 97.2 % for unimodal and 90.0 % for bimodal distributions in the highest noise condition. Conclusions: In conclusion this generalized method was able to identify v/V distributions from a lung model with a common series dead space even with variable VT. Although limitations remain in presence of experimental noise, appropriate combination of processing steps were also found to reduce estimation errors.
|
55 |
Sampling Inequalities and Applications / Sampling Ungleichungen und AnwendungenRieger, Christian 28 March 2008 (has links)
No description available.
|
56 |
Generalized estimation of the ventilatory distribution from the multiple‑breath nitrogen washoutMotta-Ribeiro, Gabriel Casulari, Jandre, Frederico Caetano, Wrigge, Hermann, Giannella-Neto, Antonio January 2016 (has links)
Background: This work presents a generalized technique to estimate pulmonary ventilation-to-volume (v/V) distributions using the multiple-breath nitrogen washout, in which both tidal volume (VT) and the end-expiratory lung volume (EELV) are allowed to vary during the maneuver. In addition, the volume of the series dead space (vd), unlike the classical model, is considered a common series unit connected to a set of parallel alveolar units. Methods: The numerical solution for simulated data, either error-free or with the N2 measurement contaminated with the addition of Gaussian random noise of 3 or 5 %
standard deviation was tested under several conditions in a computational model constituted by 50 alveolar units with unimodal and bimodal distributions of v/V. Non-negative least squares regression with Tikhonov regularization was employed for parameter retrieval. The solution was obtained with either unconstrained or constrained (VT, EELV and vd) conditions. The Tikhonov gain was fixed or estimated and a weighting matrix (WM) was considered. The quality of estimation was evaluated by the sum of the squared errors (SSE) (between reference and recovered distributions) and by the deviations of the first three moments calculated for both distributions. Additionally, a shape classification method was tested to identify the solution as unimodal or bimodal, by counting the number of shape agreements after 1000 repetitions. Results: The accuracy of the results showed a high dependence on the noise amplitude. The best algorithm for SSE and moments included the constrained and the WM solvers, whereas shape agreement improved without WM, resulting in 97.2 % for unimodal and 90.0 % for bimodal distributions in the highest noise condition. Conclusions: In conclusion this generalized method was able to identify v/V distributions from a lung model with a common series dead space even with variable VT. Although limitations remain in presence of experimental noise, appropriate combination of processing steps were also found to reduce estimation errors.
|
57 |
Fenchel duality-based algorithms for convex optimization problems with applications in machine learning and image restorationHeinrich, André 21 March 2013 (has links)
The main contribution of this thesis is the concept of Fenchel duality with a focus on its application in the field of machine learning problems and image restoration tasks. We formulate a general optimization problem for modeling support vector machine tasks and assign a Fenchel dual problem to it, prove weak and strong duality statements as well as necessary and sufficient optimality conditions for that primal-dual pair. In addition, several special instances of the general optimization problem are derived for different choices of loss functions for both the regression and the classifification task. The convenience of these approaches is demonstrated by numerically solving several problems. We formulate a general nonsmooth optimization problem and assign a Fenchel dual problem to it. It is shown that the optimal objective values of the primal and the dual one coincide and that the primal problem has an optimal solution under certain assumptions. The dual problem turns out to be nonsmooth in general and therefore a regularization is performed twice to obtain an approximate dual problem that can be solved efficiently via a fast gradient algorithm. We show how an approximate optimal and feasible primal solution can be constructed by means of some sequences of proximal points closely related to the dual iterates. Furthermore, we show that the solution will indeed converge to the optimal solution of the primal for arbitrarily small accuracy. Finally, the support vector regression task is obtained to arise as a particular case of the general optimization problem and the theory is specialized to this problem. We calculate several proximal points occurring when using difffferent loss functions as well as for some regularization problems applied in image restoration tasks. Numerical experiments illustrate the applicability of our approach for these types of problems.
|
58 |
Scattering amplitudes in four- and six-dimensional gauge theoriesSchuster, Theodor 06 October 2014 (has links)
Streuamplituden der Quantenchromodynamik (QCD), N = 4 Super-Yang-Mills-Theorie (SYM-Theorie) und der sechsdimensionalen N = (1, 1) SYM-Theorie werden untersucht, mit einem Fokus auf die Symmetrien und Relationen zwischen den Streuamplituden dieser Eichtheorien auf dem Baum-Niveau. Die Baum-Niveau- und Ein-Schleifen-Farbzerlegung beliebiger QCD-Amplituden in primitive Amplituden wird bestimmt und Identitäten hergeleitet, welche den Nullraum unter den primitiven Amplituden aufspannen. Anschließend wird bewiesen, dass alle farbgeordneten Baum-Niveau-Amplituden der masselosen QCD aus der N = 4 SYM-Theorie erhalten werden können. Analytische Formeln für alle für die QCD relevanten N = 4 SYM-Amplituden werden bestimmt und die Effizienz und Genauigkeit der numerischen Auswertung der analytischen Formeln für farbgeordnete QCD-Baum-Niveau-Amplituden mit einer effizienten numerischen Implementierung der Berends-Giele-Rekursion verglichen. Die Symmetrien der massive Amplituden auf dem Coulomb-Zweig der N = 4 SYM-Theorie werden hergeleitet. Diese können durch eine dimensionale Reduktion der masselosen Baum-Niveau-Amplituden der sechsdimensionalen N = (1, 1) SYM-Theory erhalten werden. Darüber hinaus wird bezeigt, wie es mit Hilfe einer numerischen Implementierung der BCFW-Rekursion möglich ist analytische Formeln für die Baum-Niveau-Superamplituden der N = (1, 1) SYM-Theory zu erhalten und die Möglichkeit eines Uplifts der masselose Baum-Niveau-Amplituden der N = 4 SYM-Theory untersucht. Schließlich wird eine Alternative zur dimensionalen Regularisierung der N = 4 SYM-Theorie untersucht. Die Infrarotdivergenzen werden hierbei durch Massen regularisiert, die durch einen Higgs-Mechanismus erhalten wurden. Die korrespondierende Stringtheorie-Beschreibung deutet auf eine exakte duale konforme Symmetrie der Streuamplituden hin. Durch explizite Rechnungen wird dies bestätigt und Vorteile des Regulators werden demonstriert. / We study scattering amplitudes in quantum chromodynamics (QCD), N = 4 super Yang-Mills (SYM) theory and the six-dimensional N = (1, 1) SYM theory, focusing on the symmetries of and relations between the tree-level scattering amplitudes in these three gauge theories. We derive the tree level and one-loop color decomposition of an arbitrary QCD amplitude into primitive amplitudes. Furthermore, we derive identities spanning the null space among the primitive amplitudes. We prove that every color ordered tree amplitude of massless QCD can be obtained from gluon-gluino amplitudes of N = 4 SYM theory. Furthermore, we derive analytical formulae for all gluon-gluino amplitudes relevant for QCD. We compare the numerical efficiency and accuracy of evaluating these closed analytic formulae for color ordered QCD tree amplitudes to a numerically efficient implementation of the Berends-Giele recursion. We derive the symmetries of massive tree amplitudes on the coulomb branch of N = 4 SYM theory, which in turn can be obtained from N = (1, 1) SYM theory by dimensional reduction. Furthermore, we investigate the tree amplitudes of N = (1, 1) SYM theory and explain how analytical formulae can be obtained from a numerical implementation of the supersymmetric BCFW recursion relation and investigate a potential uplift of the massless tree amplitudes of N = 4 SYM theory. Finally we study an alternative to dimensional regularization of N = 4 SYM theory. The infrared divergences are regulated by masses obtained from a Higgs mechanism. The corresponding string theory set-up suggests that the amplitudes have an exact dual conformal symmetry. We confirm this expectation and illustrate the calculational advantages of the massive regulator by explicit calculations.
|
59 |
A Class of Elliptic Obstacle-Type Quasi-Variational Inequalities: Theory and Solution MethodsBrüggemann, Jo Andrea 24 November 2023 (has links)
Quasi-Variationsungleichungen (QVIs) treten in einer Vielzahl mathematischer Modelle auf, welche komplexe Equilibrium-artige Phänomene aus den Natur- oder Sozialwissenschaften beschreiben. Obgleich ihrer vielfältigen Anwendungsmöglichkeiten in Bereichen wie der Biologie, Kontinuumsmechanik, Physik, Geologie und Ökonomie sind Ergebnisse zur allgemeinen theoretischen und algorithmischen Lösung von QVIs in der Literatur eher rar gesät – insbesondere im unendlich-dimensionalen Kontext.
Zentraler Gegenstand dieser Dissertation sind elliptische QVIs vom Hindernis-Typ mit einer zusätzlichen Volumen-Nebenbedingung, die durch ein vereinfachtes Modell eines nachgiebigen Hindernisses aus der Biomedizin motiviert werden. Aussagen zur Existenz von Lösungen werden durch die Charakterisierung der QVI als eine Fixpunkt Gleichung ermöglicht. Zur Lösung der betrachteten QVI selbst wird im Allgemeinen auf eine sequentielle Minimierungsmethode zurückgegriffen und eine Folge von Minimierungs- oder Variationsproblemen vom Hindernis-Typ betrachtet. In diesem Sinne ist für die numerische Behandlung der QVI die effiziente Lösung der auftretenden sequentiellen Probleme maßgeblich. Bei der Entwicklung geeigneter Lösungsmethoden wird insbesondere den Aspekten gitterunabhängige Verfahren sowie adaptive Diskretisierung des kontinuierlichen Problems mittels Finiter Elemente Rechnung getragen: Nach Anwendung der sequentiellen Minimierungsmethode auf die QVI werden die Hindernisprobleme durch eine Folge von Moreau–Yosida-regularisierten Problemen approximiert und anschliessend mit der nichtglatten (semismooth) Newton Methode und einer Pfadverfolgungsstrategie hinsichtlich des Yosida-Parameters gelöst. Die numerische Lösung erfolgt mittels einer adaptiver Finite Elemente Methode (AFEM), wobei die lokale Gitterverfeinerung auf a posteriori Residuen-basierten Schätzern des Approximierungsfehlers beruht. Numerische Experimente schließen die Arbeit ab. / Quasi-variational inequalities (QVIs) are used to describe complex equilibrium-type phenomena in many models in the natural and social sciences. Despite the abundance of different applications of QVIs—e.g., in biology, continuum mechanics, physics, geology, economics—there is only scarce literature on general theoretical and algorithmic approaches to solve problems involving QVIs particularly in infinite dimensions. This thesis focuses on elliptic obstacle-type QVIs with an additional volume constraint that are motivated by the simplified model of a compliant obstacle-type situation stemming from biomedicine. The first part of the thesis establishes existence of solutions to this type of QVIs under different sets of assumptions upon converting the problem to a fixed point equation. Unless the compliant obstacle map exhibits differentiability properties—in which case the problem can be regularised and solved directly in function space—the QVI can only be solved using a sequential variational or minimisation technique that leads to a sequence of obstacle-type problems. The ensuing parts of the thesis cover the efficient (numerical) solution of the emerging sequential problems where a major focus is on the aspects of mesh-independent performance of the solution method and the adaptive discretisation of the continuous problem based on finite elements. The obstacle-type problems resulting from using the sequential minimisation technique on the QVI are solved resorting to Moreau–Yosida-based approximation along with a semismooth Newton solver and a path-following regime for the sake of mesh-independence, which is subject of the second part. The corresponding discretised problems are solved with an adaptive finite element method (AFEM) that uses a posteriori residual-based error estimation techniques for Moreau–Yosida-based approximations of obstacle-type problems, the latter which are explored in the third part. The thesis concludes with numerical experiments.
|
Page generated in 0.0906 seconds