• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 749
  • 286
  • 49
  • 12
  • 1
  • 1
  • Tagged with
  • 1403
  • 701
  • 602
  • 435
  • 340
  • 340
  • 324
  • 315
  • 247
  • 240
  • 240
  • 207
  • 204
  • 204
  • 194
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
851

Stochastic lagrangian relaxation in power scheduling of a hydro-thermal system under uncertainty

Nowak, Matthias Peter 01 December 2000 (has links)
Wir betrachten ein Kraftwerkssystem mit thermischen Blöcken und Pumpspeicherwerken und entwickeln dafür ein Modell für den kostenoptimalen Wochenbetrieb. Auf Grund der Ungewißheit des Bedarfs an elektrischer Energie ist das mathematische Modell ein mehrstufiges stochastisches Problem. Dieses Modell beinhaltet viele gemischt-ganzzahlige stochastische Entscheidungsvariablen. Die Variablen einzelner Einheiten sind aber nur durch wenige Nebenbedingungen miteinander verbunden, welches die Zerlegung in stochastische Teilprobleme erleichtert. Diese stochastischen Teilprobleme besitzen deterministische Analoga, deren Lösungsverfahren entsprechend erweitert werden können. In dieser Arbeit werden ein Abstiegsverfahren für stochastische Speicherprobleme und eine Erweiterung der dynamischen Programmierung auf stochastische Probleme betrachtet. Die Lösung des dualen Problems führt zu Schattenpreisen, die bestimmte Einsatzentscheidungen bevorteilen. Die Heuristik zur Suche von primalen zulässigen Punkten wertet eine Folge von zugeordneten Economic-Dispatch-Problemen aus. Die Kombination der Einschränkung auf dual bevorzugte Fahrweisen (Lagrangian reduction) mit der Auswertung einer Folge von Economic-Dispatch-Problemen (Facettensuche) führt zu einem effizienten Verfahren. Die numerischen Ergebnisse an Hand realistischer Daten eines deutschen Versorgungsunternehmens rechtfertigen diesen Zugang. / We consider a power generation system comprising thermal units and pumped hydro storage plants, and introduce a model for its weekly cost-optimal operation. Due to the uncertainty of the load, the mathematical model represents a dynamic (multi-stage) stochastic program. The model involves a large number of mixed-integer (stochastic) decisions but its constraints are loosely coupled across operating power units. The coupling structure is used to design a stochastic Lagrangian relaxation method, which leads to a decomposition into stochastic single unit subproblems. The stochastic subproblems have deterministic counterparts, which makes it easy to develop algorithms for the stochastic problems. In this paper, a descent method for stochastic storage problems and an extension of dynamic programming towards stochastic programs are developed. The solution of the dual problem provides multipliers leading to preferred schedules (binary primal variables). The crossover heuristics evaluates the economic dispatch problems corresponding to a sequence of such preferred schedules. The combination of the restriction on dual preferred schedules (Lagrangian reduction) with the evaluation of a sequence (facet search) leads to an efficient method. The numerical results on realistic data of a German utility justify this approach.
852

Singular control of optional random measures

Bank, Peter 14 December 2000 (has links)
In dieser Arbeit untersuchen wir das Problem der Maximierung bestimmter konkaver Funktionale auf dem Raum der optionalen, zufälligen Maße. Deartige Funktionale treten in der mikroökonomischen Literatur auf, wo ihre Maximierung auf die Bestimmung des optimalen Konsumplans eines ökomischen Agenten hinausläuft. Als Alternative zu den wohlbekannten Methoden der dynamischen Programmierung wird ein neuer Zugang vorgestellt, der es erlaubt, die Struktur der maximierenden Maße in einem über den üblicherweise angenommenen Markovschen Rahmen hinausgehenden, allgemeinen Semimartingalrahmen zu klären. Unser Zugang basiert auf einer unendlichdimensionalen Version des Kuhn-Tucker-Theorems. Die implizierten Bedingungen erster Ordnung erlauben es uns, das Maximierungsproblem auf ein neuartiges Darstellungsproblem für optionale Prozesse zu reduzieren, das damit als ein nicht-Markovsches Substitut für die Hamilton-Jacobi-Bellman Gleichung der dynamischen Programmierung dient. Um dieses Darstellungsproblem im deterministischen Fall zu lösen, führen wir eine zeitinhomogene Verallgemeinerung des Konvexitätsbegriffs ein. Die Lösung im allgemeinen stochastischen Fall ergibt sich über eine enge Beziehung zur Theorie des Gittins-Index der optimalen dynamischen Planung. Unter geeigneten Annahmen gelingt ihre Darstellung in geschlossener Form. Es zeigt sich dabei, daß die maximierenden Maße absolutstetig, diskret und auch singulär sein können, je nach Struktur der dem Problem zugrundeliegenden Stochastik. Im mikroökonomischen Kontext ist es natürlich, daß Problem in einen Gleichgewichtsrahmen einzubetten. Der letzte Teil der Arbeit liefert hierzu ein allgemeines Existenzresultat für ein solches Gleichgewicht. / In this thesis, we study the problem of maximizing certain concave functionals on the space of optional random measures. Such functionals arise in microeconomic theory where their maximization corresponds to finding the optimal consumption plan of some economic agent. As an alternative to the well-known methods of Dynamic Programming, we develop a new approach which allows us to clarify the structure of maximizing measures in a general stochastic setting extending beyond the usually required Markovian framework. Our approach is based on an infinite-dimensional version of the Kuhn-Tucker Theorem. The implied first-order conditions allow us to reduce the maximization problem to a new type of representation problem for optional processes which serves as a non-Markovian substitute for the Hamilton-Jacobi-Bellman equation of Dynamic Programming. In order to solve this representation problem in the deterministic case, we introduce a time-inhomogeneous generalization of convexity. The stochastic case is solved by using an intimate relation to the theory of Gittins-indices in optimal dynamic scheduling. Closed-form solutions are derived under appropriate conditions. Depending on the underlying stochastics, maximizing random measures can be absolutely continuous, discrete, and also singular. In the microeconomic context, it is natural to embed the above maximization problem in an equilibrium framework. In the last part of this thesis, we give a general existence result for such an equilibrium.
853

Macroscopic diffusion models for precipitation in crystalline gallium arsenide

Kimmerle, Sven-Joachim 23 December 2009 (has links)
Ausgehend von einem thermodynamisch konsistenten Modell von Dreyer und Duderstadt für Tropfenbildung in Galliumarsenid-Kristallen, das Oberflächenspannung und Spannungen im Kristall berücksichtigt, stellen wir zwei mathematische Modelle zur Evolution der Größe flüssiger Tropfen in Kristallen auf. Das erste Modell behandelt das Regime diffusionskontrollierter Interface-Bewegung, während das zweite Modell das Regime Interface-kontrollierter Bewegung des Interface behandelt. Unsere Modellierung berücksichtigt die Erhaltung von Masse und Substanz. Diese Modelle verallgemeinern das wohlbekannte Mullins-Sekerka-Modell für die Ostwald-Reifung. Wir konzentrieren uns auf arsenreiche kugelförmige Tropfen in einem Galliumarsenid-Kristall. Tropfen können mit der Zeit schrumpfen bzw. wachsen, die Tropfenmittelpunkte sind jedoch fixiert. Die Flüssigkeit wird als homogen im Raum angenommen. Aufgrund verschiedener Skalen für typische Distanzen zwischen Tropfen und typischen Radien der flüssigen Tropfen können wir formal so genannte Mean-Field-Modelle herleiten. Für ein Modell im diffusionskontrollierten Regime beweisen wir den Grenzübergang mit Homogenisierungstechniken unter plausiblen Annahmen. Diese Mean-Field-Modelle verallgemeinern das Lifshitz-Slyozov-Wagner-Modell, welches rigoros aus dem Mullins-Sekerka-Modell hergeleitet werden kann, siehe Niethammer et al., und gut verstanden ist. Mean-Field-Modelle beschreiben die wichtigsten Eigenschaften unseres Systems und sind gut für Numerik und für weitere Analysis geeignet. Wir bestimmen mögliche Gleichgewichte und diskutieren deren Stabilität. Numerische Resultate legen nahe, wann welches der beiden Regimes gut zur experimentellen Situation passen könnte. / Based on a thermodynamically consistent model for precipitation in gallium arsenide crystals including surface tension and bulk stresses by Dreyer and Duderstadt, we propose two different mathematical models to describe the size evolution of liquid droplets in a crystalline solid. The first model treats the diffusion-controlled regime of interface motion, while the second model is concerned with the interface-controlled regime of interface motion. Our models take care of conservation of mass and substance. These models generalise the well-known Mullins-Sekerka model for Ostwald ripening. We concentrate on arsenic-rich liquid spherical droplets in a gallium arsenide crystal. Droplets can shrink or grow with time but the centres of droplets remain fixed. The liquid is assumed to be homogeneous in space. Due to different scales for typical distances between droplets and typical radii of liquid droplets we can derive formally so-called mean field models. For a model in the diffusion-controlled regime we prove this limit by homogenisation techniques under plausible assumptions. These mean field models generalise the Lifshitz-Slyozov-Wagner model, which can be derived from the Mullins-Sekerka model rigorously, see Niethammer et al., and is well-understood. Mean field models capture the main properties of our system and are well adapted for numerics and further analysis. We determine possible equilibria and discuss their stability. Numerical evidence suggests in which case which one of the two regimes might be appropriate to the experimental situation.
854

Bootstrap confidence sets under model misspecification

Zhilova, Mayya 07 December 2015 (has links)
Diese Arbeit befasst sich mit einem Multiplier-Bootstrap Verfahren für die Konstruktion von Likelihood-basierten Konfidenzbereichen in zwei verschiedenen Fällen. Im ersten Fall betrachten wir das Verfahren für ein einzelnes parametrisches Modell und im zweiten Fall erweitern wir die Methode, um Konfidenzbereiche für eine ganze Familie von parametrischen Modellen simultan zu schätzen. Theoretische Resultate zeigen die Validität der Bootstrap-Prozedur für eine potenziell begrenzte Anzahl an Beobachtungen, eine große Anzahl an betrachteten parametrischen Modellen, wachsende Parameterdimensionen und eine mögliche Misspezifizierung der parametrischen Annahmen. Im Falle eines einzelnen parametrischen Modells funktioniert die Bootstrap-Approximation, wenn die dritte Potenz der Parameterdimension ist kleiner als die Anzahl an Beobachtungen. Das Hauptresultat über die Validität des Bootstrap gilt unter der sogenannten Small-Modeling-Bias Bedingung auch im Falle, dass das parametrische Modell misspezifiert ist. Wenn das wahre Modell signifikant von der betrachteten parametrischen Familie abweicht, ist das Bootstrap Verfahren weiterhin anwendbar, aber es führt zu etwas konservativeren Schätzungen: die Konfidenzbereiche werden durch den Modellfehler vergrößert. Für die Konstruktion von simultanen Konfidenzbereichen entwickeln wir ein Multiplier-Bootstrap Verfahren um die Quantile der gemeinsamen Verteilung der Likelihood-Quotienten zu schätzen und eine Multiplizitätskorrektur der Konfidenzlevels vorzunehmen. Theoretische Ergebnisse zeigen die Validität des Verfahrens; die resultierende Approximationsfehler hängt von der Anzahl an betrachteten parametrischen Modellen logarithmisch. Hier betrachten wir auch wieder den Fall, dass die parametrischen Modelle misspezifiziert sind. Wenn die Misspezifikation signifikant ist, werden Bootstrap-generierten kritischen Werte größer als die wahren Werte sein und die Bootstrap-Konfidenzmengen sind konservativ. / The thesis studies a multiplier bootstrap procedure for construction of likelihood-based confidence sets in two cases. The first one focuses on a single parametric model, while the second case extends the construction to simultaneous confidence estimation for a collection of parametric models. Theoretical results justify the validity of the bootstrap procedure for a limited sample size, a large number of considered parametric models, growing parameters’ dimensions, and possible misspecification of the parametric assumptions. In the case of one parametric model the bootstrap approximation works if the cube of the parametric dimension is smaller than the sample size. The main result about bootstrap validity continues to apply even if the underlying parametric model is misspecified under a so-called small modelling bias condition. If the true model deviates significantly from the considered parametric family, the bootstrap procedure is still applicable but it becomes conservative: the size of the constructed confidence sets is increased by the modelling bias. For the problem of construction of simultaneous confidence sets we suggest a multiplier bootstrap procedure for estimating a joint distribution of the likelihood ratio statistics, and for adjustment of the confidence level for multiplicity. Theoretical results state the bootstrap validity; a number of parametric models enters a resulting approximation error logarithmically. Here we also consider the case when parametric models are misspecified. If the misspecification is significant, then the bootstrap critical values exceed the true ones and the bootstrap confidence set becomes conservative. The theoretical approach includes non-asymptotic square-root Wilks theorem, Gaussian approximation of Euclidean norm of a sum of independent vectors, comparison and anti-concentration bounds for Euclidean norm of Gaussian vectors. Numerical experiments for misspecified regression models nicely confirm our theoretical results.
855

Hypersurfaces with defect and their densities over finite fields

Lindner, Niels 20 February 2017 (has links)
Das erste Thema dieser Dissertation ist der Defekt projektiver Hyperflächen. Es scheint, dass Hyperflächen mit Defekt einen verhältnismäßig großen singulären Ort besitzen. Diese Aussage wird im ersten Kapitel der Dissertation präzisiert und für Hyperflächen mit beliebigen isolierten Singularitäten über einem Körper der Charakteristik null, sowie für gewisse Klassen von Hyperflächen in positiver Charakteristik bewiesen. Darüber hinaus lässt sich die Dichte von Hyperflächen ohne Defekt über einem endlichen Körper abschätzen. Schließlich wird gezeigt, dass eine nicht-faktorielle Hyperfläche der Dimension drei mit isolierten Singularitäten stets Defekt besitzt. Das zweite Kapitel der Dissertation behandelt Bertini-Sätze über endlichen Körpern, aufbauend auf Poonens Formel für die Dichte glatter Hyperflächenschnitte in einer glatten Umgebungsvarietät. Diese wird auf quasiglatte Hyperflächen in simpliziellen torischen Varietäten verallgemeinert. Die Hauptanwendung ist zu zeigen, dass Hyperflächen mit einem in Relation zum Grad großen singulären Ort die Dichte null haben. Weiterhin enthält das Kapitel einen Bertini-Irreduzibilitätssatz, der auf einer Arbeit von Charles und Poonen beruht. Im dritten Kapitel werden ebenfalls Dichten über endlichen Körpern untersucht. Zunächst werden gewisse Faserungen über glatten projektiven Basisvarietäten in einem gewichteten projektiven Raum betrachtet. Das erste Resultat ist ein Bertini-Satz für glatte Faserungen, der Poonens Formel über glatte Hyperflächen impliziert. Der letzte Abschnitt behandelt elliptische Kurven über einem Funktionskörper einer Varietät der Dimension mindestens zwei. Die zuvor entwickelten Techniken ermöglichen es, eine untere Schranke für die Dichte solcher Kurven mit Mordell-Weil-Rang null anzugeben. Dies verbessert ein Ergebnis von Kloosterman. / The first topic of this dissertation is the defect of projective hypersurfaces. It is indicated that hypersurfaces with defect have a rather large singular locus. In the first chapter of this thesis, this will be made precise and proven for hypersurfaces with arbitrary isolated singularities over a field of characteristic zero, and for certain classes of hypersurfaces in positive characteristic. Moreover, over a finite field, an estimate on the density of hypersurfaces without defect is given. Finally, it is shown that a non-factorial threefold hypersurface with isolated singularities always has defect. The second chapter of this dissertation deals with Bertini theorems over finite fields building upon Poonen’s formula for the density of smooth hypersurface sections in a smooth ambient variety. This will be extended to quasismooth hypersurfaces in simplicial toric varieties. The main application is to show that hypersurfaces admitting a large singular locus compared to their degree have density zero. Furthermore, the chapter contains a Bertini irreducibility theorem for simplicial toric varieties generalizing work of Charles and Poonen. The third chapter continues with density questions over finite fields. In the beginning, certain fibrations over smooth projective bases living in a weighted projective space are considered. The first result is a Bertini-type theorem for smooth fibrations, giving back Poonen’s formula on smooth hypersurfaces. The final section deals with elliptic curves over a function field of a variety of dimension at least two. The techniques developed in the first two sections allow to produce a lower bound on the density of such curves with Mordell-Weil rank zero, improving an estimate of Kloosterman.
856

Bounds for Green's functions on hyperbolic Riemann surfaces of finite volume

Aryasomayajula, Naga Venkata Anilatmaja 21 October 2013 (has links)
Im Jahr 2006, in einem Papier in Compositio Titel "Bounds auf kanonische Green-Funktionen" J. Jorgenson und J. Kramer, haben optimale Schranken für den hyperbolischen und kanonischen Green-Funktionen auf einem kompakten hyperbolischen Riemannschen Fläche definiert abgeleitet. Diese Schätzungen wurden im Hinblick auf abgeleitete Invarianten aus hyperbolischen Geometrie der Riemannschen Fläche. Als Anwendung abgeleitet sie Schranken für die kanonische Green-Funktionen durch Abdeckungen und für Familien von Modulkurven. In dieser Arbeit erweitern wir ihre Methoden nichtkompakten hyperbolischen Riemann Oberflächen und leiten ähnliche Schranken für den hyperbolischen und kanonischen Green-Funktionen auf einem nichtkompakten hyperbolischen Riemannschen Fläche definiert. / In 2006, in a paper in Compositio titled "Bounds on canonical Green''s functions", J. Jorgenson and J. Kramer have derived optimal bounds for the hyperbolic and canonical Green''s functions defined on a compact hyperbolic Riemann surface. These estimates were derived in terms of invariants coming from hyperbolic geometry of the Riemann surface. As an application, they deduced bounds for the canonical Green''s functions through covers and for families of modular curves. In this thesis, we extend their methods to noncompact hyperbolic Riemann surfaces and derive similar bounds for the hyperbolic and canonical Green''s functions defined on a noncompact hyperbolic Riemann surface.
857

Approximation of nonsmooth optimization problems and elliptic variational inequalities with applications to elasto-plasticity

Rösel, Simon 09 May 2017 (has links)
Optimierungsprobleme und Variationsungleichungen über Banach-Räumen stellen Themen von substantiellem Interesse dar, da beide Problemklassen einen abstrakten Rahmen für zahlreiche Anwendungen aus verschiedenen Fachgebieten stellen. Nach einer Einführung in Teil I werden im zweiten Teil allgemeine Approximationsmethoden, einschließlich verschiedener Diskretisierungs- und Regularisierungsansätze, zur Lösung von nichtglatten Variationsungleichungen und Optimierungsproblemen unter konvexen Restriktionen vorgestellt. In diesem allgemeinen Rahmen stellen sich gewisse Dichtheitseigenschaften der konvexen zulässigen Menge als wichtige Voraussetzungen für die Konsistenz einer abstrakten Klasse von Störungen heraus. Im Folgenden behandeln wir vor allem Restriktionsmengen in Sobolev-Räumen, die durch eine punktweise Beschränkung an den Funktionswert definiert werden. Für diesen Restriktionstyp werden verschiedene Dichtheitsresultate bewiesen. In Teil III widmen wir uns einem quasi-statischen Kontaktproblem der Elastoplastizität mit Härtung. Das entsprechende zeit-diskretisierte Problem kann als nichtglattes, restringiertes Minimierungsproblem betrachtet werden. Zur Lösung wird eine Pfadverfolgungsmethode auf Basis des verallgemeinerten Newton-Verfahrens entwickelt, dessen Teilprobleme lokal superlinear und gitterunabhängig lösbar sind. Teil III schließt mit verschiedenen numerischen Beispielen. Der letzte Teil der Arbeit ist der quasi-statischen, perfekten Plastizität gewidmet. Auf Basis des primalen Problems der perfekten Plastizität leiten wir eine reduzierte Formulierung her, die es erlaubt, das primale Problem als Fenchel-dualisierte Form des klassischen zeit-diskretisierten Spannungsproblems zu verstehen. Auf diese Weise werden auch neue Optimalitätsbedingungen hergeleitet. Zur Lösung des Problems stellen wir eine modifizierte Form der viskoplastischen Regularisierung vor und beweisen die Konvergenz dieses neuen Regularisierungsverfahrens. / Optimization problems and variational inequalities over Banach spaces are subjects of paramount interest since these mathematical problem classes serve as abstract frameworks for numerous applications. Solutions to these problems usually cannot be determined directly. Following an introduction, part II presents several approximation methods for convex-constrained nonsmooth variational inequality and optimization problems, including discretization and regularization approaches. We prove the consistency of a general class of perturbations under certain density requirements with respect to the convex constraint set. We proceed with the study of pointwise constraint sets in Sobolev spaces, and several density results are proven. The quasi-static contact problem of associative elasto-plasticity with hardening at small strains is considered in part III. The corresponding time-incremental problem can be equivalently formulated as a nonsmooth, constrained minimization problem, or, as a mixed variational inequality problem over the convex constraint. We propose an infinite-dimensional path-following semismooth Newton method for the solution of the time-discrete plastic contact problem, where each path-problem can be solved locally at a superlinear rate of convergence with contraction rates independent of the discretization. Several numerical examples support the theoretical results. The last part is devoted to the quasi-static problem of perfect (Prandtl-Reuss) plasticity. Building upon recent developments in the study of the (incremental) primal problem, we establish a reduced formulation which is shown to be a Fenchel predual problem of the corresponding stress problem. This allows to derive new primal-dual optimality conditions. In order to solve the time-discrete problem, a modified visco-plastic regularization is proposed, and we prove the convergence of this new approximation scheme.
858

Robust utility maximization, f-projections, and risk constraints

Gundel, Anne 01 June 2006 (has links)
Ein wichtiges Gebiet der Finanzmathematik ist die Bestimmung von Auszahlungsprofilen, die den erwarteten Nutzen eines Agenten unter einer Budgetrestriktion maximieren. Wir charakterisieren optimale Auszahlungsprofile für einen Agenten, der unsicher ist in Bezug auf das genaue Marktmodell. Der hier benutzte Dualitätsansatz führt zu einem Minimierungsproblem für bestimmte konvexe Funktionale über zwei Mengen von Wahrscheinlichkeitsmaßen, das wir zunächst lösen müssen. Schließlich führen wir noch eine zweite Restriktion ein, die das Risiko beschränkt, das der Agent eingehen darf. Wir gehen dabei wie folgt vor: Kapitel 1. Wir betrachten das Problem, die f-Divergenz f(P|Q) über zwei Mengen von Wahrscheinlichkeitsmaßen zu minimieren, wobei f eine konvexe Funktion ist. Wir zeigen, dass unter der Bedingung "f( undendlich ) / undendlich = undendlich" Minimierer existieren, falls die erste Menge abgeschlossen und die zweite schwach kompakt ist. Außerdem zeigen wir, dass unter der Bedingung "f( undendlich ) / undendlich = 0" ein Minimierer in einer erweiterten Klasse von Martingalmaßen existiert, falls die zweite Menge schwach kompakt ist. Kapitel 2. Die Existenzresultate aus dem ersten Kapitel implizieren die Existenz eines Auszahlungsprofils, das das robuste Nutzenfunktional inf E_Q[u(X)] über eine Menge von finanzierbaren Auszahlungen maximiert, wobei das Infimum über eine Menge von Modellmaßen betrachtet wird. Die entscheidende Idee besteht darin, die minimierenden Maße aus dem ersten Kapitel als gewisse "worst-case"-Maße zu identifizieren. Kapitel 3. Schließlich fordern wir, dass das Risiko der Auszahlungsprofile beschränkt ist. Wir lösen das robuste Problem in einem unvollständigen Marktmodell für Nutzenfunktionen, die nur auf der positiven Halbachse definiert sind. In einem Beispiel vergleichen wir das optimale Auszahlungsprofil unter der Risikorestriktion mit den optimalen Auszahlungen ohne eine solche Restriktion und unter einer Value-at-Risk-Nebenbedingung. / Finding payoff profiles that maximize the expected utility of an agent under some budget constraint is a key issue in financial mathematics. We characterize optimal contingent claims for an agent who is uncertain about the market model. The dual approach that we use leads to a minimization problem for a certain convex functional over two sets of measures, which we first have to solve. Finally, we incorporate a second constraint that limits the risk that the agent is allowed to take. We proceed as follows: Chapter 1. Given a convex function f, we consider the problem of minimizing the f-divergence f(P|Q) over these two sets of measures. We show that, if the first set is closed and the second set is weakly compact, a minimizer exists if f( infinity ) / infinity = infinity. Furthermore, we show that if the second set of measures is weakly compact and f( infinifty ) / infinity = 0, then there is a minimizer in a class of extended martingale measures. Chapter 2. The existence results in Chapter 1 lead to the existence of a contingent claim which maximizes the robust utility functional inf E_Q[u(X)] over some set of affordable contingent claims, where the infimum is taken over a set of subjective or modell measures. The key idea is to identify the minimizing measures from the first chapter as certain worst case measures. Chapter 3. Finally, we require the risk of the contingent claims to be bounded. We solve the robust problem in an incomplete market for a utility function that is only defined on the positive halfline. In an example we compare the optimal claim under this risk constraint with the optimal claims without a risk constraint and under a value-at-risk constraint.
859

Range-based parameter estimation in diffusion models

Henkel, Hartmuth 04 October 2010 (has links)
Wir studieren das Verhalten des Maximums, des Minimums und des Endwerts zeithomogener eindimensionaler Diffusionen auf endlichen Zeitintervallen. Zuerst beweisen wir mit Hilfe des Malliavin-Kalküls ein Existenzresultat für die gemeinsamen Dichten. Außerdem leiten wir Entwicklungen der gemeinsamen Momente des Tripels (H,L,X) zur Zeit Delta bzgl. Delta her. Dabei steht X für die zugrundeliegende Diffusion, und H und L bezeichnen ihr fortlaufendes Maximum bzw. Minimum. Ein erster Ansatz, der vollständig auf den elementaren Abschätzungen der Doob’schen und der Cauchy-Schwarz’schen Ungleichung beruht, liefert eine Entwicklung bis zur Ordnung 2 bzgl. der Wurzel der Zeitvariablen Delta. Ein komplexerer Ansatz benutzt Partielle-Differentialgleichungstechniken, um eine Entwicklung der einseitigen Austrittswahrscheinlichkeit für gepinnte Diffusionen zu bestimmen. Da eine Entwicklung der Übergangsdichten von Diffusionen bekannt ist, erhält man eine vollständige Entwicklung der gemeinsamen Wahrscheinlichkeit von (H,X) bzgl. Delta. Die entwickelten Verteilungseigenschaften erlauben es uns, eine Theorie für Martingalschätzfunktionen, die aus wertebereich-basierten Daten konstruiert werden, in einem parameterisierten Diffusionsmodell, herzuleiten. Ein Small-Delta-Optimalitätsansatz, der die approximierten Momente benutzt, liefert eine Vereinfachung der vergleichsweise komplizierten Schätzprozedur und wir erhalten asymptotische Optimalitätsresultate für gegen 0 gehende Sampling-Frequenz. Beim Schätzen des Drift-Koeffizienten ist der wertebereich-basierte Ansatz der Methode, die auf equidistanten Beobachtungen der Diffusion beruht, nicht überlegen. Der Effizienzgewinn im Fall des Schätzens des Diffusionskoeffizienten ist hingegen enorm. Die Maxima und Minima in die Analyse miteinzubeziehen senkt die Varianz des Schätzers für den Parameter in diesem Szenario erheblich. / We study the behavior of the maximum, the minimum and the terminal value of time-homogeneous one-dimensional diffusions on finite time intervals. To begin with, we prove an existence result for the joint density by means of Malliavin calculus. Moreover, we derive expansions for the joint moments of the triplet (H,L,X) at time Delta w.r.t. Delta. Here, X stands for the underlying diffusion whereas H and L denote its running maximum and its running minimum, respectively. In a first approach that entirely relies on elementary estimates, such as Doob’s inequality and Cauchy-Schwarz’ inequality, we derive an expansion w.r.t. the square root of the time parameter Delta including powers of 2. A more sophisticated ansatz uses partial differential equation techniques to determine an expansion of the one-barrier hitting time probability for pinned diffusions. For an expansion of the transition density of diffusions is known, one obtains an overall expansion of the joint probability of (H,X) w.r.t. Delta. The developed distributional properties enable us to establish a theory for martingale estimating functions constructed from range-based data in a parameterized diffusion model. A small-Delta-optimality approach, that uses the approximated moments, yields a simplification of the relatively complicated estimating procedure and we obtain asymptotic optimality results when the sampling frequency Delta tends to 0. When it comes to estimating the drift coefficient the range-based method is not superior to the method relying on equidistant observations of the underlying diffusion alone. However, there is an enormous gain in efficiency at the estimation for the diffusion coefficient. Incorporating the maximum and the minimum into the analysis significantly lowers the asymptotic variance of the estimators for the parameter in this scenario.
860

Verallgemeinerte Maximum-Likelihood-Methoden und der selbstinformative Grenzwert

Johannes, Jan 16 December 2002 (has links)
Es sei X eine Zufallsvariable mit unbekannter Verteilung P. Zu den Hauptaufgaben der Mathematischen Statistik zählt die Konstruktion von Schätzungen für einen abgeleiteten Parameter theta(P) mit Hilfe einer Beobachtung X=x. Im Fall einer dominierten Verteilungsfamilie ist es möglich, das Maximum-Likelihood-Prinzip (MLP) anzuwenden. Eine Alternative dazu liefert der Bayessche Zugang. Insbesondere erweist sich unter Regularitätsbedingungen, dass die Maximum-Likelihood-Schätzung (MLS) dem Grenzwert einer Folge von Bayesschen Schätzungen (BSen) entspricht. Eine BS kann aber auch im Fall einer nicht dominierten Verteilungsfamilie betrachtet werden, was als Ansatzpunkt zur Erweiterung des MLPs genutzt werden kann. Weiterhin werden zwei Ansätze einer verallgemeinerten MLS (vMLS) von Kiefer und Wolfowitz sowie von Gill vorgestellt. Basierend auf diesen bekannten Ergebnissen definieren wir einen selbstinformativen Grenzwert und einen selbstinformativen a posteriori Träger. Im Spezialfall einer dominierten Verteilungsfamilie geben wir hinreichende Bedingungen an, unter denen die Menge der MLSen einem selbstinformativen a posteriori Träger oder, falls die MLS eindeutig ist, einem selbstinformativen Grenzwert entspricht. Das Ergebnis für den selbstinformativen a posteriori Träger wird dann auf ein allgemeineres Modell ohne dominierte Verteilungsfamilie erweitert. Insbesondere wird gezeigt, dass die Menge der vMLSen nach Kiefer und Wolfowitz ein selbstinformativer a posteriori Träger ist. Weiterhin wird der selbstinformative Grenzwert bzw. a posteriori Träger in einem Modell mit nicht identifizierbarem Parameter bestimmt. Im Mittelpunkt dieser Arbeit steht ein multivariates semiparametrisches lineares Modell. Zunächst weisen wir jedoch nach, dass in einem rein nichtparametrischen Modell unter der a priori Annahme eines Dirichlet Prozesses der selbstinformative Grenzwert existiert und mit der vMLS nach Kiefer und Wolfowitz sowie der nach Gill übereinstimmt. Anschließend untersuchen wir das multivariate semiparametrische lineare Modell und bestimmen die vMLSen nach Kiefer und Wolfowitz bzw. nach Gill sowie den selbstinformativen Grenzwert unter der a priori Annahme eines Dirichlet Prozesses und einer Normal-Wishart-Verteilung. Im Allgemeinen sind die so erhaltenen Schätzungen verschieden. Abschließend gehen wir dann auf den Spezialfall eines semiparametrischen Lokationsmodells ein, in dem die vMLSen nach Kiefer und Wolfowitz bzw. nach Gill und der selbstinformative Grenzwert wieder identisch sind. / We assume to observe a random variable X with unknown probability distribution. One major goal of mathematical statistics is the estimation of a parameter theta(P) based on an observation X=x. Under the assumption that P belongs to a dominated family of probability distributions, we can apply the maximum likelihood principle (MLP). Alternatively, the Bayes approach can be used to estimate the parameter. Under some regularity conditions it turns out that the maximum likelihood estimate (MLE) is the limit of a sequence of Bayes estimates (BE's). Note that BE's can even be defined in situations where no dominating measure exists. This allows us to derive an extension of the MLP using the Bayes approach. Moreover, two versions of a generalised MLE (gMLE) are presented, which have been introduced by Kiefer and Wolfowitz and Gill, respectively. Based on the known results, we define a selfinformative limit and a posterior carrier. In the special case of a model with dominated distribution family, we state sufficient conditions under which the set of MLE's is a selfinformative posterior carrier or, in the case of a unique MLE, a selfinformative limit. The result for the posterior carrier is extended to a more general model without dominated distributions. In particular we show that the set of gMLE's of Kiefer and Wolfowitz is a posterior carrier. Furthermore we calculate the selfinformative limit and posterior carrier, respectively, in the case of a model with possibly nonidentifiable parameters. In this thesis we focus on a multivariate semiparametric linear model. At first we show that, in the case of a nonparametric model, the selfinformative limit coincides with the gMLE of Kiefer and Wolfowitz as well as that of Gill, if a Dirichlet process serves as prior. Then we investigate both versions of gMLE's and the selfinformative limit in the multivariate semiparametric linear model, where the prior for the latter estimator is given by a Dirichlet process and a normal-Wishart distribution. In general the estimators are not identical. However, in the special case of a location model we find again that the three considered estimates coincide.

Page generated in 0.0605 seconds