• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 7
  • Tagged with
  • 7
  • 7
  • 7
  • 6
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Efficient hedging in incomplete markets under model uncertainty

Kirch, Michael 07 January 2002 (has links)
Wir betrachten einen Investor, der eine Option verkauft hat und den maximal erwarteten gewichteten Verlust minimieren möchte. Dabei wird das Maximum über eine Familie von Modellen, das heißt sogenannten objektiven Wahrscheinlichkeitsmaßen, gebildet. Die Minimierung erfolgt über alle zulässigen Absicherungsstrategien, welche einer vorgegebenen Kapitaleinschränkung genügen. Der Verlust wird vermöge einer strikt konvexen Verlustfunktion gewichtet. Die minimierende Strategie nennen wir robust-effizient. Das Problem, eine robust-effiziente Strategie zu bestimmen, ist eng mit dem statistischen Problem des Testens einer zusammengesetzten Hypothese gegen eine zusammengesetzte Alternative verbunden: Hat man eine Lösung für das statistische Problem, das heißt einen maximin-optimalen Test, so kann man eine modifizierte Option definieren, so daß die Superhedging-Strategie für die modifizierte Option robust-effizient ist, vgl. Theorem. Umgekehrt kann man einen maximin-optimalen Test vom Wert der robust-effizienten Strategie zum Auszahlungszeitpunkt ableiten. Das mathematische Kernstück dieser Arbeit ist die allgemeine Lösung des statistischen Testproblems mit Methoden der konvexen Dualität und Spieltheorie. Von dem bekannten klassischen Testproblem unterscheidet sich das in dieser Arbeit betrachtete Problem insofern als die Macht eines Tests anstelle durch die Identität durch eine strikt konkave zustandsabhängige Nutzenfunktion definiert ist. Zudem ist unsere einzige wesentliche Annahme, daß die Hypothese sowie die Alternative dominiert sind, das heißt die Hypothese und die Alternative sind weder stetig parametrisierbar noch notwendigerweise von der Form der Umgebungen wie sie typischerweise in der robusten Statistik verwendet werden vorausgesetzt. Die Lösung des Testproblems in dieser Arbeit erfolgt vermöge des zentralen Begriffs eines ungünstigsten Paares aus Hypothese und Alternative: Der maximin-optimale Test ist unter allen einfachen Tests für das ungünstigste Paar zu finden. Dies ist das zentrale Resultat des Kapitels über maximin-optimale Tests. Falls das ungünstigste Modell äquivalent zu der Familie aller Modelle ist, so ist der einfache Test für das ungünstigste Paar eindeutig und bereits maximin-optimal. Falls das ungünstigste Modell nicht äquivalent zur Familie ist, so approximieren wir den maximin-optimalen Test durch eine Folge von einfachen Tests, die durch eingebettete Teilprobleme definiert werden können. Die Anwendung unserer Resultate über maximin-optimale Tests auf den Spezialfall des zur robust-effizienten Absicherung assoziierten Testproblems erlaubt uns, die optimale modifizierte Option vermöge eines ungünstigsten Paares von Modell und Preisregel zu beschreiben. Ein ungünstigstes Modell maximiert das minimale Verlustrisiko über alle Modelle. Wir setzen Erreichbarkeit der modifizierten Option mit Äquivalenz der ungünstigsten Preisregel zum ungünstigsten Modell miteinander in Verbindung. Dies zeigt, daß die ungünstigste Preisregel im allgemeinen nicht Äquivalent zum Referenzmodell ist - ein Sachverhalt, den wir in den Anwendungen wieder aufgreifen. Im zweiten Teil dieser Arbeit konstruieren wir die robust-effiziente Strategie in verschiedenen Anwendungen. Um die allgemeinen Resultate des vorhergehenden Teils nutzen zu können, müssen wir die effiziente Strategie für jedes fixierte Modell sowie ein ungünstigstes Modell bestimmen. Nötigenfalls vergrößern wir dafür zunächst die Familie der Modelle in geeigneter Weise, um die Existenz eines ungünstigsten Modells zu garantieren. Wir wenden das Prinzip der dynamischen Programmierung in einer Weise an, die an das jeweils zugrundeliegende Modell angepasst ist und bestimmen so die effiziente Strategie. / We consider an investor who has sold a contingent claim and intends to minimize the maximal expected weighted shortfall. Here, the maximum is taken over a family of models and the minimum is taken over all admissible hedging strategies that satisfy a given cost constraint. We call the associated minimizing strategy robust-efficient. The problem to determine a robust-efficient strategy is closely related to the statistical problem of testing a composite hypothesis against a composite alternative. The hypothesis is given by the family of pricing rules and the alternative coincides with the family of models. The mathematical centerpiece of this thesis is the solution of the statistical testing problem on a general level by means of convex duality and game-theoretical methods. The problem differs from the classical testing problem in that the power of a test is defined in terms of a strictly concave state dependent utility function rather than the identity mapping. Furthermore, our only essential assumption is that the alternative and the hypothesis are dominated, i.e., the alternative and the hypothesis need neither be parameterized nor of the form of the neighborhoods typically considered in robust statistics. Similar to the classical notion of least-favorable pairs of prior-distributions on the hypothesis respectively alternative, we introduce the pivotal notion of a least-favorable pair of elements of the hypothesis respectively alternative. The main result of our analysis on maximin-optimal tests is that the maximin-optimal test can be found among the simple-optimal test for a least-favorable pair. If the least-favorable pair is equivalent to the dominating measure, the simple optimal test is the unique maximin-optimal test. If the latter condition is not fulfilled, we approximate the maximin-optimal test by a sequence of explicitly constructed simple optimal tests. These results clarify the general structure of the robust-efficient hedging strategy. We also show that a least-favorable pair can be decomposed into a worst-case model and a worst-case pricing rule for this model. The worst-case model has a very direct economic interpretation, whereas the worst-case pricing rule is a more mathematical auxiliary tool. If the worst-case model dominates all models, the efficient strategy associated to the fixed worst-case model is robust-efficient. For fixed model, the worst-case pricing rule yields the optimal modified claim and allows us to make some statements about its attainability. In the second part of this thesis, we explicitly construct the robust-efficient strategy in a series of applications. For this, the task remains to determine the efficient strategy for each fixed model and a worst-case model. First, we enlarge the family of models in order to establish existence of a worst-case model. Then we derive the dynamics of the price process, the efficient strategy and the associated risk under each (fixed) model. If the model is incomplete, we adapt the dynamic programming principle to the specific dynamics of the model to compute or approximate the efficient strategy.
2

Reversible Jump Markov Chain Monte Carlo

Neuhoff, Daniel 15 March 2016 (has links)
Die vier in der vorliegenden Dissertation enthaltenen Studien beschäftigen sich vorwiegend mit dem dynamischen Verhalten makroökonomischer Zeitreihen. Diese Dynamiken werden sowohl im Kontext eines einfachen DSGE Modells, als auch aus der Sichtweise reiner Zeitreihenmodelle untersucht. / The four studies of this thesis are concerned predominantly with the dynamics of macroeconomic time series, both in the context of a simple DSGE model, as well as from a pure time series modeling perspective.
3

Matching DSGE models to data with applications to fiscal and robust monetary policy

Kriwoluzky, Alexander 01 December 2009 (has links)
Diese Doktorarbeit untersucht drei Fragestellungen. Erstens, wie die Wirkung von plötzlichen Änderungen exogener Faktoren auf endogene Variablen empirisch im Allgemeinen zu bestimmen ist. Zweitens, welche Effekte eine Erhöhung der Staatsausgaben im Speziellen hat. Drittens, wie optimale Geldpolitik bestimmt werden kann, wenn der Entscheider keine eindeutigen Modelle für die ökonomischen Rahmenbedingungen hat. Im ersten Kapitel entwickele ich eine Methode, mithilfe derer die Effekte von plötzlichen Änderungen exogener Faktoren auf endogene Variablen geschätzt werden können. Dazu wird die gemeinsame Verteilung von Parametern einer Vektor Autoregression (VAR) und eines stochastischen allgemeinen Gleichgewichtsmodelles (DSGE) bestimmt. Auf diese Weise können zentrale Probleme gelöst werden: das Identifikationsproblem der VAR und eine mögliche Misspezifikation des DSGE Modells. Im zweitem Kapitel wende ich die Methode aus dem ersten Kapitel an, um den Effekt einer angekündigten Erhöhung der Staatsausgaben auf den privaten Konsum und die Reallöhne zu untersuchen. Die Identifikation beruht auf der Einsicht, dass endogene Variablen, oft qualitative Unterschiede in der Periode der Ankündigung und nach der Realisation zeigen. Die Ergebnisse zeigen, dass der private Konsum negativ im Zeitraum der Ankündigung reagiert und positiv nach der Realisation. Reallöhne steigen zum Zeitpunkt der Ankündigung und sind positiv für zwei Perioden nach der Realisation. Im abschließendem Kapitel untersuche ich gemeinsam mit Christian Stoltenberg, wie Geldpolitik gesteuert werden sollte, wenn die Modellierung der Ökonomie unsicher ist. Wenn ein Modell um einen Parameter erweitert wird, kann das Modell dadurch so verändert werden, dass sich die Politikempfehlungen zwischen dem ursprünglichen und dem neuen Modell unterscheiden. Oft wird aber lediglich das erweiterte Modell betrachtet. Wir schlagen eine Methode vor, die beiden Modellen Rechnung trägt und somit zu einer besseren Politik führt. / This thesis is concerned with three questions: first, how can the effects macroeconomic policy has on the economy in general be estimated? Second, what are the effects of a pre-announced increase in government expenditures? Third, how should monetary policy be conducted, if the policymaker faces uncertainty about the economic environment. In the first chapter I suggest to estimate the effects of an exogenous disturbance on the economy by considering the parameter distributions of a Vector Autoregression (VAR) model and a Dynamic Stochastic General Equilibrium (DSGE) model jointly. This allows to resolve the major issue a researcher has to deal with when working with a VAR model and a DSGE model: the identification of the VAR model and the potential misspecification of the DSGE model. The second chapter applies the methodology presented in the preceding chapter to investigate the effects of a pre-announced change in government expenditure on private consumption and real wages. The shock is identified by exploiting its pre-announced nature, i.e. different signs of the responses in endogenous variables during the announcement and after the realization of the shock. Private consumption is found to respond negatively during the announcement period and positively after the realization. The reaction of real wages is positive on impact and positive for two quarters after the realization. In the last chapter ''Optimal Policy Under Model Uncertainty: A Structural-Bayesian Estimation Approach'' I investigate jointly with Christian Stoltenberg how policy should optimally be conducted when the policymaker is faced with uncertainty about the economic environment. The standard procedure is to specify a prior over the parameter space ignoring the status of some sub-models. We propose a procedure that ensures that the specified set of sub-models is not discarded too easily. We find that optimal policy based on our procedure leads to welfare gains compared to the standard practice.
4

Robust stochastic analysis with applications

Prömel, David Johannes 02 December 2015 (has links)
Diese Dissertation präsentiert neue Techniken der Integration für verschiedene Probleme der Finanzmathematik und einige Anwendungen in der Wahrscheinlichkeitstheorie. Zu Beginn entwickeln wir zwei Zugänge zur robusten stochastischen Integration. Der erste, ähnlich der Ito’schen Integration, basiert auf einer Topologie, erzeugt durch ein äußeres Maß, gegeben durch einen minimalen Superreplikationspreis. Der zweite gründet auf der Integrationtheorie für rauhe Pfade. Wir zeigen, dass das entsprechende Integral als Grenzwert von nicht antizipierenden Riemannsummen existiert und dass sich jedem "typischen Preispfad" ein rauher Pfad im Ito’schen Sinne zuordnen lässt. Für eindimensionale "typische Preispfade" wird sogar gezeigt, dass sie Hölder-stetige Lokalzeiten besitzen. Zudem erhalten wir Verallgemeinerungen von Föllmer’s pfadweiser Ito-Formel. Die Integrationstheorie für rauhe Pfade kann mit dem Konzept der kontrollierten Pfade und einer Topologie, welche die Information der Levy-Fläche enthält, entwickelt werden. Deshalb untersuchen wir hinreichende Bedingungen an die Kontrollstruktur für die Existenz der Levy-Fläche. Dies führt uns zur Untersuchung von Föllmer’s Ito-Formel aus der Sicht kontrollierter Pfade. Para-kontrollierte Distributionen, kürzlich von Gubinelli, Imkeller und Perkowski eingeführt, erweitern die Theorie rauher Pfade auf den Bereich von mehr-dimensionale Parameter. Wir verallgemeinern diesen Ansatz von Hölder’schen auf Besov-Räume, um rauhe Differentialgleichungen zu lösen, und wenden die Ergebnisse auf stochastische Differentialgleichungen an. Zum Schluß betrachten wir stark gekoppelte Systeme von stochastischen Vorwärts-Rückwärts-Differentialgleichungen (FBSDEs) und erweitern die Theorie der Existenz, Eindeutigkeit und Regularität der sogenannten Entkopplungsfelder auf Markovsche FBSDEs mit lokal Lipschitz-stetigen Koeffizienten. Als Anwendung wird das Skorokhodsche Einbettungsproblem für Gaußsche Prozesse mit nichtlinearem Drift gelöst. / In this thesis new robust integration techniques, which are suitable for various problems from stochastic analysis and mathematical finance, as well as some applications are presented. We begin with two different approaches to stochastic integration in robust financial mathematics. The first one is inspired by Ito’s integration and based on a certain topology induced by an outer measure corresponding to a minimal superhedging price. The second approach relies on the controlled rough path integral. We prove that this integral is the limit of non-anticipating Riemann sums and that every "typical price path" has an associated Ito rough path. For one-dimensional "typical price paths" it is further shown that they possess Hölder continuous local times. Additionally, we provide various generalizations of Föllmer’s pathwise Ito formula. Recalling that rough path theory can be developed using the concept of controlled paths and with a topology including the information of Levy’s area, sufficient conditions for the pathwise existence of Levy’s area are provided in terms of being controlled. This leads us to study Föllmer’s pathwise Ito formulas from the perspective of controlled paths. A multi-parameter extension to rough path theory is the paracontrolled distribution approach, recently introduced by Gubinelli, Imkeller and Perkowski. We generalize their approach from Hölder spaces to Besov spaces to solve rough differential equations. As an application we deal with stochastic differential equations driven by random functions. Finally, considering strongly coupled systems of forward and backward stochastic differential equations (FBSDEs), we extend the existence, uniqueness and regularity theory of so-called decoupling fields to Markovian FBSDEs with locally Lipschitz continuous coefficients. These results allow to solve the Skorokhod embedding problem for a class of Gaussian processes with non-linear drift.
5

Robust utility maximization, f-projections, and risk constraints

Gundel, Anne 01 June 2006 (has links)
Ein wichtiges Gebiet der Finanzmathematik ist die Bestimmung von Auszahlungsprofilen, die den erwarteten Nutzen eines Agenten unter einer Budgetrestriktion maximieren. Wir charakterisieren optimale Auszahlungsprofile für einen Agenten, der unsicher ist in Bezug auf das genaue Marktmodell. Der hier benutzte Dualitätsansatz führt zu einem Minimierungsproblem für bestimmte konvexe Funktionale über zwei Mengen von Wahrscheinlichkeitsmaßen, das wir zunächst lösen müssen. Schließlich führen wir noch eine zweite Restriktion ein, die das Risiko beschränkt, das der Agent eingehen darf. Wir gehen dabei wie folgt vor: Kapitel 1. Wir betrachten das Problem, die f-Divergenz f(P|Q) über zwei Mengen von Wahrscheinlichkeitsmaßen zu minimieren, wobei f eine konvexe Funktion ist. Wir zeigen, dass unter der Bedingung "f( undendlich ) / undendlich = undendlich" Minimierer existieren, falls die erste Menge abgeschlossen und die zweite schwach kompakt ist. Außerdem zeigen wir, dass unter der Bedingung "f( undendlich ) / undendlich = 0" ein Minimierer in einer erweiterten Klasse von Martingalmaßen existiert, falls die zweite Menge schwach kompakt ist. Kapitel 2. Die Existenzresultate aus dem ersten Kapitel implizieren die Existenz eines Auszahlungsprofils, das das robuste Nutzenfunktional inf E_Q[u(X)] über eine Menge von finanzierbaren Auszahlungen maximiert, wobei das Infimum über eine Menge von Modellmaßen betrachtet wird. Die entscheidende Idee besteht darin, die minimierenden Maße aus dem ersten Kapitel als gewisse "worst-case"-Maße zu identifizieren. Kapitel 3. Schließlich fordern wir, dass das Risiko der Auszahlungsprofile beschränkt ist. Wir lösen das robuste Problem in einem unvollständigen Marktmodell für Nutzenfunktionen, die nur auf der positiven Halbachse definiert sind. In einem Beispiel vergleichen wir das optimale Auszahlungsprofil unter der Risikorestriktion mit den optimalen Auszahlungen ohne eine solche Restriktion und unter einer Value-at-Risk-Nebenbedingung. / Finding payoff profiles that maximize the expected utility of an agent under some budget constraint is a key issue in financial mathematics. We characterize optimal contingent claims for an agent who is uncertain about the market model. The dual approach that we use leads to a minimization problem for a certain convex functional over two sets of measures, which we first have to solve. Finally, we incorporate a second constraint that limits the risk that the agent is allowed to take. We proceed as follows: Chapter 1. Given a convex function f, we consider the problem of minimizing the f-divergence f(P|Q) over these two sets of measures. We show that, if the first set is closed and the second set is weakly compact, a minimizer exists if f( infinity ) / infinity = infinity. Furthermore, we show that if the second set of measures is weakly compact and f( infinifty ) / infinity = 0, then there is a minimizer in a class of extended martingale measures. Chapter 2. The existence results in Chapter 1 lead to the existence of a contingent claim which maximizes the robust utility functional inf E_Q[u(X)] over some set of affordable contingent claims, where the infimum is taken over a set of subjective or modell measures. The key idea is to identify the minimizing measures from the first chapter as certain worst case measures. Chapter 3. Finally, we require the risk of the contingent claims to be bounded. We solve the robust problem in an incomplete market for a utility function that is only defined on the positive halfline. In an example we compare the optimal claim under this risk constraint with the optimal claims without a risk constraint and under a value-at-risk constraint.
6

Evaluation of empirical approaches to estimate the variability of erosive inputs in river catchments

Gericke, Andreas 09 December 2013 (has links)
Die Dissertation erforscht die Unsicherheit, Sensitivität und Grenzen großskaliger Erosionsmodelle. Die Modellierung basiert auf der allgemeinen Bodenabtragsgleichung (ABAG), Sedimenteintragsverhältnissen (SDR) und europäischen Daten. Für mehrere Regionen Europas wird die Bedeutung der Unsicherheit topographischer Modellparameter, ABAG-Faktoren und kritischer Schwebstofffrachten für die Anwendbarkeit empirischer Modelle zur Beschreibung von Sedimentfrachten und SDR von Flusseinzugsgebieten untersucht. Der Vergleich alternativer Modellparameter sowie Kalibrierungs- und Validierungsdaten zeigt, dass schon grundlegende Modellentscheidungen mit großen Unsicherheiten behaftet sind. Zur Vermeidung falscher Modellvorhersagen sind kalibrierte Modelle genau zu dokumentieren. Auch wenn die geschickte Wahl nicht-topographischer Algorithmen die Modellgüte regionaler Anwendungen verbessern kann, so gibt es nicht die generell beste Lösung. Die Ergebnisse zeigen auch, dass SDR-Modelle stets mit Sedimentfrachten und SDR kalibriert und evaluiert werden sollten. Mit diesem Ansatz werden eine neue europäische Bodenabtragskarte und ein verbessertes SDR-Modell für Einzugsgebiete nördlich der Alpen und in Südosteuropa abgeleitet. In anderen Regionen Europas ist das SDR-Modell bedingt nutzbar. Die Studien zur jährlichen Variabilität der Bodenerosion zeigen, dass jahreszeitlich gewichtete Niederschlagsdaten geeigneter als ungewichtete sind. Trotz zufriedenstellender Modellergebnisse überwinden weder sorgfältige Algorithmenwahl noch Modellverbesserungen die Grenzen europaweiter SDR-Modelle. Diese bestehen aus der Diskrepanz zwischen modellierten Bodenabtrags- und maßgeblich zur beobachteten bzw. kritischen Sedimentfracht beitragenden Prozessen sowie der außergewöhnlich hohen Sedimentmobilisierung durch Hochwässer. Die Integration von nicht von der ABAG beschriebenen Prozessen und von Starkregentagen sowie die Disaggregation kritischer Frachten sollte daher weiter erforscht werden. / This dissertation thesis addresses the uncertainty, sensitivity and limitations of large-scale erosion models. The modelling framework consists of the universal soil loss equation (USLE), sediment delivery ratios (SDR) and European data. For several European regions, the relevance of the uncertainty in topographic model parameters, USLE factors and critical yields of suspended solids for the applicability of empirical models to predict sediment yields and SDR of river catchments is systematically evaluated. The comparison of alternative model parameters as well as calibration and validation data shows that even basic modelling decisions are associated with great uncertainties. Consequently, calibrated models have to be well-documented to avoid misapplication. Although careful choices of non-topographic algorithms can also be helpful to improve the model quality in regional applications, there is no definitive universal solution. The results also show that SDR models should always be calibrated and evaluated against sediment yields and SDR. With this approach, a new European soil loss map and an improved SDR model for river catchments north of the Alps and in Southeast Europe are derived. For other parts of Europe, the SDR model is of limited use. The studies on the annual variability of soil erosion reveal that seasonally weighted rainfall data is more appropriate than unweighted data. Despite satisfactory model results, neither the careful algorithm choice nor model improvements overcome the limitations of pan-European SDR models. These limitations are related to the mismatch of modelled soil loss processes and the relevant processes contributing to the observed or critical sediment load as well as the extraordinary sediment mobilisation during floods. Therefore, further research on integrating non-USLE processes and heavy-rainfall data as well as on disaggregating critical yields is needed.
7

Estimating and Correcting the Effects of Model Selection Uncertainty / Estimating and Correcting the Effects of Model Selection Uncertainty

Nguefack Tsague, Georges Lucioni Edison 03 February 2006 (has links)
No description available.

Page generated in 0.4579 seconds