71 |
Robust utility maximization, f-projections, and risk constraintsGundel, Anne 01 June 2006 (has links)
Ein wichtiges Gebiet der Finanzmathematik ist die Bestimmung von Auszahlungsprofilen, die den erwarteten Nutzen eines Agenten unter einer Budgetrestriktion maximieren. Wir charakterisieren optimale Auszahlungsprofile für einen Agenten, der unsicher ist in Bezug auf das genaue Marktmodell. Der hier benutzte Dualitätsansatz führt zu einem Minimierungsproblem für bestimmte konvexe Funktionale über zwei Mengen von Wahrscheinlichkeitsmaßen, das wir zunächst lösen müssen. Schließlich führen wir noch eine zweite Restriktion ein, die das Risiko beschränkt, das der Agent eingehen darf. Wir gehen dabei wie folgt vor: Kapitel 1. Wir betrachten das Problem, die f-Divergenz f(P|Q) über zwei Mengen von Wahrscheinlichkeitsmaßen zu minimieren, wobei f eine konvexe Funktion ist. Wir zeigen, dass unter der Bedingung "f( undendlich ) / undendlich = undendlich" Minimierer existieren, falls die erste Menge abgeschlossen und die zweite schwach kompakt ist. Außerdem zeigen wir, dass unter der Bedingung "f( undendlich ) / undendlich = 0" ein Minimierer in einer erweiterten Klasse von Martingalmaßen existiert, falls die zweite Menge schwach kompakt ist. Kapitel 2. Die Existenzresultate aus dem ersten Kapitel implizieren die Existenz eines Auszahlungsprofils, das das robuste Nutzenfunktional inf E_Q[u(X)] über eine Menge von finanzierbaren Auszahlungen maximiert, wobei das Infimum über eine Menge von Modellmaßen betrachtet wird. Die entscheidende Idee besteht darin, die minimierenden Maße aus dem ersten Kapitel als gewisse "worst-case"-Maße zu identifizieren. Kapitel 3. Schließlich fordern wir, dass das Risiko der Auszahlungsprofile beschränkt ist. Wir lösen das robuste Problem in einem unvollständigen Marktmodell für Nutzenfunktionen, die nur auf der positiven Halbachse definiert sind. In einem Beispiel vergleichen wir das optimale Auszahlungsprofil unter der Risikorestriktion mit den optimalen Auszahlungen ohne eine solche Restriktion und unter einer Value-at-Risk-Nebenbedingung. / Finding payoff profiles that maximize the expected utility of an agent under some budget constraint is a key issue in financial mathematics. We characterize optimal contingent claims for an agent who is uncertain about the market model. The dual approach that we use leads to a minimization problem for a certain convex functional over two sets of measures, which we first have to solve. Finally, we incorporate a second constraint that limits the risk that the agent is allowed to take. We proceed as follows: Chapter 1. Given a convex function f, we consider the problem of minimizing the f-divergence f(P|Q) over these two sets of measures. We show that, if the first set is closed and the second set is weakly compact, a minimizer exists if f( infinity ) / infinity = infinity. Furthermore, we show that if the second set of measures is weakly compact and f( infinifty ) / infinity = 0, then there is a minimizer in a class of extended martingale measures. Chapter 2. The existence results in Chapter 1 lead to the existence of a contingent claim which maximizes the robust utility functional inf E_Q[u(X)] over some set of affordable contingent claims, where the infimum is taken over a set of subjective or modell measures. The key idea is to identify the minimizing measures from the first chapter as certain worst case measures. Chapter 3. Finally, we require the risk of the contingent claims to be bounded. We solve the robust problem in an incomplete market for a utility function that is only defined on the positive halfline. In an example we compare the optimal claim under this risk constraint with the optimal claims without a risk constraint and under a value-at-risk constraint.
|
72 |
Robust stochastic analysis with applicationsPrömel, David Johannes 02 December 2015 (has links)
Diese Dissertation präsentiert neue Techniken der Integration für verschiedene Probleme der Finanzmathematik und einige Anwendungen in der Wahrscheinlichkeitstheorie. Zu Beginn entwickeln wir zwei Zugänge zur robusten stochastischen Integration. Der erste, ähnlich der Ito’schen Integration, basiert auf einer Topologie, erzeugt durch ein äußeres Maß, gegeben durch einen minimalen Superreplikationspreis. Der zweite gründet auf der Integrationtheorie für rauhe Pfade. Wir zeigen, dass das entsprechende Integral als Grenzwert von nicht antizipierenden Riemannsummen existiert und dass sich jedem "typischen Preispfad" ein rauher Pfad im Ito’schen Sinne zuordnen lässt. Für eindimensionale "typische Preispfade" wird sogar gezeigt, dass sie Hölder-stetige Lokalzeiten besitzen. Zudem erhalten wir Verallgemeinerungen von Föllmer’s pfadweiser Ito-Formel. Die Integrationstheorie für rauhe Pfade kann mit dem Konzept der kontrollierten Pfade und einer Topologie, welche die Information der Levy-Fläche enthält, entwickelt werden. Deshalb untersuchen wir hinreichende Bedingungen an die Kontrollstruktur für die Existenz der Levy-Fläche. Dies führt uns zur Untersuchung von Föllmer’s Ito-Formel aus der Sicht kontrollierter Pfade. Para-kontrollierte Distributionen, kürzlich von Gubinelli, Imkeller und Perkowski eingeführt, erweitern die Theorie rauher Pfade auf den Bereich von mehr-dimensionale Parameter. Wir verallgemeinern diesen Ansatz von Hölder’schen auf Besov-Räume, um rauhe Differentialgleichungen zu lösen, und wenden die Ergebnisse auf stochastische Differentialgleichungen an. Zum Schluß betrachten wir stark gekoppelte Systeme von stochastischen Vorwärts-Rückwärts-Differentialgleichungen (FBSDEs) und erweitern die Theorie der Existenz, Eindeutigkeit und Regularität der sogenannten Entkopplungsfelder auf Markovsche FBSDEs mit lokal Lipschitz-stetigen Koeffizienten. Als Anwendung wird das Skorokhodsche Einbettungsproblem für Gaußsche Prozesse mit nichtlinearem Drift gelöst. / In this thesis new robust integration techniques, which are suitable for various problems from stochastic analysis and mathematical finance, as well as some applications are presented. We begin with two different approaches to stochastic integration in robust financial mathematics. The first one is inspired by Ito’s integration and based on a certain topology induced by an outer measure corresponding to a minimal superhedging price. The second approach relies on the controlled rough path integral. We prove that this integral is the limit of non-anticipating Riemann sums and that every "typical price path" has an associated Ito rough path. For one-dimensional "typical price paths" it is further shown that they possess Hölder continuous local times. Additionally, we provide various generalizations of Föllmer’s pathwise Ito formula. Recalling that rough path theory can be developed using the concept of controlled paths and with a topology including the information of Levy’s area, sufficient conditions for the pathwise existence of Levy’s area are provided in terms of being controlled. This leads us to study Föllmer’s pathwise Ito formulas from the perspective of controlled paths. A multi-parameter extension to rough path theory is the paracontrolled distribution approach, recently introduced by Gubinelli, Imkeller and Perkowski. We generalize their approach from Hölder spaces to Besov spaces to solve rough differential equations. As an application we deal with stochastic differential equations driven by random functions. Finally, considering strongly coupled systems of forward and backward stochastic differential equations (FBSDEs), we extend the existence, uniqueness and regularity theory of so-called decoupling fields to Markovian FBSDEs with locally Lipschitz continuous coefficients. These results allow to solve the Skorokhod embedding problem for a class of Gaussian processes with non-linear drift.
|
73 |
Estimating and Correcting the Effects of Model Selection Uncertainty / Estimating and Correcting the Effects of Model Selection UncertaintyNguefack Tsague, Georges Lucioni Edison 03 February 2006 (has links)
No description available.
|
74 |
Macroeconometrics with high-dimensional dataZeugner, Stefan 12 September 2012 (has links)
CHAPTER 1:<p>The default g-priors predominant in Bayesian Model Averaging tend to over-concentrate posterior mass on a tiny set of models - a feature we denote as 'supermodel effect'. To address it, we propose a 'hyper-g' prior specification, whose data-dependent shrinkage adapts posterior model distributions to data quality. We demonstrate the asymptotic consistency of the hyper-g prior, and its interpretation as a goodness-of-fit indicator. Moreover, we highlight the similarities between hyper-g and 'Empirical Bayes' priors, and introduce closed-form expressions essential to computationally feasibility. The robustness of the hyper-g prior is demonstrated via simulation analysis, and by comparing four vintages of economic growth data.<p><p>CHAPTER 2:<p>Ciccone and Jarocinski (2010) show that inference in Bayesian Model Averaging (BMA) can be highly sensitive to small data perturbations. In particular they demonstrate that the importance attributed to potential growth determinants varies tremendously over different revisions of international income data. They conclude that 'agnostic' priors appear too sensitive for this strand of growth empirics. In response, we show that the found instability owes much to a specific BMA set-up: First, comparing the same countries over data revisions improves robustness. Second, much of the remaining variation can be reduced by applying an evenly 'agnostic', but flexible prior.<p><p>CHAPTER 3:<p>This chapter explores the link between the leverage of the US financial sector, of households and of non-financial businesses, and real activity. We document that leverage is negatively correlated with the future growth of real activity, and positively linked to the conditional volatility of future real activity and of equity returns. <p>The joint information in sectoral leverage series is more relevant for predicting future real activity than the information contained in any individual leverage series. Using in-sample regressions and out-of sample forecasts, we show that the predictive power of leverage is roughly comparable to that of macro and financial predictors commonly used by forecasters. <p>Leverage information would not have allowed to predict the 'Great Recession' of 2008-2009 any better than conventional macro/financial predictors. <p><p>CHAPTER 4:<p>Model averaging has proven popular for inference with many potential predictors in small samples. However, it is frequently criticized for a lack of robustness with respect to prediction and inference. This chapter explores the reasons for such robustness problems and proposes to address them by transforming the subset of potential 'control' predictors into principal components in suitable datasets. A simulation analysis shows that this approach yields robustness advantages vs. both standard model averaging and principal component-augmented regression. Moreover, we devise a prior framework that extends model averaging to uncertainty over the set of principal components and show that it offers considerable improvements with respect to the robustness of estimates and inference about the importance of covariates. Finally, we empirically benchmark our approach with popular model averaging and PC-based techniques in evaluating financial indicators as alternatives to established macroeconomic predictors of real economic activity. / Doctorat en Sciences économiques et de gestion / info:eu-repo/semantics/nonPublished
|
75 |
Evaluation of empirical approaches to estimate the variability of erosive inputs in river catchmentsGericke, Andreas 09 December 2013 (has links)
Die Dissertation erforscht die Unsicherheit, Sensitivität und Grenzen großskaliger Erosionsmodelle. Die Modellierung basiert auf der allgemeinen Bodenabtragsgleichung (ABAG), Sedimenteintragsverhältnissen (SDR) und europäischen Daten. Für mehrere Regionen Europas wird die Bedeutung der Unsicherheit topographischer Modellparameter, ABAG-Faktoren und kritischer Schwebstofffrachten für die Anwendbarkeit empirischer Modelle zur Beschreibung von Sedimentfrachten und SDR von Flusseinzugsgebieten untersucht. Der Vergleich alternativer Modellparameter sowie Kalibrierungs- und Validierungsdaten zeigt, dass schon grundlegende Modellentscheidungen mit großen Unsicherheiten behaftet sind. Zur Vermeidung falscher Modellvorhersagen sind kalibrierte Modelle genau zu dokumentieren. Auch wenn die geschickte Wahl nicht-topographischer Algorithmen die Modellgüte regionaler Anwendungen verbessern kann, so gibt es nicht die generell beste Lösung. Die Ergebnisse zeigen auch, dass SDR-Modelle stets mit Sedimentfrachten und SDR kalibriert und evaluiert werden sollten. Mit diesem Ansatz werden eine neue europäische Bodenabtragskarte und ein verbessertes SDR-Modell für Einzugsgebiete nördlich der Alpen und in Südosteuropa abgeleitet. In anderen Regionen Europas ist das SDR-Modell bedingt nutzbar. Die Studien zur jährlichen Variabilität der Bodenerosion zeigen, dass jahreszeitlich gewichtete Niederschlagsdaten geeigneter als ungewichtete sind. Trotz zufriedenstellender Modellergebnisse überwinden weder sorgfältige Algorithmenwahl noch Modellverbesserungen die Grenzen europaweiter SDR-Modelle. Diese bestehen aus der Diskrepanz zwischen modellierten Bodenabtrags- und maßgeblich zur beobachteten bzw. kritischen Sedimentfracht beitragenden Prozessen sowie der außergewöhnlich hohen Sedimentmobilisierung durch Hochwässer. Die Integration von nicht von der ABAG beschriebenen Prozessen und von Starkregentagen sowie die Disaggregation kritischer Frachten sollte daher weiter erforscht werden. / This dissertation thesis addresses the uncertainty, sensitivity and limitations of large-scale erosion models. The modelling framework consists of the universal soil loss equation (USLE), sediment delivery ratios (SDR) and European data. For several European regions, the relevance of the uncertainty in topographic model parameters, USLE factors and critical yields of suspended solids for the applicability of empirical models to predict sediment yields and SDR of river catchments is systematically evaluated. The comparison of alternative model parameters as well as calibration and validation data shows that even basic modelling decisions are associated with great uncertainties. Consequently, calibrated models have to be well-documented to avoid misapplication. Although careful choices of non-topographic algorithms can also be helpful to improve the model quality in regional applications, there is no definitive universal solution. The results also show that SDR models should always be calibrated and evaluated against sediment yields and SDR. With this approach, a new European soil loss map and an improved SDR model for river catchments north of the Alps and in Southeast Europe are derived. For other parts of Europe, the SDR model is of limited use. The studies on the annual variability of soil erosion reveal that seasonally weighted rainfall data is more appropriate than unweighted data. Despite satisfactory model results, neither the careful algorithm choice nor model improvements overcome the limitations of pan-European SDR models. These limitations are related to the mismatch of modelled soil loss processes and the relevant processes contributing to the observed or critical sediment load as well as the extraordinary sediment mobilisation during floods. Therefore, further research on integrating non-USLE processes and heavy-rainfall data as well as on disaggregating critical yields is needed.
|
Page generated in 0.085 seconds