• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 32
  • 4
  • Tagged with
  • 36
  • 34
  • 27
  • 27
  • 27
  • 21
  • 12
  • 12
  • 9
  • 8
  • 7
  • 7
  • 6
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

A dynamic life cycle model for Germany with unemployment uncertainty

Biewald, Anne January 2008 (has links)
This work analyzes the saving and consumption behavior of agents faced with the possibility of unemployment in a dynamic and stochastic life cycle model. The intertemporal optimization is based on Dynamic Programming with a backward recursion algorithm. The implemented uncertainty is not based on income shocks as it is done in traditional life cycle models but uses Markov probabilities where the probability for the next employment status of the agent depends on the current status. The utility function used is a CRRA function (constant relative risk aversion), combined with a CES function (constant elasticity of substitution) and has several consumption goods, a subsistence level, money and a bequest function. / Diese Arbeit modelliert das Spar- und Konsumverhalten von Individuen in Deutschland mit einem Lebenszyklusmodell. Dabei hat das Modell zwei Besonderheiten, erstens trifft die Möglichkeit arbeitslos zu werden nicht jeden Agenten des Models mit der gleichen Wahrscheinlichkeit, sondern wird von Bildungsabschluss und dem Beschäftigungsstatus des Agenten beeinflußt und zweitens weicht die verwendete Nutzenfunktion von den Standardnutzenfunktionen ab und implementiert Vererbung, Geld, verschiedene Güter und Subsistenzlevel. Der Optimierungsalgorithmus basiert auf Dynamischer Programmierung.
2

Probability in Mathematics: Facing Probability in Everyday Life

Sheffet, Malka, Bassan-Cincinatus, Ronit 20 March 2012 (has links) (PDF)
No description available.
3

Verfahren des maschinellen Lernens zur Entscheidungsunterstützung

Bequé, Artem 21 September 2018 (has links)
Erfolgreiche Unternehmen denken intensiv über den eigentlichen Nutzen ihres Unternehmens für Kunden nach. Diese versuchen, ihrer Konkurrenz voraus zu sein, und zwar durch gute Ideen, Innovationen und Kreativität. Dabei wird Erfolg anhand von Metriken gemessen, wie z.B. der Anzahl der loyalen Kunden oder der Anzahl der Käufer. Gegeben, dass der Wettbewerb durch die Globalisierung, Deregulierung und technologische Innovation in den letzten Jahren angewachsen ist, spielen die richtigen Entscheidungen für den Erfolg gerade im operativen Geschäft der sämtlichen Bereiche des Unternehmens eine zentrale Rolle. Vor diesem Hintergrund entstammen die in der vorliegenden Arbeit zur Evaluation der Methoden des maschinellen Lernens untersuchten Entscheidungsprobleme vornehmlich der Entscheidungsunterstützung. Hierzu gehören Klassifikationsprobleme wie die Kreditwürdigkeitsprüfung im Bereich Credit Scoring und die Effizienz der Marketing Campaigns im Bereich Direktmarketing. In diesem Kontext ergaben sich Fragestellungen für die korrelativen Modelle, nämlich die Untersuchung der Eignung der Verfahren des maschinellen Lernens für den Bereich des Credit Scoring, die Kalibrierung der Wahrscheinlichkeiten, welche mithilfe von Verfahren des maschinellen Lernens erzeugt werden sowie die Konzeption und Umsetzung einer Synergie-Heuristik zwischen den Methoden der klassischen Statistik und Verfahren des maschinellen Lernens. Desweiteren wurden kausale Modelle für den Bereich Direktmarketing (sog. Uplift-Effekte) angesprochen. Diese Themen wurden im Rahmen von breit angelegten empirischen Studien bearbeitet. Zusammenfassend ergibt sich, dass der Einsatz der untersuchten Verfahren beim derzeitigen Stand der Forschung zur Lösung praxisrelevanter Entscheidungsprobleme sowie spezifischer Fragestellungen, welche aus den besonderen Anforderungen der betrachteten Anwendungen abgeleitet wurden, einen wesentlichen Beitrag leistet. / Nowadays right decisions, being it strategic or operative, are important for every company, since these contribute directly to an overall success. This success can be measured based on quantitative metrics, for example, by the number of loyal customers or the number of incremental purchases. These decisions are typically made based on the historical data that relates to all functions of the company in general and to customers in particular. Thus, companies seek to analyze this data and apply obtained knowlegde in decision making. Classification problems represent an example of such decisions. Classification problems are best solved, when techniques of classical statistics and these of machine learning are applied, since both of them are able to analyze huge amount of data, to detect dependencies of the data patterns, and to produce probability, which represents the basis for the decision making. I apply these techniques and examine their suitability based on correlative models for decision making in credit scoring and further extend the work by causal predictive models for direct marketing. In detail, I analyze the suitability of techniques of machine learning for credit scoring alongside multiple dimensions, I examine the ability to produce calibrated probabilities and apply techniques to improve the probability estimations. I further develop and propose a synergy heuristic between the methods of classical statistics and techniques of machine learning to improve the prediction quality of the former, and finally apply conversion models to turn machine learning techqiques to account for causal relationship between marketing campaigns and customer behavior in direct marketing. The work has shown that the techniques of machine learning represent a suitable alternative to the methods of classical statistics for decision making and should be considered not only in research but also should find their practical application in real-world practices.
4

Probability in Mathematics: Facing Probability in Everyday Life

Sheffet, Malka, Bassan-Cincinatus, Ronit 20 March 2012 (has links)
No description available.
5

Uncertainties in land change modeling

Krüger, Carsten 13 May 2016 (has links)
Der Einfluss des Menschen verändert die Erdoberfläche in gravierendem Maße. Die Anwendung von Landnutzungsmodellen ist etabliert, um derartige Prozesse zu analysieren und um Handlungsempfehlungen für Entscheidungsträger zu geben. Landnutzungsmodelle stehen unter dem Einfluss von Unsicherheiten, welche beim Interpretieren der Ergebnisse berücksichtigt werden müssen. Dennoch gibt es wenige Ansätze, die unterschiedliche Unsicherheitsquellen mit ihren Interdependenzen untersuchen und ihre Auswirkungen auf die projizierte Änderung der Landschaft analysieren. Aus diesem Grund ist das erste Ziel dieser Arbeit einen systematischen Ansatz zu entwickeln, der wesentliche Unsicherheitsquellen analysiert und ihre Fortentwicklung zur resultierenden Änderungskarte untersucht. Eine andere Herausforderung in der Landnutzungsmodellierung ist es, die Eignung von Projektionen abzuschätzen wenn keine Referenzdaten vorliegen. Bayes’sche Netze wurden als eine vielseitige Methode identifiziert, um das erste Ziel zu erreichen. Darüber hinaus wurden die Modellierungsschritte „Definition der Modellstruktur“, „Auswahl der Eingangsdaten“ und „Weiterverarbeitung der Daten“ als wesentliche Unsicherheitsquellen identifiziert. Um das zweite Ziel zu adressieren wurde eine Auswahl an Maßzahlen entwickelt. Diese quantifizieren Unsicherheit mit Hilfe einer projizierten Änderungskarte und ohne den Vergleich mit Referenzdaten. Mit diesen Maßzahlen ist es zusätzlich möglich zwischen quantitativer und räumlicher Unsicherheit zu unterscheiden. Vor allem in räumlichen Anwendungen wie der Landnutzungsmodellierung ist diese Möglichkeit wertvoll. Dennoch kann auch ein absolut sicheres Modell gleichzeitig ein falsches und nutzloses Modell sein. Deswegen wird ein Ansatz empfohlen, der die Beziehung zwischen Unsicherheit und Genauigkeit in bekannten Zeitschritten schätzt. Die entwickelten Ansätze geben wichtige Informationen um die Eignung von modellierten Entwicklungspfaden der Landnutzung zu verstehen. / Human influence has led to substantial changes to the Earth’s surface. Land change models are widely applied to analyze land change processes and to give recommendations for decision-making. Land change models are affected by uncertainties which have to be taken into account when interpreting their results. However, approaches which examine different sources of uncertainty with regard to their interdependencies and their influence on projected land change are rarely applied. The first objective of this thesis is therefore to develop a systematic approach which identifies major sources of uncertainty and the propagation to the resulting land change map. Another challenge in land change modeling is the estimation of the reliability of land change predictions when no reference data are available. Bayesian Belief Networks were identified as a useful technique to reach the first objective. Moreover, the modeling steps of “model structure definition”, “data selection” and “data preprocessing” were detected as relevant sources of uncertainty. To address the second research objective, a set of measures based on probabilities were developed. They quantify uncertainty by means of a single predicted land change map without using a reference map. It is additionally possible to differentiate uncertainty into its spatial and quantitative components by means of these measures. This is especially useful in spatial applications such as land change modeling. However, even a certain model can be wrong and therefore useless. Therefore, an approach is suggested which estimates the relationship between disagreement and uncertainty in known time steps to use this relationship in future time steps. The approaches give important information for understanding the reliability of modeled future development paths of land change.
6

Essays on Utility maximization and Optimal Stopping Problems in the Presence of Default Risk

Feunou, Victor Nzengang 09 August 2018 (has links)
Gegenstand der vorliegenden Dissertation sind stochastische Kontrollprobleme, denen sich Agenten im Zusammenhang mit Entscheidungen auf Finanzmärkten gegenübersehen. Der erste Teil der Arbeit behandelt die Maximierung des erwarteten Nutzens des Endvermögens eines Finanzmarktinvestors. Für den Investor ist eine Beschreibung der optimalen Handelsstrategie, die zur numerischen Approximation geeignet ist sowie eine Stabilitätsanalyse der optimalen Handelsstrategie bzgl. kleinerer Fehlspezifikationen in Nutzenfunktion und Anfangsvermögen, von höchstem Interesse. In stetigen Marktmodellen beweisen wir Stabilitätsresultate für die optimale Handeslsstrategie in geeigneten Topologien. Für hinreichend differenzierbare Nutzenfunktionen und zeitstetige Marktmodelle erhalten wir eine Beschreibung der optimalen Handelsstrategie durch die Lösung eines Systems von stochastischen Vorwärts-Rückwärts-Differentialgleichungen (FBSDEs). Der zweite Teil der Arbeit beschäftigt sich mit optimalen Stopproblemen für einen Agenten, dessen Ertragsprozess von einem Ausfallsereignis abhängt. Unser Hauptinteresse gilt der Beschreibung der Lösungen vor und nach dem Ausfallsereignis und damit dem besseren Verständnis des Verhaltens des Agenten bei Auftreten eines Ausfallsereignisses. Wir zeigen wie sich das optimale Stopproblem in zwei einzelne Teilprobleme zerlegen lässt: eines, für das der zugrunde liegende Informationsfluss das Ausfallereignis nicht beinhaltet, und eines, in welchem der Informationsfluss das Ausfallereignis berücksichtigt. Aufbauend auf der Zerlegung des Stopproblems und der Verbindung zwischen der Optimalen Stoptheorie und der Theorie von reflektierenden stochastischen Rückwärts-Differentialgleichungen (RBSDEs), leiten wir einen entsprechenden Zerlegungsansatz her, um RBSDEs mit genau einem Sprung zu lösen. Wir beweisen neue Existenz- und Eindeutigkeitsresultate von RBSDEs mit quadratischem Wachstum. / This thesis studies stochastic control problems faced by agents in financial markets when making decisions. The first part focuses on the maximization of expected utility from terminal wealth for an investor trading in a financial market. Of utmost concern to the investor is a description of optimal trading strategy that is amenable to numerical approximation, and the stability analysis of the optimal trading strategy w.r.t. "small" misspecification in his utility function and initial capital. In the setting of a continuous market model, we prove stability results for the optimal wealth process in the Emery topology and the uniform topology on semimartingales, and stability results for the optimal trading strategy in suitable topologies. For sufficiently differentiable utility functions, we obtain a description of the optimal trading strategy in terms of the solution of a system of forward-backward stochastic differential equations (FBSDEs). The second part of the thesis deals with the optimal stopping problem for an agent with a reward process exposed to a default event. Our main concern is to give a description of the solutions before and after the default event and thereby better understand the behavior of the agent in the presence of default. We show how the stopping problem can be decomposed into two individual stopping problems: one with information flow for which the default event is not visible, and another one with information flow which captures the default event. We build on the decomposition of the optimal stopping problem, and the link between the theories of optimal stopping and reflected backward stochastic differential equations (RBSDEs) to derive a corresponding decomposition approach to solve RBSDEs with a single jump. This decomposition allows us to establish existence and uniqueness results for RBSDEs with drivers of quadratic growth.
7

Essays on Modern Econometrics and Machine Learning

Keilbar, Georg 16 June 2022 (has links)
Diese Dissertation behandelt verschiedene Aspekte moderner Ökonometrie und Machine Learnings. Kapitel 2 stellt einen neuen Schätzer für die Regressionsparameter in einem Paneldatenmodell mit interaktiven festen Effekten vor. Eine Besonderheit unserer Methode ist die Modellierung der factor loadings durch nichtparametrische Funktionen. Wir zeigen die root-NT-Konvergenz sowie die asymptotische Normalverteilung unseres Schätzers. Kapitel 3 betrachtet die rekursive Schätzung von Quantilen mit Hilfe des stochastic gradient descent (SGD) Algorithmus mit Polyak-Ruppert Mittelwertbildung. Der Algorithmus ist rechnerisch und Speicher-effizient verglichen mit herkömmlichen Schätzmethoden. Unser Fokus ist die Untersuchung des nichtasymptotischen Verhaltens, indem wir eine exponentielle Wahrscheinlichkeitsungleichung zeigen. In Kapitel 4 stellen wir eine neue Methode zur Kalibrierung von conditional Value-at-Risk (CoVaR) basierend auf Quantilregression mittels Neural Networks vor. Wir modellieren systemische Spillovereffekte in einem Netzwerk von systemrelevanten Finanzinstituten. Eine Out-of-Sample Analyse zeigt eine klare Verbesserung im Vergleich zu einer linearen Grundspezifikation. Im Vergleich mit bestehenden Risikomaßen eröffnet unsere Methode eine neue Perspektive auf systemisches Risiko. In Kapitel 5 modellieren wir die gemeinsame Dynamik von Kryptowährungen in einem nicht-stationären Kontext. Um eine Analyse in einem dynamischen Rahmen zu ermöglichen, stellen wir eine neue vector error correction model (VECM) Spezifikation vor, die wir COINtensity VECM nennen. / This thesis focuses on different aspects of the union of modern econometrics and machine learning. Chapter 2 considers a new estimator of the regression parameters in a panel data model with unobservable interactive fixed effects. A distinctive feature of the proposed approach is to model the factor loadings as a nonparametric function. We show that our estimator is root-NT-consistent and asymptotically normal, as well that it reaches the semiparametric efficiency bound under the assumption of i.i.d. errors. Chapter 3 is concerned with the recursive estimation of quantiles using the stochastic gradient descent (SGD) algorithm with Polyak-Ruppert averaging. The algorithm offers a computationally and memory efficient alternative to the usual empirical estimator. Our focus is on studying the nonasymptotic behavior by providing exponentially decreasing tail probability bounds under minimal assumptions. In Chapter 4 we propose a novel approach to calibrate the conditional value-at-risk (CoVaR) of financial institutions based on neural network quantile regression. We model systemic risk spillover effects in a network context across banks by considering the marginal effects of the quantile regression procedure. An out-of-sample analysis shows great performance compared to a linear baseline specification, signifying the importance that nonlinearity plays for modelling systemic risk. A comparison to existing network-based risk measures reveals that our approach offers a new perspective on systemic risk. In Chapter 5 we aim to model the joint dynamics of cryptocurrencies in a nonstationary setting. In particular, we analyze the role of cointegration relationships within a large system of cryptocurrencies in a vector error correction model (VECM) framework. To enable analysis in a dynamic setting, we propose the COINtensity VECM, a nonlinear VECM specification accounting for a varying system-wide cointegration exposure.
8

Optimal Trading with Multiplicative Transient Price Impact for Non-Stochastic or Stochastic Liquidity

Frentrup, Peter 28 October 2019 (has links)
Diese Arbeit untersucht eine Reihe multiplikativer Preiseinflussmodelle für das Handeln in einer riskanten Anlage. Unser risikoneutraler Investor versucht seine zu erwartenden Handelserlöse zu maximieren. Zunächst modellieren wir den vorübergehende Preiseinfluss als deterministisches Funktional der Handelsstrategie. Wir stellen den Zusammenhang mit Limit-Orderbüchern her und besprechen die optimale Strategie zum Auf- bzw. Abbau einer Anlageposition bei a priori unbeschränkem Anlagehorizont. Anschließend lösen wir das Optimierungsproblem mit festem Anlagehorizon in zwei Schritten. Mittels Variationsrechnung lässt sich die freie Grenzefläche, die Kauf- und Verkaufsregionen trennt, als lokales Optimum identifizieren, was entscheidend für die Verifikation globaler Optimalität ist. Im zweiten Teil der Arbeit erweitern wir den zwischengeschalteten Markteinflussprozess um eine stochastische Komponente, wodurch optimale Strategien dynamisch an zufällige Liquiditätsschwankungen adaptieren. Wir bestimmen die optimale Liquidierungsstrategie im zeitunbeschränkten Fall als die reflektierende Lokalzeit, die den Markteinfluss unterhalb eines explizit beschriebenen nicht-konstanten Grenzlevels hält. Auch dieser Beweis kombiniert Variationsrechnung und direkten Methoden. Um nun eine Zeitbeschränkung zu ermöglichen, müssen wir Semimartingalstrategien zulassen. Skorochods M1-Toplogie ist der Schlüssel, um die Klasse der möglichen Strategien in einer umfangreichen Familie von Preiseinflussmodellen, welche sowohl additiven, als auch multiplikativen Preiseinfluss umfasst, mit deterministischer oder stochastischer Liquidität, eindeutig von endlichen Variations- auf allgemeine càdlàg Strategien zu erweitern. Nach Einführung proportionaler Transaktionskosten lösen wir das entsprechende eindimensionale freie Grenzproblem des optimalen unbeschränkten Handels und beleuchten mögliche Lösungsansätze für das Liquidierungsproblem, das mit dem Verkauf der letzten Anleihe endet. / In this thesis, we study a class of multiplicative price impact models for trading a single risky asset. We model price impact to be multiplicative so that prices are guaranteed to stay non-negative. Our risk-neutral large investor seeks to maximize expected gains from trading. We first introduce a basic variant of our model, wherein the transient impact is a deterministic functional of the trading strategy. We draw the connection to limit order books and give the optimal strategy to liquidate or acquire an asset position infinite time horizon. We then solve the optimization problem for finite time horizon two steps. Calculus of variations allows to identify the free boundary surface that separates buy and sell regions and moreover show its local optimality, which is a crucial ingredient for the verification giving (global) optimality. In the second part of the thesis, we add stochasticity to the auxiliary impact process. This causes optimal strategies to dynamically adapt to random changes in liquidity. We identify the optimal liquidation strategy in infinite horizon as the reflection local time which keeps the market impact process below an explicitly described non-constant free boundary level. Again the proof technique combines classical calculus of variations and direct methods. To now impose a time constraint, we need to admit semimartingale strategies. Skorokhod's M1 topology is key to uniquely extend the class of admissible controls from finite variation to general càdlàg strategies in a broad class of market models including multiplicative and additive price impact, with deterministic or stochastic liquidity. After introducing proportional transaction costs in our model, we solve the related one-dimensional free boundary problem of unconstrained optimal trading and highlight possible solution methods for the corresponding liquidation problem where trading stops as soon as all assets are sold.
9

Stochastic Optimization under Probust and Dynamic Probabilistic Constraints: with Applications to Energy Management

González Grandón, Tatiana Carolina 27 August 2019 (has links)
Diese Arbeit liefert, in den ersten beiden Kapiteln einen allgemeinen Überblick über die klassischen Ansätze zur Optimierung unter Unsicherheit mit einem Schwerpunkt auf probabilistischen Randbedingung. Anschließend wird im dritten Kapitel eine neue Klasse von sogenannten Probust Randbedingungen beim Auftreten von Modellen mit unsicheren Parametern mit teilweise stochastischem und teilweise nicht-stochastischem Charakter eingeführt. Wir zeigen dabei die Relevanz dieser Aufgabentypen für zwei Problemstellungen in einem stationären Gasnetz auf. Erstens liegen beim Gastransport probabilistische Randbedingungen bezüglich der Gasnachfrage vor sowie auch robuste Randbedin- gungen bezüglich der Rauheitskoeffizienten in den Rohren, welche in der Regel unbekannt sind, da es keine zuverlässigen Messmöglichkeiten gibt. Zweitens lösen wir ein Problem für einen Netzbetreiber, der zum Ziel hat, die angebotene Kapazität für alte und neue Kunden zu maximieren. In diesem Fall ist man mit einer ungewis- sen Gesamtnachfrage konfrontiert, die sich aus der probabilistischen Nachfrage für Altkunden und der robusten Nachfrage für Neukunden zusammensetzt. Für beide Fälle zeigen wir, wie mit probusten Randbedingungen im Rahmen der sogenannten sphärisch-radialen Zerlegung multivariater Gauß-Verteilungen umgegangen werden kann. Starke und schwache Halbstetigkeitsergebnisse werden für den allgemeinen Fall, in Abhängigkeit davon ob Strategien in Lebesgue oder Sobolev Räumen angenommen werden, erstellt. Für ein ein- faches zweistufiges Modell werden überprüfbare Bedingungen für die Lipschitz- Stetigkeit und die Differenzierbarkeit dieser Wahrscheinlichkeitsfunktion abgeleitet und mit expliziten Ableitungsformeln unterstützt. Diese Werkzeuge werden dann verwendet, um das Problem des Bäckers und zwei Probleme des Wasserkraftmanagements zu lösen. / This thesis offers, in the first and second chapter, a general overview of the classical approaches to solving optimization under uncertainty, with a focus on probabilistic constraints. Then, in the third chapter, a new class of so-called Probust constraints is introduced in the presence of models with uncertain parameters having partially stochastic and partially non-stochastic character. We show the relevance of this class of approach and solve two problems in a stationary gas network. First, in the context of gas transportation, one ends up with a constraint, which is probabilistic with respect to the load of gas and robust with respect to the roughness coefficients of the pipes (which are uncertain due to a lack of attainable measurements). Secondly, we solve a problem for a network operator, who would like to maximize the offered capacity for old and new customers. In this case, one is faced with an uncertain total demand which is probabilistic for old clients and robust for new clients. In both problems, we demonstrate how probust constraints can be dealt within the framework of the so-called spheric-radial decomposition of multivariate Gaussian distributions. Furthermore, in chapter four, we present novel structural and numerical results for optimization problems under a dynamic joint probabilistic constraint. Strong and weak semicontinuity results are obtained for the general case depending on whether policies are supposed to be in Lebesgue or Sobolev spaces. For a simple two-stage model, verifiable conditions for Lipschitz continuity and differentiability of this probability function are derived and endowed with explicit derivative formulae. These tools are then used to solve the Baker's problem and two hydro-power management problems.
10

High-frequency statistics for Gaussian processes from a Le Cam perspective

Holtz, Sebastian 04 March 2020 (has links)
Diese Arbeit untersucht Inferenz für Streuungsparameter bedingter Gaußprozesse anhand diskreter verrauschter Beobachtungen in einem Hochfrequenz-Setting. Unser Ziel dabei ist es, eine asymptotische Charakterisierung von effizienter Schätzung in einem allgemeine Gaußschen Rahmen zu finden. Für ein parametrisches Fundamentalmodell wird ein Hájek-Le Cam-Faltungssatz hergeleitet, welcher eine exakte asymptotische untere Schranke für Schätzmethoden liefert. Dazu passende obere Schranken werden konstruiert und die Bedeutung des Satzes wird verdeutlicht anhand zahlreicher Beispiele wie der (fraktionellen) Brownschen Bewegung, dem Ornstein-Uhlenbeck-Prozess oder integrierten Prozessen. Die Herleitung der Effizienzresultate basiert auf asymptotischen Äquivalenzen und kann für verschiedene Verallgemeinerungen des parametrischen Fundamentalmodells verwendet werden. Als eine solche Erweiterung betrachten wir das Schätzen der quadrierten Kovariation eines stetigen Martingals anhand verrauschter asynchroner Beobachtungen, welches ein fundamentales Schätzproblem in der Öknometrie ist. Für dieses Modell erhalten wir einen semi-parametrischen Faltungssatz, welcher bisherige Resultate im Sinne von Multidimensionalität, Asynchronität und Annahmen verallgemeinert. Basierend auf den vorhergehenden Herleitungen entwickeln wir einen statistischen Test für den Hurst-Parameter einer fraktionellen Brownschen Bewegung. Ein Score- und ein Likelihood-Quotienten-Test werden implementiert sowie analysiert und erste empirische Eindrücke vermittelt. / This work studies inference on scaling parameters of a conditionally Gaussian process under discrete noisy observations in a high-frequency regime. Our aim is to find an asymptotic characterisation of efficient estimation for a general Gaussian framework. For a parametric basic case model a Hájek-Le Cam convolution theorem is derived, yielding an exact asymptotic lower bound for estimators. Matching upper bounds are constructed and the importance of the theorem is illustrated by various examples of interest such as the (fractional) Brownian motion, the Ornstein-Uhlenbeck process or integrated processes. The derivation of the efficiency result is based on asymptotic equivalences and can be employed for several generalisations of the parametric basic case model. As such an extension we consider estimation of the quadratic covariation of a continuous martingale from noisy asynchronous observations, which is a fundamental estimation problem in econometrics. For this model, a semi-parametric convolution theorem is obtained which generalises existing results in terms of multidimensionality, asynchronicity and assumptions. Based on the previous derivations, we develop statistical tests on the Hurst parameter of a fractional Brownian motion. A score test and a likelihood ratio type test are implemented as well as analysed and first empirical impressions are given.

Page generated in 0.0887 seconds