• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 7
  • 1
  • 1
  • Tagged with
  • 9
  • 9
  • 9
  • 9
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Das Optionswertmodell zur Erklärung der Rentenentscheidung / The Retirement Decision According To The Option Value Model

Kempf, Stefan January 2007 (has links) (PDF)
Diese empirische Arbeit untersucht Determinanten des Renteneintritts. Sie basiert auf einem Optionswertmodell, um die Bedeutung finanzieller Überlegungen für ein Aufschieben des Renteneintritts zu analysieren. Zusätzlich wird der Einfluss institutioneller Rahmenbedingungen betrachtet. Ein neu verfügbarer Datensatz des Verbands Deutscher Rentenversicherungsträger wird dazu verwendet. Die Ergebnisse zeigen, dass Arbeitslosigkeit und Krankheit zu einem großen Teil einen frühen Renteneintritt erklären. Zusätzlich hat der Optionswert einen großen Erklärungsgehalt. / This paper empirically investigates determinants of retirement decisions. It is based on the option value approach to assess the importance of financial considerations for delaying immediate retirement. In addition, the impact of institutional conditions is considered. Newly available data from the data base of the statutory pension organization providing exact information about income, pension claims, and unemployment spells is used. The results indicate that unemployment and illness explain a great portion of early retirements. Additionally, the option value has explanatory power.
2

Identification in Financial Models with Time-Dependent Volatility and Stochastic Drift Components

Krämer, Romy 15 June 2007 (has links) (PDF)
Die vorliegende Arbeit beschäftigt sich mit der Parameteridentifikation in finanzmathematischen Modellen, welche sich durch eine zeitabhängige Volatilitätsfunktion und stochastische Driftkomponente auszeichnen. Als Referenzmodell wird eine Variante des Bivariaten Ornstein-Uhlenbeck-Modells betrachtet. Ziel ist es, die zeitabhängige Volatilitätsfunktion sowohl in der Vergangenheit als auch für ein kleines zukünftiges Zeitintervall zu identifizieren. Weiterhin sollen einige reellwertige Parameter, welche die stochastische Drift beschreiben, bestimmt werden. Dabei steht nicht die Anpassung des betrachteten Modells an reale Aktienpreisdaten im Vordergrund sondern eine mathematische Untersuchung der Chancen und Risiken der betrachteten Schätzverfahren. Als Daten können Aktienpreise und Optionspreise beobachtet werden. Aus hochfrequenten Aktienpreisdaten wird mittels Wavelet-Projektion die (quadrierte) Volatilitätsfunktion auf einem vergangenen Zeitintervall geschätzt. Mit der so bestimmten Volatilitätsfunktion und einigen Aktienpreisen können anschließend die reellwertigen Parameter mit Hilfe der Maximum-Likelihood-Methode bestimmt werden, wobei die Likelihoodfunktion mit Hilfe des Kalman Filters berechnet werden kann. Die Identifikation der Volatilitätsfunktion (oder abgeleiteter Größen) auf dem zukünftigen Zeitintervall aus Optionspreisen führt auf ein inverses Problem des Option Pricings, welches in ein äußeres nichtlineares und ein inneres lineares Problem zerlegt werden kann. Das innere Problem (die Identifikation einer Ableitung) ist ein Standardbeispielfür ein inkorrektes inverses Problem, d.h. die Lösung dieses Problems hängt nicht stetig von den Daten ab. Anhand von analytischen Untersuchungen von Nemytskii-Operatoren und deren Inversen wird in der Arbeit gezeigt, dass das äußere Problem gut gestellt aber in einigen Fällen schlecht konditioniert ist. Weiterhin wird ein Algorithmus für die schnelle Lösung des äußeren Problems unter Einbeziehung der Monotonieinformationen vorgeschlagen. Alle in der Arbeit diskutierten Verfahren werden anhand von numerischen Fallstudien illustriert.
3

Identification in Financial Models with Time-Dependent Volatility and Stochastic Drift Components

Krämer, Romy 31 May 2007 (has links)
Die vorliegende Arbeit beschäftigt sich mit der Parameteridentifikation in finanzmathematischen Modellen, welche sich durch eine zeitabhängige Volatilitätsfunktion und stochastische Driftkomponente auszeichnen. Als Referenzmodell wird eine Variante des Bivariaten Ornstein-Uhlenbeck-Modells betrachtet. Ziel ist es, die zeitabhängige Volatilitätsfunktion sowohl in der Vergangenheit als auch für ein kleines zukünftiges Zeitintervall zu identifizieren. Weiterhin sollen einige reellwertige Parameter, welche die stochastische Drift beschreiben, bestimmt werden. Dabei steht nicht die Anpassung des betrachteten Modells an reale Aktienpreisdaten im Vordergrund sondern eine mathematische Untersuchung der Chancen und Risiken der betrachteten Schätzverfahren. Als Daten können Aktienpreise und Optionspreise beobachtet werden. Aus hochfrequenten Aktienpreisdaten wird mittels Wavelet-Projektion die (quadrierte) Volatilitätsfunktion auf einem vergangenen Zeitintervall geschätzt. Mit der so bestimmten Volatilitätsfunktion und einigen Aktienpreisen können anschließend die reellwertigen Parameter mit Hilfe der Maximum-Likelihood-Methode bestimmt werden, wobei die Likelihoodfunktion mit Hilfe des Kalman Filters berechnet werden kann. Die Identifikation der Volatilitätsfunktion (oder abgeleiteter Größen) auf dem zukünftigen Zeitintervall aus Optionspreisen führt auf ein inverses Problem des Option Pricings, welches in ein äußeres nichtlineares und ein inneres lineares Problem zerlegt werden kann. Das innere Problem (die Identifikation einer Ableitung) ist ein Standardbeispielfür ein inkorrektes inverses Problem, d.h. die Lösung dieses Problems hängt nicht stetig von den Daten ab. Anhand von analytischen Untersuchungen von Nemytskii-Operatoren und deren Inversen wird in der Arbeit gezeigt, dass das äußere Problem gut gestellt aber in einigen Fällen schlecht konditioniert ist. Weiterhin wird ein Algorithmus für die schnelle Lösung des äußeren Problems unter Einbeziehung der Monotonieinformationen vorgeschlagen. Alle in der Arbeit diskutierten Verfahren werden anhand von numerischen Fallstudien illustriert.
4

Verallgemeinerte Maximum-Likelihood-Methoden und der selbstinformative Grenzwert

Johannes, Jan 16 December 2002 (has links)
Es sei X eine Zufallsvariable mit unbekannter Verteilung P. Zu den Hauptaufgaben der Mathematischen Statistik zählt die Konstruktion von Schätzungen für einen abgeleiteten Parameter theta(P) mit Hilfe einer Beobachtung X=x. Im Fall einer dominierten Verteilungsfamilie ist es möglich, das Maximum-Likelihood-Prinzip (MLP) anzuwenden. Eine Alternative dazu liefert der Bayessche Zugang. Insbesondere erweist sich unter Regularitätsbedingungen, dass die Maximum-Likelihood-Schätzung (MLS) dem Grenzwert einer Folge von Bayesschen Schätzungen (BSen) entspricht. Eine BS kann aber auch im Fall einer nicht dominierten Verteilungsfamilie betrachtet werden, was als Ansatzpunkt zur Erweiterung des MLPs genutzt werden kann. Weiterhin werden zwei Ansätze einer verallgemeinerten MLS (vMLS) von Kiefer und Wolfowitz sowie von Gill vorgestellt. Basierend auf diesen bekannten Ergebnissen definieren wir einen selbstinformativen Grenzwert und einen selbstinformativen a posteriori Träger. Im Spezialfall einer dominierten Verteilungsfamilie geben wir hinreichende Bedingungen an, unter denen die Menge der MLSen einem selbstinformativen a posteriori Träger oder, falls die MLS eindeutig ist, einem selbstinformativen Grenzwert entspricht. Das Ergebnis für den selbstinformativen a posteriori Träger wird dann auf ein allgemeineres Modell ohne dominierte Verteilungsfamilie erweitert. Insbesondere wird gezeigt, dass die Menge der vMLSen nach Kiefer und Wolfowitz ein selbstinformativer a posteriori Träger ist. Weiterhin wird der selbstinformative Grenzwert bzw. a posteriori Träger in einem Modell mit nicht identifizierbarem Parameter bestimmt. Im Mittelpunkt dieser Arbeit steht ein multivariates semiparametrisches lineares Modell. Zunächst weisen wir jedoch nach, dass in einem rein nichtparametrischen Modell unter der a priori Annahme eines Dirichlet Prozesses der selbstinformative Grenzwert existiert und mit der vMLS nach Kiefer und Wolfowitz sowie der nach Gill übereinstimmt. Anschließend untersuchen wir das multivariate semiparametrische lineare Modell und bestimmen die vMLSen nach Kiefer und Wolfowitz bzw. nach Gill sowie den selbstinformativen Grenzwert unter der a priori Annahme eines Dirichlet Prozesses und einer Normal-Wishart-Verteilung. Im Allgemeinen sind die so erhaltenen Schätzungen verschieden. Abschließend gehen wir dann auf den Spezialfall eines semiparametrischen Lokationsmodells ein, in dem die vMLSen nach Kiefer und Wolfowitz bzw. nach Gill und der selbstinformative Grenzwert wieder identisch sind. / We assume to observe a random variable X with unknown probability distribution. One major goal of mathematical statistics is the estimation of a parameter theta(P) based on an observation X=x. Under the assumption that P belongs to a dominated family of probability distributions, we can apply the maximum likelihood principle (MLP). Alternatively, the Bayes approach can be used to estimate the parameter. Under some regularity conditions it turns out that the maximum likelihood estimate (MLE) is the limit of a sequence of Bayes estimates (BE's). Note that BE's can even be defined in situations where no dominating measure exists. This allows us to derive an extension of the MLP using the Bayes approach. Moreover, two versions of a generalised MLE (gMLE) are presented, which have been introduced by Kiefer and Wolfowitz and Gill, respectively. Based on the known results, we define a selfinformative limit and a posterior carrier. In the special case of a model with dominated distribution family, we state sufficient conditions under which the set of MLE's is a selfinformative posterior carrier or, in the case of a unique MLE, a selfinformative limit. The result for the posterior carrier is extended to a more general model without dominated distributions. In particular we show that the set of gMLE's of Kiefer and Wolfowitz is a posterior carrier. Furthermore we calculate the selfinformative limit and posterior carrier, respectively, in the case of a model with possibly nonidentifiable parameters. In this thesis we focus on a multivariate semiparametric linear model. At first we show that, in the case of a nonparametric model, the selfinformative limit coincides with the gMLE of Kiefer and Wolfowitz as well as that of Gill, if a Dirichlet process serves as prior. Then we investigate both versions of gMLE's and the selfinformative limit in the multivariate semiparametric linear model, where the prior for the latter estimator is given by a Dirichlet process and a normal-Wishart distribution. In general the estimators are not identical. However, in the special case of a location model we find again that the three considered estimates coincide.
5

Drift estimation for jump diffusions

Mai, Hilmar 08 October 2012 (has links)
Das Ziel dieser Arbeit ist die Entwicklung eines effizienten parametrischen Schätzverfahrens für den Drift einer durch einen Lévy-Prozess getriebenen Sprungdiffusion. Zunächst werden zeit-stetige Beobachtungen angenommen und auf dieser Basis eine Likelihoodtheorie entwickelt. Dieser Schritt umfasst die Frage nach lokaler Äquivalenz der zu verschiedenen Parametern auf dem Pfadraum induzierten Maße. Wir diskutieren in dieser Arbeit Schätzer für Prozesse vom Ornstein-Uhlenbeck-Typ, Cox-Ingersoll-Ross Prozesse und Lösungen linearer stochastischer Differentialgleichungen mit Gedächtnis im Detail und zeigen starke Konsistenz, asymptotische Normalität und Effizienz im Sinne von Hájek und Le Cam für den Likelihood-Schätzer. In Sprungdiffusionsmodellen ist die Likelihood-Funktion eine Funktion des stetigen Martingalanteils des beobachteten Prozesses, der im Allgemeinen nicht direkt beobachtet werden kann. Wenn nun nur Beobachtungen an endlich vielen Zeitpunkten gegeben sind, so lässt sich der stetige Anteil der Sprungdiffusion nur approximativ bestimmen. Diese Approximation des stetigen Anteils ist ein zentrales Thema dieser Arbeit und es wird uns auf das Filtern von Sprüngen führen. Der zweite Teil dieser Arbeit untersucht die Schätzung der Drifts, wenn nur diskrete Beobachtungen gegeben sind. Dabei benutzen wir die Likelihood-Schätzer aus dem ersten Teil und approximieren den stetigen Martingalanteil durch einen sogenannten Sprungfilter. Wir untersuchen zuerst den Fall endlicher Aktivität und zeigen, dass die Driftschätzer im Hochfrequenzlimes die effiziente asymptotische Verteilung erreichen. Darauf aufbauend beweisen wir dann im Falle unendlicher Sprungaktivität asymptotische Effizienz für den Driftschätzer im Ornstein-Uhlenbeck Modell. Im letzten Teil werden die theoretischen Ergebnisse für die Schätzer auf endlichen Stichproben aus simulierten Daten geprüft und es zeigt sich, dass das Sprungfiltern zu einem deutlichen Effizienzgewinn führen. / The problem of parametric drift estimation for a a Lévy-driven jump diffusion process is considered in two different settings: time-continuous and high-frequency observations. The goal is to develop explicit maximum likelihood estimators for both observation schemes that are efficient in the Hájek-Le Cam sense. The likelihood function based on time-continuous observations can be derived explicitly for jump diffusion models and leads to explicit maximum likelihood estimators for several popular model classes. We consider Ornstein-Uhlenbeck type, square-root and linear stochastic delay differential equations driven by Lévy processes in detail and prove strong consistency, asymptotic normality and efficiency of the likelihood estimators in these models. The appearance of the continuous martingale part of the observed process under the dominating measure in the likelihood function leads to a jump filtering problem in this context, since the continuous part is usually not directly observable and can only be approximated and the high-frequency limit. In the second part of this thesis the problem of drift estimation for discretely observed processes is considered. The estimators are constructed from discretizations of the time-continuous maximum likelihood estimators from the first part, where the continuous martingale part is approximated via a thresholding technique. We are able to proof that even in the case of infinite activity jumps of the driving Lévy process the estimator is asymptotically normal and efficient under weak assumptions on the jump behavior. Finally, the finite sample behavior of the estimators is investigated on simulated data. We find that the maximum likelihood approach clearly outperforms the least squares estimator when jumps are present and that the efficiency gap between both techniques becomes even more severe with growing jump intensity.
6

Comparative Analysis of Behavioral Models for Adaptive Learning in Changing Environments

Marković, Dimitrije, Kiebel, Stefan J. 16 January 2017 (has links) (PDF)
Probabilistic models of decision making under various forms of uncertainty have been applied in recent years to numerous behavioral and model-based fMRI studies. These studies were highly successful in enabling a better understanding of behavior and delineating the functional properties of brain areas involved in decision making under uncertainty. However, as different studies considered different models of decision making under uncertainty, it is unclear which of these computational models provides the best account of the observed behavioral and neuroimaging data. This is an important issue, as not performing model comparison may tempt researchers to over-interpret results based on a single model. Here we describe how in practice one can compare different behavioral models and test the accuracy of model comparison and parameter estimation of Bayesian and maximum-likelihood based methods. We focus our analysis on two well-established hierarchical probabilistic models that aim at capturing the evolution of beliefs in changing environments: Hierarchical Gaussian Filters and Change Point Models. To our knowledge, these two, well-established models have never been compared on the same data. We demonstrate, using simulated behavioral experiments, that one can accurately disambiguate between these two models, and accurately infer free model parameters and hidden belief trajectories (e.g., posterior expectations, posterior uncertainties, and prediction errors) even when using noisy and highly correlated behavioral measurements. Importantly, we found several advantages of Bayesian inference and Bayesian model comparison compared to often-used Maximum-Likelihood schemes combined with the Bayesian Information Criterion. These results stress the relevance of Bayesian data analysis for model-based neuroimaging studies that investigate human decision making under uncertainty.
7

Observation error model selection by information criteria vs. normality testing

Lehmann, Rüdiger 17 October 2016 (has links) (PDF)
To extract the best possible information from geodetic and geophysical observations, it is necessary to select a model of the observation errors, mostly the family of Gaussian normal distributions. However, there are alternatives, typically chosen in the framework of robust M-estimation. We give a synopsis of well-known and less well-known models for observation errors and propose to select a model based on information criteria. In this contribution we compare the Akaike information criterion (AIC) and the Anderson Darling (AD) test and apply them to the test problem of fitting a straight line. The comparison is facilitated by a Monte Carlo approach. It turns out that the model selection by AIC has some advantages over the AD test.
8

Comparative Analysis of Behavioral Models for Adaptive Learning in Changing Environments

Marković, Dimitrije, Kiebel, Stefan J. 16 January 2017 (has links)
Probabilistic models of decision making under various forms of uncertainty have been applied in recent years to numerous behavioral and model-based fMRI studies. These studies were highly successful in enabling a better understanding of behavior and delineating the functional properties of brain areas involved in decision making under uncertainty. However, as different studies considered different models of decision making under uncertainty, it is unclear which of these computational models provides the best account of the observed behavioral and neuroimaging data. This is an important issue, as not performing model comparison may tempt researchers to over-interpret results based on a single model. Here we describe how in practice one can compare different behavioral models and test the accuracy of model comparison and parameter estimation of Bayesian and maximum-likelihood based methods. We focus our analysis on two well-established hierarchical probabilistic models that aim at capturing the evolution of beliefs in changing environments: Hierarchical Gaussian Filters and Change Point Models. To our knowledge, these two, well-established models have never been compared on the same data. We demonstrate, using simulated behavioral experiments, that one can accurately disambiguate between these two models, and accurately infer free model parameters and hidden belief trajectories (e.g., posterior expectations, posterior uncertainties, and prediction errors) even when using noisy and highly correlated behavioral measurements. Importantly, we found several advantages of Bayesian inference and Bayesian model comparison compared to often-used Maximum-Likelihood schemes combined with the Bayesian Information Criterion. These results stress the relevance of Bayesian data analysis for model-based neuroimaging studies that investigate human decision making under uncertainty.
9

Observation error model selection by information criteria vs. normality testing

Lehmann, Rüdiger January 2015 (has links)
To extract the best possible information from geodetic and geophysical observations, it is necessary to select a model of the observation errors, mostly the family of Gaussian normal distributions. However, there are alternatives, typically chosen in the framework of robust M-estimation. We give a synopsis of well-known and less well-known models for observation errors and propose to select a model based on information criteria. In this contribution we compare the Akaike information criterion (AIC) and the Anderson Darling (AD) test and apply them to the test problem of fitting a straight line. The comparison is facilitated by a Monte Carlo approach. It turns out that the model selection by AIC has some advantages over the AD test.

Page generated in 0.0529 seconds