• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 36
  • 22
  • 8
  • 3
  • 2
  • 2
  • 1
  • Tagged with
  • 71
  • 71
  • 30
  • 13
  • 13
  • 11
  • 10
  • 9
  • 9
  • 8
  • 8
  • 8
  • 8
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Netiesinių statistikų taikymas atsitiktinių vektorių pasiskirstymo tankių vertinime / Application of nonlinear statistics for distribution density estimation of random vectors

Šmidtaitė, Rasa 11 August 2008 (has links)
Statistikoje ir jos taikyme vienas dažniausiai sprendžiamų uždavinių yra daugiamačių tankių vertinimas.Tankių vertinimas skirstomas į parametrinį ir neparametrinį vertinimą. Parametriniame vertinime daroma prielaida, kad tankio funkcija f, apibūdinanti duomenis yi, kai i kinta nuo 1 iki n, priklauso tam tikrai gan siaurai funkcijų šeimai f(•;θ), kuri priklauso nuo nedidelio kiekio parametrų θ=(θ1, θ2, …, θk). Tankis, apskaičiuojamas pagal parametrinį vertinimą, gaunamas iš pradžių apskaičiavus parametro θ įvertį θ0 ir f0=f(•;θ). Toks traktavimas statistiniu požiūriu yra labai efektyvus, tačiau jeigu nei vienas šeimos f(•;θ) narys nėra artimas funkcijai f, rezultatai gali būti gauti labai netikslūs. Neparametriniam tankio vertinimui jokios parametrinės prielaidos apie f nėra reikalingos, tačiau vietoj to daromos kitos prielaidos, pavyzdžiui, apie funkcijos f tolydumą arba, kad f yra integruojama. Tankio funkcijos forma yra nustatoma iš turimų duomenų.Turint dideles imtis, tankis f gali būti apskaičiuotas pakankamai tiksliai. Šiuolaikinėje duomenų analizėje naudojama daugybė neparametrinių metodų, skirtų daugiamačių atsitiktinių dydžių pasiskirstymo tankio statistiniam vertinimui. Ypač plačiai paplitę branduoliniai įvertiniai, populiarūs ir splaininiai bei pusiau parametriniai algoritmai. Taikant daugumą populiarių neparametrinio įvertinimo procedūrų praktikoje susiduriama su jų parametrų optimalaus parinkimo problema. Branduolinių įvertinių konstrukcijos svarbiausiu... [toliau žr. visą tekstą] / Most algorithms work properly if the probability densities of the multivariate vectors are known. Unfortunately, in reality these densities are usually not available, and parametric or non-parametric estimation of the densities becomes critically needed. In parametric estimation one assumes that the density f underlying the data yi where i varies from 1 to n, belongs to some rather restricted family of functions f(•;θ) indexed by a small number of parameters θ=(θ1, θ2, …, θk). An example is the family of multivariate normal densities which is parameterized by the mean vector and the covariance matrix. A density estimate in the parametric approach is obtained by computing from the data an estimate θ0 of θ and setting f0=f(•;θ). Such an approach is statistically and computationally very efficient but can lead poor results if none of the family members f(•;θ) is close to f. In nonparametric density estimation no parametric assumptions about f are made and one assumes instead that f, for example, has some smoothness properties (e.g. two continuous derivatives) or that it is square integrable. The shape of the density estimate is determined by the data and, in principle, given enough data, arbitrary densities f can be estimated accurately. Most popular methods are the kernel estimator based on local smoothing of the data. Quite popular are histospline, semiparametric and projection pursuit algorithms. While constructing various probability density estimation methods the most... [to full text]
42

Quelques résultats d'équivalence asymptotique pour des expériences statistiques dans un cadre non paramétrique / Some results of asymptotic equivalence for nonparametric statistical experiments

Mariucci, Ester 16 September 2015 (has links)
Nous nous intéressons à l'équivalence asymptotique, au sens de Le Cam, entre différents modèles statistiques. Plus précisément, nous avons exploré le cas de modèles statistiques associés à l'observation discrète de processus à sauts ou de diffusions unidimensionnelles, ainsi que des modèles à densité plus classiques.Ci-dessous, nous présentons brièvement les différents chapitres de la thèse.Nous commençons par présenter tous nos résultats dans un premier chapitre introductif. Ensuite, dans le Chapitre 2 nous rappelons les points clés de la théorie de Le Cam sur les expériences statistiques en se plaçant dans un contexte non paramétrique.Les Chapitres 3 et 4 traitent de l'équivalence asymptotique pour des modèles statistiques associés à l'observation discrète (haute fréquence) de processus à sauts. Dans un premier temps nous nous focalisons sur un problème d'équivalence en ce qui concerne l'estimation de la dérive, supposée appartenir à une certaine classe fonctionnelle. Il s'avère (Chapitre 3) qu'il y a une équivalence asymptotique, en ce qui concerne l'estimation de la dérive, entre le modèle statistique associé à l'observation discrète d'un processus additif $X$ et le modèle statistique gaussien associé à l'observation discrète de la partie continue de $X$.Dans un deuxième temps, nous nous sommes intéressés au problème de l'estimation non paramétrique de la densité de Lévy $f$ relative à un processus de Lévy à sauts purs, $Y$. Le Chapitre 4 illustre l'équivalence asymptotique, en ce qui concerne l'estimation de $f$, entre le modèle statistique associé à l'observation discrète de $Y$ et un certain modèle de bruit blanc gaussien ayant $sqrt f$ comme dérive.Le Chapitre 5 présente une extension d'un résultat bien connu sur l'équivalence asymptotique entre un modèle à densité et un modèle de bruit blanc gaussien.Le Chapitre 6 étudie l'équivalence asymptotique entre un modèle de diffusion scalaire avec une dérive inconnue et un coefficient de diffusion qui tend vers zéro et le schéma d'Euler correspondant.Dans le Chapitre 7 nous présentons une majoration en distance $L_1$ entre les lois de processus additifs.Le Chapitre 8 est consacré aux conclusions et discute des extensions possibles des travaux de thèse. / The subject of this Ph.D. thesis is the asymptotic equivalence, in the Le Cam sense, between different statistical models. Specifically, we explore the case of statistical models associated with the discrete observation of jump processes or diffusion processes as well as more classical density models.Below, we briefly introduce the different chapters of this dissertation.We begin by presenting our results in a first introductory chapter. Then, in Chapter 2, we recall the key points of the Le Cam theory on statistical experiences focusing on a nonparametric context.Chapters 3 and 4 deal with asymptotic equivalences for statistical models associated with discrete observation (high frequency) of jump processes. First, we focus on an equivalence problem regarding the estimation of the drift, assumed to belong to a certain functional class. It turns out (Chapter 3) that there is an asymptotic equivalence, for what concerns the estimation of the drift, between the statistical model associated with the discrete observation of an additive process $X$ and the Gaussian statistical model associated with the discrete observation of the continuous part of $X$. Then we study the problem of nonparametric density estimation for the Lévy density $f$ of a pure jump Lévy process $Y$. Chapter 4 illustrates the asymptotic equivalence, for what concerns the estimation of $f$, between the statistical model associated with the discrete observation of $Y$ and a certain Gaussian white noise model having $sqrt f$ as drift.In Chapter 5 we present an extension of the well-known asymptotic equivalence between density estimation experiments and a Gaussian white noise model.Chapter 6 describes the asymptotic equivalence between a scalar diffusion model with unknown drift and with diffusion coefficient tending to zero and the corresponding Euler scheme. In Chapter 7 we present a bound for the $L_1$ distance between the laws of additive processes.Chapter 8 is devoted to conclusions and discusses possible extensions of the results of this thesis.
43

Aspects théoriques et pratiques dans l'estimation non paramétrique de la densité conditionnelle pour des données fonctionnelles / Theoretical and practical aspects in non parametric estimation of the conditional density with functional data

Madani, Fethi 11 May 2012 (has links)
Dans cette thèse, nous nous intéressons à l'estimation non paramétrique de la densité conditionnelle d'une variable aléatoire réponse réelle conditionnée par une variable aléatoire explicative fonctionnelle de dimension éventuellement fi nie. Dans un premier temps, nous considérons l'estimation de ce modèle par la méthode du double noyaux. Nous proposons une méthode de sélection automatique du paramètre de lissage (global et puis local) intervenant dans l'estimateur à noyau, et puis nous montrons l'optimalité asymptotique du paramètre obtenu quand les observations sont indépendantes et identiquement distribuées. Le critère adopté est issu du principe de validation croisée. Dans cette partie nous avons procédé également à la comparaison de l'efficacité des deux types de choix (local et global). Dans la deuxième partie et dans le même contexte topologique, nous estimons la densité conditionnelle par la méthode des polynômes locaux. Sous certaines conditions, nous établissons des propriétés asymptotiques de cet estimateur telles que la convergence presque-complète et la convergence en moyenne quadratique dans le cas où les observations sont indépendantes et identiquement distribuées. Nous étendons aussi nos résultats au cas où les observations sont de type α- mélangeantes, dont on montre la convergence presque-complète (avec vitesse de convergence) de l'estimateur proposé. Enfi n, l'applicabilité rapide et facile de nos résultats théoriques, dans le cadre fonctionnel, est illustrée par des exemples (1) sur des données simulées, et (2) sur des données réelles. / In this thesis, we consider the problem of the nonparametric estimation of the conditional density when the response variable is real and the regressor is valued in a functional space. In the rst part, we use the double kernels method's as a estimation method where we focus on the choice of the smoothing parameters. We construct a data driven method permitting to select optimally and automatically bandwidths. As main results, we study the asymptotic optimality of this selection method in the case where observations are independent and identically distributed (i.i.d). Our selection rule is based on the classical cross-validation ideas and it deals with the both global and local choices. The performance of our approach is illustrated also by some simulation results on nite samples where we conduct a comparison between the two types of bandwidths choices (local and global). In the second part, we adopt a functional version of the local linear method, in the same topological context, to estimate some functional parameters. Under some general conditions, we establish the almost-complete convergence (with rates) of the proposed estimator in the both cases ( the i.i.d. case and the α-mixing case) . As application, we use the conditional density estimator to estimate the conditional mode estimation and to derive some asymptotic proprieties of the constructed estimator. Then, we establish the quadratic error of this estimator by giving its exact asymptotic expansion (involved in the leading in the bias and variance terms). Finally, the applicability of our results is then veri ed and validated for (1) simulated data, and (2) some real data.
44

An Essay on stochastic discount factor decomposition

Cordeiro, Fernando Luiz Pereira January 2018 (has links)
Submitted by Fernando Luiz Cordeiro (fernandolpcordeiro@gmail.com) on 2018-06-22T20:12:54Z No. of bitstreams: 1 SDFDecomposition_finalv.pdf: 845158 bytes, checksum: 5ceb09364caa557c2198d20e41ee5522 (MD5) / Approved for entry into archive by GILSON ROCHA MIRANDA (gilson.miranda@fgv.br) on 2018-06-29T19:55:51Z (GMT) No. of bitstreams: 1 SDFDecomposition_finalv.pdf: 845158 bytes, checksum: 5ceb09364caa557c2198d20e41ee5522 (MD5) / Made available in DSpace on 2018-07-02T18:21:34Z (GMT). No. of bitstreams: 1 SDFDecomposition_finalv.pdf: 845158 bytes, checksum: 5ceb09364caa557c2198d20e41ee5522 (MD5) Previous issue date: 2018 / In this work, we use the framework developed by Christensen (2017) and Hansen and Scheinkman (2009) to study the long-term interest rates in the US and Brazil. In our first set of results, we assess Christensen (2017) estimator using Monte Carlo simulations in order to evaluate the estimator performance in the rare disasters and habit formation asset pricing models. Generally, the estimation quality is not uniform and, in some cases, requires a large sample size to attain reasonable results. Next, we apply the nonparametric estimation to US and Brazilian data and estimate how the yield of a long-term zero-coupon bond responds to the initial state of the economy. Using a flexible specification for the state process leads to an interesting non-linear response of the yield to changes in the initial state. We find that the Brazilian long-term interest rate is about 5.3% per year.
45

Estimation non-paramétrique de la densité de variables aléatoires cachées / Nonparametric estimation of the density of hidden random variables.

Dion, Charlotte 24 June 2016 (has links)
Cette thèse comporte plusieurs procédures d'estimation non-paramétrique de densité de probabilité.Dans chaque cas les variables d'intérêt ne sont pas observées directement, ce qui est une difficulté majeure.La première partie traite un modèle linéaire mixte où des observations répétées sont disponibles.La deuxième partie s'intéresse aux modèles d'équations différentielles stochastiques à effets aléatoires. Plusieurs trajectoires sont observées en temps continu sur un intervalle de temps commun.La troisième partie se place dans un contexte de bruit multiplicatif.Les différentes parties de cette thèse sont reliées par un contexte commun de problème inverse et par une problématique commune: l'estimation de la densité d'une variable cachée. Dans les deux premières parties la densité d'un ou plusieurs effets aléatoires est estimée. Dans la troisième partie il s'agit de reconstruire la densité de la variable d'origine à partir d'observations bruitées.Différentes méthodes d'estimation globale sont utilisées pour construire des estimateurs performants: estimateurs à noyau, estimateurs par projection ou estimateurs construits par déconvolution.La sélection de paramètres mène à des estimateurs adaptatifs et les risques quadratiques intégrés sont majorés grâce à une inégalité de concentration de Talagrand. Une étude sur simulations de chaque estimateur illustre leurs performances. Un jeu de données neuronales est étudié grâce aux procédures mises en place pour les équations différentielles stochastiques. / This thesis contains several nonparametric estimation procedures of a probability density function.In each case, the main difficulty lies in the fact that the variables of interest are not directly observed.The first part deals with a mixed linear model for which repeated observations are available.The second part focuses on stochastic differential equations with random effects. Many trajectories are observed continuously on the same time interval.The third part is in a full multiplicative noise framework.The parts of the thesis are connected by the same context of inverse problems and by a common problematic: the estimation of the density function of a hidden variable.In the first two parts the density of one or two random effects is estimated. In the third part the goal is to rebuild the density of the original variable from the noisy observations.Different global methods are used and lead to well competitive estimators: kernel estimators, projection estimators or estimators built from deconvolution.Parameter selection gives adaptive estimators and the integrated risks are bounded using a Talagrand concentration inequality.A simulation study for each proposed estimator highlights their performances.A neuronal dataset is investigated with the new procedures for stochastic differential equations developed in this work.
46

Stochastic approximation in Hilbert spaces / Approximation stochastique dans les espaces de Hilbert

Dieuleveut, Aymeric 28 September 2017 (has links)
Le but de l’apprentissage supervisé est d’inférer des relations entre un phénomène que l’on souhaite prédire et des variables « explicatives ». À cette fin, on dispose d’observations de multiples réalisations du phénomène, à partir desquelles on propose une règle de prédiction. L’émergence récente de sources de données à très grande échelle, tant par le nombre d’observations effectuées (en analyse d’image, par exemple) que par le grand nombre de variables explicatives (en génétique), a fait émerger deux difficultés : d’une part, il devient difficile d’éviter l’écueil du sur-apprentissage lorsque le nombre de variables explicatives est très supérieur au nombre d’observations; d’autre part, l’aspect algorithmique devient déterminant, car la seule résolution d’un système linéaire dans les espaces en jeupeut devenir une difficulté majeure. Des algorithmes issus des méthodes d’approximation stochastique proposent uneréponse simultanée à ces deux difficultés : l’utilisation d’une méthode stochastique réduit drastiquement le coût algorithmique, sans dégrader la qualité de la règle de prédiction proposée, en évitant naturellement le sur-apprentissage. En particulier, le cœur de cette thèse portera sur les méthodes de gradient stochastique. Les très populaires méthodes paramétriques proposent comme prédictions des fonctions linéaires d’un ensemble choisi de variables explicatives. Cependant, ces méthodes aboutissent souvent à une approximation imprécise de la structure statistique sous-jacente. Dans le cadre non-paramétrique, qui est un des thèmes centraux de cette thèse, la restriction aux prédicteurs linéaires est levée. La classe de fonctions dans laquelle le prédicteur est construit dépend elle-même des observations. En pratique, les méthodes non-paramétriques sont cruciales pour diverses applications, en particulier pour l’analyse de données non vectorielles, qui peuvent être associées à un vecteur dans un espace fonctionnel via l’utilisation d’un noyau défini positif. Cela autorise l’utilisation d’algorithmes associés à des données vectorielles, mais exige une compréhension de ces algorithmes dans l’espace non-paramétrique associé : l’espace à noyau reproduisant. Par ailleurs, l’analyse de l’estimation non-paramétrique fournit également un éclairage révélateur sur le cadre paramétrique, lorsque le nombre de prédicteurs surpasse largement le nombre d’observations. La première contribution de cette thèse consiste en une analyse détaillée de l’approximation stochastique dans le cadre non-paramétrique, en particulier dans le cadre des espaces à noyaux reproduisants. Cette analyse permet d’obtenir des taux de convergence optimaux pour l’algorithme de descente de gradient stochastique moyennée. L’analyse proposée s’applique à de nombreux cadres, et une attention particulière est portée à l’utilisation d’hypothèses minimales, ainsi qu’à l’étude des cadres où le nombre d’observations est connu à l’avance, ou peut évoluer. La seconde contribution est de proposer un algorithme, basé sur un principe d’accélération, qui converge à une vitesse optimale, tant du point de vue de l’optimisation que du point de vue statistique. Cela permet, dans le cadre non-paramétrique, d’améliorer la convergence jusqu’au taux optimal, dans certains régimes pour lesquels le premier algorithme analysé restait sous-optimal. Enfin, la troisième contribution de la thèse consiste en l’extension du cadre étudié au delà de la perte des moindres carrés : l’algorithme de descente de gradient stochastiqueest analysé comme une chaine de Markov. Cette approche résulte en une interprétation intuitive, et souligne les différences entre le cadre quadratique et le cadre général. Une méthode simple permettant d’améliorer substantiellement la convergence est également proposée. / The goal of supervised machine learning is to infer relationships between a phenomenon one seeks to predict and “explanatory” variables. To that end, multiple occurrences of the phenomenon are observed, from which a prediction rule is constructed. The last two decades have witnessed the apparition of very large data-sets, both in terms of the number of observations (e.g., in image analysis) and in terms of the number of explanatory variables (e.g., in genetics). This has raised two challenges: first, avoiding the pitfall of over-fitting, especially when the number of explanatory variables is much higher than the number of observations; and second, dealing with the computational constraints, such as when the mere resolution of a linear system becomes a difficulty of its own. Algorithms that take their roots in stochastic approximation methods tackle both of these difficulties simultaneously: these stochastic methods dramatically reduce the computational cost, without degrading the quality of the proposed prediction rule, and they can naturally avoid over-fitting. As a consequence, the core of this thesis will be the study of stochastic gradient methods. The popular parametric methods give predictors which are linear functions of a set ofexplanatory variables. However, they often result in an imprecise approximation of the underlying statistical structure. In the non-parametric setting, which is paramount in this thesis, this restriction is lifted. The class of functions from which the predictor is proposed depends on the observations. In practice, these methods have multiple purposes, and are essential for learning with non-vectorial data, which can be mapped onto a vector in a functional space using a positive definite kernel. This allows to use algorithms designed for vectorial data, but requires the analysis to be made in the non-parametric associated space: the reproducing kernel Hilbert space. Moreover, the analysis of non-parametric regression also sheds some light on the parametric setting when the number of predictors is much larger than the number of observations. The first contribution of this thesis is to provide a detailed analysis of stochastic approximation in the non-parametric setting, precisely in reproducing kernel Hilbert spaces. This analysis proves optimal convergence rates for the averaged stochastic gradient descent algorithm. As we take special care in using minimal assumptions, it applies to numerous situations, and covers both the settings in which the number of observations is known a priori, and situations in which the learning algorithm works in an on-line fashion. The second contribution is an algorithm based on acceleration, which converges at optimal speed, both from the optimization point of view and from the statistical one. In the non-parametric setting, this can improve the convergence rate up to optimality, even inparticular regimes for which the first algorithm remains sub-optimal. Finally, the third contribution of the thesis consists in an extension of the framework beyond the least-square loss. The stochastic gradient descent algorithm is analyzed as a Markov chain. This point of view leads to an intuitive and insightful interpretation, that outlines the differences between the quadratic setting and the more general setting. A simple method resulting in provable improvements in the convergence is then proposed.
47

Metody odhadu parametrů rozdělení extrémního typu s aplikacemi / Extreme Value Distribution Parameter Estimation and its Application

Holešovský, Jan January 2016 (has links)
The thesis is focused on extreme value theory and its applications. Initially, extreme value distribution is introduced and its properties are discussed. At this basis are described two models mostly used for an extreme value analysis, i.e. the block maxima model and the Pareto-distribution threshold model. The first one takes advantage in its robustness, however recently the threshold model is mostly preferred. Although the threshold choice strongly affects estimation quality of the model, an optimal threshold selection still belongs to unsolved issues of this approach. Therefore, the thesis is focused on techniques for proper threshold identification, mainly on adaptive methods suitable for the use in practice. For this purpose a simulation study was performed and acquired knowledge was applied for analysis of precipitation records from South-Moravian region. Further on, the thesis also deals with extreme value estimation within a stationary series framework. Usually, an observed time series needs to be separated to obtain approximately independent observations. The use of the advanced theory for stationary series allows to avoid the entire separation procedure. In this context the commonly applied separation techniques turn out to be quite inappropriate in most cases and the estimates based on theory of stationary series are obtained with better precision.
48

Estimation non paramétrique de densités conditionnelles : grande dimension, parcimonie et algorithmes gloutons. / Nonparametric estimation of sparse conditional densities in moderately large dimensions by greedy algorithms.

Nguyen, Minh-Lien Jeanne 08 July 2019 (has links)
Nous considérons le problème d’estimation de densités conditionnelles en modérément grandes dimensions. Beaucoup plus informatives que les fonctions de régression, les densités condi- tionnelles sont d’un intérêt majeur dans les méthodes récentes, notamment dans le cadre bayésien (étude de la distribution postérieure, recherche de ses modes...). Après avoir rappelé les problèmes liés à l’estimation en grande dimension dans l’introduction, les deux chapitres suivants développent deux méthodes qui s’attaquent au fléau de la dimension en demandant : d’être efficace computation- nellement grâce à une procédure itérative gloutonne, de détecter les variables pertinentes sous une hypothèse de parcimonie, et converger à vitesse minimax quasi-optimale. Plus précisément, les deux méthodes considèrent des estimateurs à noyau bien adaptés à l’estimation de densités conditionnelles et sélectionnent une fenêtre multivariée ponctuelle en revisitant l’algorithme glouton RODEO (Re- gularisation Of Derivative Expectation Operator). La première méthode ayant des problèmes d’ini- tialisation et des facteurs logarithmiques supplémentaires dans la vitesse de convergence, la seconde méthode résout ces problèmes, tout en ajoutant l’adaptation à la régularité. Dans l’avant-dernier cha- pitre, on traite de la calibration et des performances numériques de ces deux procédures, avant de donner quelques commentaires et perspectives dans le dernier chapitre. / We consider the problem of conditional density estimation in moderately large dimen- sions. Much more informative than regression functions, conditional densities are of main interest in recent methods, particularly in the Bayesian framework (studying the posterior distribution, find- ing its modes...). After recalling the estimation issues in high dimension in the introduction, the two following chapters develop on two methods which address the issues of the curse of dimensionality: being computationally efficient by a greedy iterative procedure, detecting under some suitably defined sparsity conditions the relevant variables, while converging at a quasi-optimal minimax rate. More precisely, the two methods consider kernel estimators well-adapted for conditional density estimation and select a pointwise multivariate bandwidth by revisiting the greedy algorithm RODEO (Regular- isation Of Derivative Expectation Operator). The first method having some initialization problems and extra logarithmic factors in its convergence rate, the second method solves these problems, while adding adaptation to the smoothness. In the penultimate chapter, we discuss the calibration and nu- merical performance of these two procedures, before giving some comments and perspectives in the last chapter.
49

Nonparametric adaptive estimation for discretely observed Lévy processes

Kappus, Julia Johanna 30 October 2012 (has links)
Die vorliegende Arbeit hat nichtparametrische Schätzmethoden für diskret beobachtete Lévyprozesse zum Gegenstand. Ein Lévyprozess mit endlichen zweiten Momenten und endlicher Variation auf Kompakta wird niederfrequent beobachtet. Die Sprungdynamik wird vollständig durch das endliche signierte Maß my(dx):= x ny(dx) beschrieben. Ein lineares Funktional von my soll nichtparametrisch geschätzt werden. Im ersten Teil werden Kernschätzer konstruiert und obere Schranken für das korrespondierende Risiko bewiesen. Daraus werden Konvergenzraten unter Glattheitsannahmen an das Lévymaß hergeleitet. Für Spezialfälle werden untere Schranken bewiesen und daraus Minimax-Optimalität gefolgert. Der Schwerpunkt liegt auf dem Problem der datengetriebenen Wahl des Glättungsparameters, das im zweiten Teil untersucht wird. Da die nichtparametrische Schätzung für Lévyprozesse starke strukturelle Ähnlichkeiten mit Dichtedekonvolutionsproblemen mit unbekannter Fehlerdichte aufweist, werden beide Problemstellungen parallel diskutiert und die Methoden allgemein sowohl für Lévyprozesse als auch für Dichtedekonvolution entwickelt. Es werden Methoden der Modellwahl durch Penalisierung angewandt. Während das Prinzip der Modellwahl im üblichen Fall darauf beruht, dass die Fluktuation stochastischer Terme durch Penalisierung mit einer deterministischen Größe beschränkt werden kann, ist die Varianz im hier betrachteten Fall unbekannt und der Strafterm somit stochastisch. Das Hauptaugenmerk der Arbeit liegt darauf, Strategien zum Umgang mit dem stochastischen Strafterm zu entwickeln. Dabei ist ein modifizierter Schätzer für die charakteristische Funktion im Nenner zentral, der es erlaubt, die punktweise Kontrolle der Abweichung dieses Objects von seiner Zielgröße auf die gesamte reelle Achse zu erweitern. Für die Beweistechnik sind insbesondere Talagrand-Konzentrationsungleichungen für empirische Prozesse relevant. / This thesis deals with nonparametric estimation methods for discretely observed Lévy processes. A Lévy process X having finite variation on compact sets and finite second moments is observed at low frequency. The jump dynamics is fully described by the finite signed measure my(dx)=x ny(dx). The goal is to estimate, nonparametrically, some linear functional of my. In the first part, kernel estimators are constructed and upper bounds on the corresponding risk are provided. From this, rates of convergence are derived, under regularity assumptions on the Lévy measure. For particular cases, minimax lower bounds are proved. The rates of convergence are thus shown to be minimax optimal. The focus lies on the data driven choice of the smoothing parameter, which is being considered in the second part. Since nonparametric estimation methods for Lévy processes have strong structural similarities with with nonparametric density deconvolution with unknown error density, both fields are discussed in parallel and the concepts are developed in generality, for Lévy processes as well as for density deconvolution. The choice of the bandwidth is realized, using techniques of model selection via penalization. The principle of model selection via penalization usually relies on the fact that the fluctuation of certain stochastic quantities can be controlled by penalizing with a deterministic term. Contrarily to this, the variance is unknown in the setting investigated here and the penalty term is hence itself a stochastic quantity. It is the main concern of this thesis to develop strategies to dealing with the stochastic penalty term. The most important step in this direction will be a modified estimator of the unknown characteristic function in the denominator, which allows to make the pointwise control of this object uniform on the real line. The main technical tools involved in the arguments are concentration inequalities of Talagrand type for empirical processes.
50

Central limit theorems and confidence sets in the calibration of Lévy models and in deconvolution

Söhl, Jakob 03 May 2013 (has links)
Zentrale Grenzwertsätze und Konfidenzmengen werden in zwei verschiedenen, nichtparametrischen, inversen Problemen ähnlicher Struktur untersucht, und zwar in der Kalibrierung eines exponentiellen Lévy-Modells und im Dekonvolutionsmodell. Im ersten Modell wird eine Geldanlage durch einen exponentiellen Lévy-Prozess dargestellt, Optionspreise werden beobachtet und das charakteristische Tripel des Lévy-Prozesses wird geschätzt. Wir zeigen, dass die Schätzer fast sicher wohldefiniert sind. Zu diesem Zweck beweisen wir eine obere Schranke für Trefferwahrscheinlichkeiten von gaußschen Zufallsfeldern und wenden diese auf einen Gauß-Prozess aus der Schätzmethode für Lévy-Modelle an. Wir beweisen gemeinsame asymptotische Normalität für die Schätzer von Volatilität, Drift und Intensität und für die punktweisen Schätzer der Sprungdichte. Basierend auf diesen Ergebnissen konstruieren wir Konfidenzintervalle und -mengen für die Schätzer. Wir zeigen, dass sich die Konfidenzintervalle in Simulationen gut verhalten, und wenden sie auf Optionsdaten des DAX an. Im Dekonvolutionsmodell beobachten wir unabhängige, identisch verteilte Zufallsvariablen mit additiven Fehlern und schätzen lineare Funktionale der Dichte der Zufallsvariablen. Wir betrachten Dekonvolutionsmodelle mit gewöhnlich glatten Fehlern. Bei diesen ist die Schlechtgestelltheit des Problems durch die polynomielle Abfallrate der charakteristischen Funktion der Fehler gegeben. Wir beweisen einen gleichmäßigen zentralen Grenzwertsatz für Schätzer von Translationsklassen linearer Funktionale, der die Schätzung der Verteilungsfunktion als Spezialfall enthält. Unsere Ergebnisse gelten in Situationen, in denen eine Wurzel-n-Rate erreicht werden kann, genauer gesagt gelten sie, wenn die Sobolev-Glattheit der Funktionale größer als die Schlechtgestelltheit des Problems ist. / Central limit theorems and confidence sets are studied in two different but related nonparametric inverse problems, namely in the calibration of an exponential Lévy model and in the deconvolution model. In the first set-up, an asset is modeled by an exponential of a Lévy process, option prices are observed and the characteristic triplet of the Lévy process is estimated. We show that the estimators are almost surely well-defined. To this end, we prove an upper bound for hitting probabilities of Gaussian random fields and apply this to a Gaussian process related to the estimation method for Lévy models. We prove joint asymptotic normality for estimators of the volatility, the drift, the intensity and for pointwise estimators of the jump density. Based on these results, we construct confidence intervals and sets for the estimators. We show that the confidence intervals perform well in simulations and apply them to option data of the German DAX index. In the deconvolution model, we observe independent, identically distributed random variables with additive errors and we estimate linear functionals of the density of the random variables. We consider deconvolution models with ordinary smooth errors. Then the ill-posedness of the problem is given by the polynomial decay rate with which the characteristic function of the errors decays. We prove a uniform central limit theorem for the estimators of translation classes of linear functionals, which includes the estimation of the distribution function as a special case. Our results hold in situations, for which a square-root-n-rate can be obtained, more precisely, if the Sobolev smoothness of the functionals is larger than the ill-posedness of the problem.

Page generated in 0.1223 seconds