• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 35
  • 22
  • 8
  • 2
  • 2
  • 1
  • Tagged with
  • 65
  • 65
  • 30
  • 12
  • 12
  • 11
  • 9
  • 9
  • 9
  • 8
  • 8
  • 8
  • 7
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Contributions à la localisation intra-muros. De la modélisation à la calibration théorique et pratique d'estimateurs / Contributions to the indoor localisation. From the modelization to the theoretical and practical calibration of estimators

Dumont, Thierry 13 December 2012 (has links)
Préfigurant la prochaine grande étape dans le domaine de la navigation, la géolocalisation intra-muros est un domaine de recherche très actif depuis quelques années. Alors que la géolocalisation est entrée dans le quotidien de nombreux professionnels et particuliers avec, notamment, le guidage routier assisté, les besoins d'étendre les applications à l'intérieur se font de plus en plus pressants. Cependant, les systèmes existants se heurtent à des contraintes techniques bien supérieures à celles rencontrées à l'extérieur, la faute, notamment, à la propagation chaotique des ondes électromagnétiques dans les environnements confinés et inhomogènes. Nous proposons dans ce manuscrit une approche statistique du problème de géolocalisation d'un mobile à l'intérieur d'un bâtiment utilisant les ondes WiFi environnantes. Ce manuscrit s'articule autour de deux questions centrales : celle de la détermination des cartes de propagation des ondes WiFi dans un bâtiment donné et celle de la construction d'estimateurs des positions du mobile à l'aide de ces cartes de propagation. Le cadre statistique utilisé dans cette thèse afin de répondre à ces questions est celui des modèles de Markov cachés. Nous proposons notamment, dans un cadre paramétrique, une méthode d'inférence permettant l'estimation en ligne des cartes de propagation, sur la base des informations relevées par le mobile. Dans un cadre non-paramétrique, nous avons étudié la possibilité d'estimer les cartes de propagation considérées comme simple fonction régulière sur l'environnement à géolocaliser. Nos résultats sur l'estimation non paramétrique dans les modèles de Markov cachés permettent d'exhiber un estimateur des fonctions de propagation dont la consistance est établie dans un cadre général. La dernière partie du manuscrit porte sur l'estimation de l'arbre de contextes dans les modèles de Markov cachés à longueur variable. / Foreshadowing the next big step in the field of navigation, indoor geolocation has been a very active field of research in the last few years. While geolocation entered the life of many individuals and professionals, particularly through assisted navigation systems on roads, needs to extend the applications inside the buildings are more and more present. However, existing systems face many more technical constraints than those encountered outside, including the chaotic propagation of electromagnetic waves in confined and inhomogeneous environments. In this manuscript, we propose a statistical approach to the problem of geolocation of a mobile device inside a building, using the WiFi surrounding waves. This manuscript focuses on two central issues: the determination of WiFi wave propagation maps inside a building and the construction of estimators of the mobile's positions using these propagation maps. The statistical framework used in this thesis to answer these questions is that of hidden Markov models. We propose, in a parametric framework, an inference method for the online estimation of the propagation maps, on the basis of the informations reported by the mobile. In a nonparametric framework, we investigated the possibility of estimating the propagation maps considered as a single regular function on the environment that we wish to geolocate. Our results on the nonparametric estimation in hidden Markov models make it possible to produce estimators of the propagation functions whose consistency is established in a general framework. The last part of the manuscript deals with the estimation of the context tree in variable length hidden Markov models.
32

Statistics for diffusion processes with low and high-frequency observations

Chorowski, Jakub 11 November 2016 (has links)
Diese Dissertation betrachtet das Problem der nichtparametrischen Schätzung der Diffusionskoeffizienten eines ein-dimensionalen und zeitlich homogenen Itô-Diffusionsprozesses. Dabei werden verschiedene diskrete Sampling Regimes untersucht. Im ersten Teil zeigen wir, dass eine Variante des von Gobet, Hoffmann und Reiß konstruierten Niedrigfrequenz-Schätzers auch im Fall von zufälligen Beobachtungszeiten verwendet werden kann. Wir beweisen, dass der Schätzer optimal im Minimaxsinn und adaptiv bezüglich der Verteilung der Beobachtungszeiten ist. Außerdam wenden wir die Lepski Methode an um einen Schätzer zu erhalten, der zusätzlich adaptiv bezüglich der Sobolev-Glattheit des Drift- und Volatilitätskoeffizienten ist. Im zweiten Teil betrachten wir das Problem der Volatilitätsschätzung für äquidistante Beobachtungen. Im Fall eines stationären Prozesses, mit kompaktem Zustandsraum, erhalten wir einen Schätzer, der sowohl bei hochfrequenten als auch bei niedrigfrequenten Beobachtungen die optimale Minimaxrate erreicht. Die Konstruktion des Schätzers beruht auf spektralen Methoden. Im Fall von niedrigfrequenten Beobachtungen ist die Analyse des Schätzers ähnlich wie diejenige in der Arbeit von Gobet, Hoffmann und Reiß. Im hochfrequenten Fall hingegen finden wir die Konvergenzraten durch lokale Mittelwertbildung und stellen daubt eine Verbindung zum Hochfrequenzschätzer von Florens-Zmirou her. In der Analyse unseres universalen Schätzers benötigen wir scharfe obere Schranken für den Schätzfehler von Funktionalen der Occupation time für unstetige Funktionen. Wir untersuchen eine auf Riemannsummen basierende Approximation der Occupation time eines stationären, reversiblen Markov-Prozesses und leiten obere Schranken für den quadratischen Fehler her. Im Fall von Diffusionsprozessen erhalten wir Konvergenzraten für Sobolev Funktionen. / In this thesis, we consider the problem of nonparametric estimation of the diffusion coefficients of a scalar time-homogeneous Itô diffusion process from discrete observations under various sampling assumptions. In the first part, the low-frequency estimation method proposed by Gobet, Hoffmann and Reiß is modified to cover the case of random sampling times. The estimator is shown to be optimal in the minimax sense and adaptive to the sampling distribution. Moreover, Lepski''s method is applied to adapt to the unknown Sobolev smoothness of the drift and volatility coefficients. In the second part, we address the problem of volatility estimation from equidistant observations without a predefined frequency regime. In the case of a stationary diffusion with compact state space and boundary reflection, we introduce a universal estimator that attains the minimax optimal convergence rates for both low and high-frequency observations. Being based on the spectral method, the low-frequency analysis is similar to the study conducted by Gobet, Hoffmann and Reiß. On the other hand, the derivation of the convergence rates in the high-frequency regime requires local averaging of the low-frequency estimator, which makes it mimic the behaviour of the classical high-frequency estimator introduced by Florens-Zmirou. The analysis of the universal estimator requires tight upper bounds on the estimation error of the occupation time functional for non-continuous functions. In the third part of the thesis, we thus consider the Riemann sum approximation of the occupation time functional of a stationary, time-reversible Markov process. Upper bounds on the squared mean estimation error are provided. In the case of diffusion processes, convergence rates for Sobolev regular functions are obtained.
33

Estimation fonctionnelle non paramétrique au voisinage du bord / Functional non-parametric estimation near the edge

Jemai, Asma 16 March 2018 (has links)
L’objectif de cette thèse est de construire des estimateurs non-paramétriques d’une fonction de distribution, d’une densité de probabilité et d’une fonction de régression en utilisant les méthodes d’approximation stochastiques afin de corriger l’effet du bord créé par les estimateurs à noyaux continus classiques. Dans le premier chapitre, on donne quelques propriétés asymptotiques des estimateurs continus à noyaux. Puis, on présente l’algorithme stochastique de Robbins-Monro qui permet d’introduire les estimateurs récursifs. Enfin, on rappelle les méthodes utilisées par Vitale, Leblanc et Kakizawa pour définir des estimateurs d’une fonction de distribution et d’une densité de probabilité en se basant sur les polynômes de Bernstein.Dans le deuxième chapitre, on a introduit un estimateur récursif d’une fonction de distribution en se basant sur l’approche de Vitale. On a étudié les propriétés de cet estimateur : biais, variance, erreur quadratique intégré (MISE) et on a établi sa convergence ponctuelle faible. On a comparé la performance de notre estimateur avec celle de Vitale et on a montré qu’avec le bon choix du pas et de l’ordre qui lui correspond notre estimateur domine en terme de MISE. On a confirmé ces résultatsthéoriques à l’aide des simulations. Pour la recherche pratique de l’ordre optimal, on a utilisé la méthode de validation croisée. Enfin, on a confirmé les meilleures qualités de notre estimateur à l’aide des données réelles. Dans le troisième chapitre, on a estimé une densité de probabilité d’une manière récursive en utilisant toujours les polynômes de Bernstein. On a donné les caractéristiques de cet estimateur et on les a comparées avec celles de l’estimateur de Vitale, de Leblanc et l’estimateur donné par Kakizawa en utilisant la méthode multiplicative de correction du biais. On a appliqué notre estimateur sur des données réelles. Dans le quatrième chapitre, on a introduit un estimateur récursif et non récursif d’une fonction de régression en utilisant les polynômes de Bernstein. On a donné les caractéristiques de cet estimateur et on les a comparées avec celles de l’estimateur à noyau classique. Ensuite, on a utilisé notre estimateur pour interpréter des données réelles. / The aim of this thesis is to construct nonparametric estimators of distribution, density and regression functions using stochastic approximation methods in order to correct the edge effect created by kernels estimators. In the first chapter, we givesome asymptotic properties of kernel estimators. Then, we introduce the Robbins-Monro stochastic algorithm which creates the recursive estimators. Finally, we recall the methods used by Vitale, Leblanc and Kakizawa to define estimators of distribution and density functions based on Bernstein polynomials. In the second chapter, we introduced a recursive estimator of a distribution function based on Vitale’s approach. We studied the properties of this estimator : bias, variance, mean integratedsquared error (MISE) and we established a weak pointwise convergence. We compared the performance of our estimator with that of Vitale and we showed that, with the right choice of the stepsize and its corresponding order, our estimator dominatesin terms of MISE. These theoretical results were confirmed using simulations. We used the cross-validation method to search the optimal order. Finally, we applied our estimator to interpret real dataset. In the third chapter, we introduced a recursive estimator of a density function using Bernstein polynomials. We established the characteristics of this estimator and we compared them with those of the estimators of Vitale, Leblanc and Kakizawa. To highlight our proposed estimator, we used real dataset. In the fourth chapter, we introduced a recursive and non-recursive estimator of a regression function using Bernstein polynomials. We studied the characteristics of this estimator. Then, we compared our proposed estimator with the classical kernel estimator using real dataset.
34

The Propagation-Separation Approach

Becker, Saskia 16 May 2014 (has links)
Lokal parametrische Modelle werden häufig im Kontext der nichtparametrischen Schätzung verwendet. Bei einer punktweisen Schätzung der Zielfunktion können die parametrischen Umgebungen mithilfe von Gewichten beschrieben werden, die entweder von den Designpunkten oder (zusätzlich) von den Beobachtungen abhängen. Der Vergleich von verrauschten Beobachtungen in einzelnen Punkten leidet allerdings unter einem Mangel an Robustheit. Der Propagations-Separations-Ansatz von Polzehl und Spokoiny [2006] verwendet daher einen Multiskalen-Ansatz mit iterativ aktualisierten Gewichten. Wir präsentieren hier eine theoretische Studie und numerische Resultate, die ein besseres Verständnis des Verfahrens ermöglichen. Zu diesem Zweck definieren und untersuchen wir eine neue Strategie für die Wahl des entscheidenden Parameters des Verfahrens, der Adaptationsbandweite. Insbesondere untersuchen wir ihre Variabilität in Abhängigkeit von der unbekannten Zielfunktion. Unsere Resultate rechtfertigen eine Wahl, die unabhängig von den jeweils vorliegenden Beobachtungen ist. Die neue Parameterwahl liefert für stückweise konstante und stückweise beschränkte Funktionen theoretische Beweise der Haupteigenschaften des Algorithmus. Für den Fall eines falsch spezifizierten Modells führen wir eine spezielle Stufenfunktion ein und weisen eine punktweise Fehlerschranke im Vergleich zum Schätzer des Algorithmus nach. Des Weiteren entwickeln wir eine neue Methode zur Entrauschung von diffusionsgewichteten Magnetresonanzdaten. Unser neues Verfahren (ms)POAS basiert auf einer speziellen Beschreibung der Daten, die eine zeitgleiche Glättung bezüglich der gemessenen Positionen und der Richtungen der verwendeten Diffusionsgradienten ermöglicht. Für den kombinierten Messraum schlagen wir zwei Distanzfunktionen vor, deren Eignung wir mithilfe eines differentialgeometrischen Ansatzes nachweisen. Schließlich demonstrieren wir das große Potential von (ms)POAS auf simulierten und experimentellen Daten. / In statistics, nonparametric estimation is often based on local parametric modeling. For pointwise estimation of the target function, the parametric neighborhoods can be described by weights that depend on design points or on observations. As it turned out, the comparison of noisy observations at single points suffers from a lack of robustness. The Propagation-Separation Approach by Polzehl and Spokoiny [2006] overcomes this problem by using a multiscale approach with iteratively updated weights. The method has been successfully applied to a large variety of statistical problems. Here, we present a theoretical study and numerical results, which provide a better understanding of this versatile procedure. For this purpose, we introduce and analyse a novel strategy for the choice of the crucial parameter of the algorithm, namely the adaptation bandwidth. In particular, we study its variability with respect to the unknown target function. This justifies a choice independent of the data at hand. For piecewise constant and piecewise bounded functions, this choice enables theoretical proofs of the main heuristic properties of the algorithm. Additionally, we consider the case of a misspecified model. Here, we introduce a specific step function, and we establish a pointwise error bound between this function and the corresponding estimates of the Propagation-Separation Approach. Finally, we develop a method for the denoising of diffusion-weighted magnetic resonance data, which is based on the Propagation-Separation Approach. Our new procedure, called (ms)POAS, relies on a specific description of the data, which enables simultaneous smoothing in the measured positions and with respect to the directions of the applied diffusion-weighting magnetic field gradients. We define and justify two distance functions on the combined measurement space, where we follow a differential geometric approach. We demonstrate the capability of (ms)POAS on simulated and experimental data.
35

Adaptive methods for modelling, estimating and forecasting locally stationary processes

Van Bellegem, Sébastien 16 December 2003 (has links)
In time series analysis, most of the models are based on the assumption of covariance stationarity. However, many time series in the applied sciences show a time-varying second-order structure. That is, variance and covariance, or equivalently the spectral structure, are likely to change over time. Examples may be found in a growing number of fields, such as biomedical time series analysis, geophysics, telecommunications, or financial data analysis, to name but a few. In this thesis, we are concerned with the modelling of such nonstationary time series, and with the subsequent questions of how to estimate their second-order structure and how to forecast these processes. We focus on univariate, discrete-time processes with zero-mean arising, for example, when the global trend has been removed from the data. The first chapter presents a simple model for nonstationarity, where only the variance is time-varying. This model follows the approach of "local stationarity" introduced by [1]. We show that our model satisfactorily explains the nonstationary behaviour of several economic data sets, among which are the U.S. stock returns and exchange rates. This chapter is based on [5]. In the second chapter, we study more complex models, where not only the variance is evolutionary. A typical example of these models is given by time-varying ARMA(p,q) processes, which are ARMA(p,q) with time-varying coefficients. Our aim is to fit such semiparametric models to some nonstationary data. Our data-driven estimator is constructed from a minimisation of a penalised contrast function, where the contrast function is an approximation to the Gaussian likelihood of the model. The theoretical performance of the estimator is analysed via non asymptotic risk bounds for the quadratic risk. In our results, we do not assume that the observed data follow the semiparamatric structure, that is our results hold in the misspecified case. The third chapter introduces a fully nonparametric model for local nonstationarity. This model is a wavelet-based model of local stationarity which enlarges the class of models defined by Nason et al. [3]. A notion of time-varying "wavelet spectrum' is uniquely defined as a wavelet-type transform of the autocovariance function with respect to so-called "autocorrelation wavelets'. This leads to a natural representation of the autocovariance which is localised on scales. One particularly interesting subcase arises when this representation is sparse, meaning that the nonstationary autocovariance may be decomposed in the autocorrelation wavelet basis using few coefficients. We present a new test of sparsity for the wavelet spectrum in Chapter 4. It is based on a non-asymptotic result on the deviations of a functional of a periodogram. In this chapter, we also present another application of this result given by the pointwise adaptive estimation of the wavelet spectrum. Chapters 3 and 4 are based on [6] Computational aspects of the test of sparsity and of the pointwise adaptive estimator are considered in Chapter 5. We give a description of a full algorithm, and an application in biostatistics. In this chapter, we also derive a new test of covariance stationarity, applied to another case study in biostatistics. This chapter is based on [7]. Finally, Chapter 6 address the problem how to forecast the general nonstationary process introduced in Chapter 3. We present a new predictor and derive the prediction equations as a generalisation of the Yule-Walker equations. We propose an automatic computational procedure for choosing the parameters of the forecasting algorithm. Then we apply the prediction algorithm to a meteorological data set. This chapter is based on [2,4]. References [1] Dahlhaus, R. (1997). Fitting time series models to nonstationary processes. Ann. Statist., 25, 1-37, 1997. [2] Fryzlewicz, P., Van Bellegem, S. and von Sachs, R. (2003). Forecasting non-stationary time series by wavelet process modelling. Annals of the Institute of Statistical Mathematics. 55, 737-764. [3] Nason, G.P., von Sachs, R. and Kroisandt, G. (2000). Wavelet processes and adaptive estimation of evolutionary wavelet spectra. Journal of the Royal Statistical Society Series B. 62, 271-292. [4] Van Bellegem, S., Fryzlewicz, P. and von Sachs, R. (2003). A wavelet-based model for forecasting non-stationary processes. In J-P. Gazeau, R. Kerner, J-P. Antoine, S. Metens and J-Y. Thibon (Eds.). GROUP 24: Physical and Mathematical Aspects of Symmetries. Bristol: IOP Publishing (in press). [5] Van Bellegem, S. and von Sachs, R. (2003). Forecasting economic time series with unconditional time-varying variance. International Journal of Forecasting (in press). [6] Van Bellegem, S. and von Sachs, R. (2003). Locally adaptive estimation of sparse, evolutionary wavelet spectra (submitted). [7] Van Bellegem, S. and von Sachs, R. (2003). On adaptive estimation for locally stationary wavelet processes and its applications (submitted).
36

Modelling dependence in actuarial science, with emphasis on credibility theory and copulas

Purcaru, Oana 19 August 2005 (has links)
One basic problem in statistical sciences is to understand the relationships among multivariate outcomes. Although it remains an important tool and is widely applicable, the regression analysis is limited by the basic setup that requires to identify one dimension of the outcomes as the primary measure of interest (the "dependent" variable) and other dimensions as supporting this variable (the "explanatory" variables). There are situations where this relationship is not of primary interest. For example, in actuarial sciences, one might be interested to see the dependence between annual claim numbers of a policyholder and its impact on the premium or the dependence between the claim amounts and the expenses related to them. In such cases the normality hypothesis fails, thus Pearson's correlation or concepts based on linearity are no longer the best ones to be used. Therefore, in order to quantify the dependence between non-normal outcomes one needs different statistical tools, such as, for example, the dependence concepts and the copulas. This thesis is devoted to modelling dependence with applications in actuarial sciences and is divided in two parts: the first one concerns dependence in frequency credibility models and the second one dependence between continuous outcomes. In each part of the thesis we resort to different tools, the stochastic orderings (which arise from the dependence concepts), and copulas, respectively. During the last decade of the 20th century, the world of insurance was confronted with important developments of the a posteriori tarification, especially in the field of credibility. This was dued to the easing of insurance markets in the European Union, which gave rise to an advanced segmentation. The first important contribution is due to Dionne & Vanasse (1989), who proposed a credibility model which integrates a priori and a posteriori information on an individual basis. These authors introduced a regression component in the Poisson counting model in order to use all available information in the estimation of accident frequency. The unexplained heterogeneity was then modeled by the introduction of a latent variable representing the influence of hidden policy characteristics. The vast majority of the papers appeared in the actuarial literature considered time-independent (or static) heterogeneous models. Noticeable exceptions include the pioneering papers by Gerber & Jones (1975), Sundt (1988) and Pinquet, Guillén & Bolancé (2001, 2003). The allowance for an unknown underlying random parameter that develops over time is justified since unobservable factors influencing the driving abilities are not constant. One might consider either shocks (induced by events like divorces or nervous breakdown, for instance) or continuous modifications (e.g. due to learning effect). In the first part we study the recently introduced models in the frequency credibility theory, which can be seen as models of time series for count data, adapted to actuarial problems. More precisely we will examine the kind of dependence induced among annual claim numbers by the introduction of random effects taking unexplained heterogeneity, when these random effects are static and time-dependent. We will also make precise the effect of reporting claims on the a posteriori distribution of the random effect. This will be done by establishing some stochastic monotonicity property of the a posteriori distribution with respect to the claims history. We end this part by considering different models for the random effects and computing the a posteriori corrections of the premiums on basis of a real data set from a Spanish insurance company. Whereas dependence concepts are very useful to describe the relationship between multivariate outcomes, in practice (think for instance to the computation of reinsurance premiums) one need some statistical tool easy to implement, which incorporates the structure of the data. Such tool is the copula, which allows the construction of multivariate distributions for given marginals. Because copulas characterize the dependence structure of random vectors once the effect of the marginals has been factored out, identifying and fitting a copula to data is not an easy task. In practice, it is often preferable to restrict the search of an appropriate copula to some reasonable family, like the archimedean one. Then, it is extremely useful to have simple graphical procedures to select the best fitting model among some competing alternatives for the data at hand. In the second part of the thesis we propose a new nonparametric estimator for the generator, that takes into account the particularity of the data, namely censoring and truncation. This nonparametric estimation then serves as a benchmark to select an appropriate parametric archimedean copula. This selection procedure will be illustrated on a real data set.
37

Netiesinių statistikų taikymas atsitiktinių vektorių pasiskirstymo tankių vertinime / Application of nonlinear statistics for distribution density estimation of random vectors

Šmidtaitė, Rasa 11 August 2008 (has links)
Statistikoje ir jos taikyme vienas dažniausiai sprendžiamų uždavinių yra daugiamačių tankių vertinimas.Tankių vertinimas skirstomas į parametrinį ir neparametrinį vertinimą. Parametriniame vertinime daroma prielaida, kad tankio funkcija f, apibūdinanti duomenis yi, kai i kinta nuo 1 iki n, priklauso tam tikrai gan siaurai funkcijų šeimai f(•;θ), kuri priklauso nuo nedidelio kiekio parametrų θ=(θ1, θ2, …, θk). Tankis, apskaičiuojamas pagal parametrinį vertinimą, gaunamas iš pradžių apskaičiavus parametro θ įvertį θ0 ir f0=f(•;θ). Toks traktavimas statistiniu požiūriu yra labai efektyvus, tačiau jeigu nei vienas šeimos f(•;θ) narys nėra artimas funkcijai f, rezultatai gali būti gauti labai netikslūs. Neparametriniam tankio vertinimui jokios parametrinės prielaidos apie f nėra reikalingos, tačiau vietoj to daromos kitos prielaidos, pavyzdžiui, apie funkcijos f tolydumą arba, kad f yra integruojama. Tankio funkcijos forma yra nustatoma iš turimų duomenų.Turint dideles imtis, tankis f gali būti apskaičiuotas pakankamai tiksliai. Šiuolaikinėje duomenų analizėje naudojama daugybė neparametrinių metodų, skirtų daugiamačių atsitiktinių dydžių pasiskirstymo tankio statistiniam vertinimui. Ypač plačiai paplitę branduoliniai įvertiniai, populiarūs ir splaininiai bei pusiau parametriniai algoritmai. Taikant daugumą populiarių neparametrinio įvertinimo procedūrų praktikoje susiduriama su jų parametrų optimalaus parinkimo problema. Branduolinių įvertinių konstrukcijos svarbiausiu... [toliau žr. visą tekstą] / Most algorithms work properly if the probability densities of the multivariate vectors are known. Unfortunately, in reality these densities are usually not available, and parametric or non-parametric estimation of the densities becomes critically needed. In parametric estimation one assumes that the density f underlying the data yi where i varies from 1 to n, belongs to some rather restricted family of functions f(•;θ) indexed by a small number of parameters θ=(θ1, θ2, …, θk). An example is the family of multivariate normal densities which is parameterized by the mean vector and the covariance matrix. A density estimate in the parametric approach is obtained by computing from the data an estimate θ0 of θ and setting f0=f(•;θ). Such an approach is statistically and computationally very efficient but can lead poor results if none of the family members f(•;θ) is close to f. In nonparametric density estimation no parametric assumptions about f are made and one assumes instead that f, for example, has some smoothness properties (e.g. two continuous derivatives) or that it is square integrable. The shape of the density estimate is determined by the data and, in principle, given enough data, arbitrary densities f can be estimated accurately. Most popular methods are the kernel estimator based on local smoothing of the data. Quite popular are histospline, semiparametric and projection pursuit algorithms. While constructing various probability density estimation methods the most... [to full text]
38

Quelques résultats d'équivalence asymptotique pour des expériences statistiques dans un cadre non paramétrique / Some results of asymptotic equivalence for nonparametric statistical experiments

Mariucci, Ester 16 September 2015 (has links)
Nous nous intéressons à l'équivalence asymptotique, au sens de Le Cam, entre différents modèles statistiques. Plus précisément, nous avons exploré le cas de modèles statistiques associés à l'observation discrète de processus à sauts ou de diffusions unidimensionnelles, ainsi que des modèles à densité plus classiques.Ci-dessous, nous présentons brièvement les différents chapitres de la thèse.Nous commençons par présenter tous nos résultats dans un premier chapitre introductif. Ensuite, dans le Chapitre 2 nous rappelons les points clés de la théorie de Le Cam sur les expériences statistiques en se plaçant dans un contexte non paramétrique.Les Chapitres 3 et 4 traitent de l'équivalence asymptotique pour des modèles statistiques associés à l'observation discrète (haute fréquence) de processus à sauts. Dans un premier temps nous nous focalisons sur un problème d'équivalence en ce qui concerne l'estimation de la dérive, supposée appartenir à une certaine classe fonctionnelle. Il s'avère (Chapitre 3) qu'il y a une équivalence asymptotique, en ce qui concerne l'estimation de la dérive, entre le modèle statistique associé à l'observation discrète d'un processus additif $X$ et le modèle statistique gaussien associé à l'observation discrète de la partie continue de $X$.Dans un deuxième temps, nous nous sommes intéressés au problème de l'estimation non paramétrique de la densité de Lévy $f$ relative à un processus de Lévy à sauts purs, $Y$. Le Chapitre 4 illustre l'équivalence asymptotique, en ce qui concerne l'estimation de $f$, entre le modèle statistique associé à l'observation discrète de $Y$ et un certain modèle de bruit blanc gaussien ayant $sqrt f$ comme dérive.Le Chapitre 5 présente une extension d'un résultat bien connu sur l'équivalence asymptotique entre un modèle à densité et un modèle de bruit blanc gaussien.Le Chapitre 6 étudie l'équivalence asymptotique entre un modèle de diffusion scalaire avec une dérive inconnue et un coefficient de diffusion qui tend vers zéro et le schéma d'Euler correspondant.Dans le Chapitre 7 nous présentons une majoration en distance $L_1$ entre les lois de processus additifs.Le Chapitre 8 est consacré aux conclusions et discute des extensions possibles des travaux de thèse. / The subject of this Ph.D. thesis is the asymptotic equivalence, in the Le Cam sense, between different statistical models. Specifically, we explore the case of statistical models associated with the discrete observation of jump processes or diffusion processes as well as more classical density models.Below, we briefly introduce the different chapters of this dissertation.We begin by presenting our results in a first introductory chapter. Then, in Chapter 2, we recall the key points of the Le Cam theory on statistical experiences focusing on a nonparametric context.Chapters 3 and 4 deal with asymptotic equivalences for statistical models associated with discrete observation (high frequency) of jump processes. First, we focus on an equivalence problem regarding the estimation of the drift, assumed to belong to a certain functional class. It turns out (Chapter 3) that there is an asymptotic equivalence, for what concerns the estimation of the drift, between the statistical model associated with the discrete observation of an additive process $X$ and the Gaussian statistical model associated with the discrete observation of the continuous part of $X$. Then we study the problem of nonparametric density estimation for the Lévy density $f$ of a pure jump Lévy process $Y$. Chapter 4 illustrates the asymptotic equivalence, for what concerns the estimation of $f$, between the statistical model associated with the discrete observation of $Y$ and a certain Gaussian white noise model having $sqrt f$ as drift.In Chapter 5 we present an extension of the well-known asymptotic equivalence between density estimation experiments and a Gaussian white noise model.Chapter 6 describes the asymptotic equivalence between a scalar diffusion model with unknown drift and with diffusion coefficient tending to zero and the corresponding Euler scheme. In Chapter 7 we present a bound for the $L_1$ distance between the laws of additive processes.Chapter 8 is devoted to conclusions and discusses possible extensions of the results of this thesis.
39

Aspects théoriques et pratiques dans l'estimation non paramétrique de la densité conditionnelle pour des données fonctionnelles / Theoretical and practical aspects in non parametric estimation of the conditional density with functional data

Madani, Fethi 11 May 2012 (has links)
Dans cette thèse, nous nous intéressons à l'estimation non paramétrique de la densité conditionnelle d'une variable aléatoire réponse réelle conditionnée par une variable aléatoire explicative fonctionnelle de dimension éventuellement fi nie. Dans un premier temps, nous considérons l'estimation de ce modèle par la méthode du double noyaux. Nous proposons une méthode de sélection automatique du paramètre de lissage (global et puis local) intervenant dans l'estimateur à noyau, et puis nous montrons l'optimalité asymptotique du paramètre obtenu quand les observations sont indépendantes et identiquement distribuées. Le critère adopté est issu du principe de validation croisée. Dans cette partie nous avons procédé également à la comparaison de l'efficacité des deux types de choix (local et global). Dans la deuxième partie et dans le même contexte topologique, nous estimons la densité conditionnelle par la méthode des polynômes locaux. Sous certaines conditions, nous établissons des propriétés asymptotiques de cet estimateur telles que la convergence presque-complète et la convergence en moyenne quadratique dans le cas où les observations sont indépendantes et identiquement distribuées. Nous étendons aussi nos résultats au cas où les observations sont de type α- mélangeantes, dont on montre la convergence presque-complète (avec vitesse de convergence) de l'estimateur proposé. Enfi n, l'applicabilité rapide et facile de nos résultats théoriques, dans le cadre fonctionnel, est illustrée par des exemples (1) sur des données simulées, et (2) sur des données réelles. / In this thesis, we consider the problem of the nonparametric estimation of the conditional density when the response variable is real and the regressor is valued in a functional space. In the rst part, we use the double kernels method's as a estimation method where we focus on the choice of the smoothing parameters. We construct a data driven method permitting to select optimally and automatically bandwidths. As main results, we study the asymptotic optimality of this selection method in the case where observations are independent and identically distributed (i.i.d). Our selection rule is based on the classical cross-validation ideas and it deals with the both global and local choices. The performance of our approach is illustrated also by some simulation results on nite samples where we conduct a comparison between the two types of bandwidths choices (local and global). In the second part, we adopt a functional version of the local linear method, in the same topological context, to estimate some functional parameters. Under some general conditions, we establish the almost-complete convergence (with rates) of the proposed estimator in the both cases ( the i.i.d. case and the α-mixing case) . As application, we use the conditional density estimator to estimate the conditional mode estimation and to derive some asymptotic proprieties of the constructed estimator. Then, we establish the quadratic error of this estimator by giving its exact asymptotic expansion (involved in the leading in the bias and variance terms). Finally, the applicability of our results is then veri ed and validated for (1) simulated data, and (2) some real data.
40

Estimation non-paramétrique de la densité de variables aléatoires cachées / Nonparametric estimation of the density of hidden random variables.

Dion, Charlotte 24 June 2016 (has links)
Cette thèse comporte plusieurs procédures d'estimation non-paramétrique de densité de probabilité.Dans chaque cas les variables d'intérêt ne sont pas observées directement, ce qui est une difficulté majeure.La première partie traite un modèle linéaire mixte où des observations répétées sont disponibles.La deuxième partie s'intéresse aux modèles d'équations différentielles stochastiques à effets aléatoires. Plusieurs trajectoires sont observées en temps continu sur un intervalle de temps commun.La troisième partie se place dans un contexte de bruit multiplicatif.Les différentes parties de cette thèse sont reliées par un contexte commun de problème inverse et par une problématique commune: l'estimation de la densité d'une variable cachée. Dans les deux premières parties la densité d'un ou plusieurs effets aléatoires est estimée. Dans la troisième partie il s'agit de reconstruire la densité de la variable d'origine à partir d'observations bruitées.Différentes méthodes d'estimation globale sont utilisées pour construire des estimateurs performants: estimateurs à noyau, estimateurs par projection ou estimateurs construits par déconvolution.La sélection de paramètres mène à des estimateurs adaptatifs et les risques quadratiques intégrés sont majorés grâce à une inégalité de concentration de Talagrand. Une étude sur simulations de chaque estimateur illustre leurs performances. Un jeu de données neuronales est étudié grâce aux procédures mises en place pour les équations différentielles stochastiques. / This thesis contains several nonparametric estimation procedures of a probability density function.In each case, the main difficulty lies in the fact that the variables of interest are not directly observed.The first part deals with a mixed linear model for which repeated observations are available.The second part focuses on stochastic differential equations with random effects. Many trajectories are observed continuously on the same time interval.The third part is in a full multiplicative noise framework.The parts of the thesis are connected by the same context of inverse problems and by a common problematic: the estimation of the density function of a hidden variable.In the first two parts the density of one or two random effects is estimated. In the third part the goal is to rebuild the density of the original variable from the noisy observations.Different global methods are used and lead to well competitive estimators: kernel estimators, projection estimators or estimators built from deconvolution.Parameter selection gives adaptive estimators and the integrated risks are bounded using a Talagrand concentration inequality.A simulation study for each proposed estimator highlights their performances.A neuronal dataset is investigated with the new procedures for stochastic differential equations developed in this work.

Page generated in 0.038 seconds