Spelling suggestions: "subject:"ergodicité géométriques"" "subject:"ergodicity géométriques""
1 |
Théorèmes de renouvellement pour des fonctionnelles additives associées à des chaînes de Markov fortement ergodiquesGuibourg, Denis 20 January 2011 (has links) (PDF)
L'objectif de cette thèse s?inscrit dans une perspective d?extension des théorèmes de renouvellement du cas indépendant au cas de fonctionnelles additives markoviennes. Cette thèse prolonge les travaux de Yves Guivarc'h en dimension 1 et de Martine Babillot en dimension supérieure. Comme dans ces travaux, la chaîne de Markov qui génère la fonctionnelle additive est supposée fortement ergodique. Les preuves s?appuient sur la méthode spectrale de Nagaev-Guivarc'h, qui met en jeu des techniques de transformée de Fourier et de théorie de perturbation d'opérateurs. L'analyse de Fourier (Chapitre 2) s'inspire du travail de Martine Babillot, mais en remplaçant les arguments de distributions et le recours aux fonctions de Bessel modifiées par des calculs plus élémentaires. Les outils d'analyse fonctionnelle sont présentés au Chapitre 3. Dans le Chapitre 4, les théorèmes de renouvellement markoviens de M. Babillot et Y. Guivarc'h sont alors déduits des résultats des deux précédents chapitres. Dans les Chapitres 5 et 6, on applique la méthode spectrale en remplaçant la théorie usuelle de perturbation d'opérateurs par le théorème de Keller et Liverani. Cette nouvelle approche, inspirée des travaux récents de Hubert Hennion, Loïc Hervé et Françoise Pène, permet d'améliorer significativement les énoncés des théorèmes de renouvellement en termes de conditions de moment. En particulier, pour les modèles suivants - les chaînes de Markov V-géométriquement ergodiques, - les chaînes de Markov rho-mélangeantes, - les modèles itératifs lipschitziens, on démontre que les hypothèses se réduisent à des conditions de moment (presque) optimales (en comparaison avec le cas indépendant). Les applications aux modèles itératifs lipschitziens (chapitre 6) sont relatives aux fonctionnelles additives associées à une chaîne double prenant en compte les transformations lipschitziennes aléatoires sous-jacentes. Les résultats de ce chapitre sont obtenus en généralisant la définition des espaces de fonctions Lipschitz à poids introduits par Emile Le Page.
|
2 |
Theoretical contributions to Monte Carlo methods, and applications to Statistics / Contributions théoriques aux méthodes de Monte Carlo, et applications à la StatistiqueRiou-Durand, Lionel 05 July 2019 (has links)
La première partie de cette thèse concerne l'inférence de modèles statistiques non normalisés. Nous étudions deux méthodes d'inférence basées sur de l'échantillonnage aléatoire : Monte-Carlo MLE (Geyer, 1994), et Noise Contrastive Estimation (Gutmann et Hyvarinen, 2010). Cette dernière méthode fut soutenue par une justification numérique d'une meilleure stabilité, mais aucun résultat théorique n'avait encore été prouvé. Nous prouvons que Noise Contrastive Estimation est plus robuste au choix de la distribution d'échantillonnage. Nous évaluons le gain de précision en fonction du budget computationnel. La deuxième partie de cette thèse concerne l'échantillonnage aléatoire approché pour les distributions de grande dimension. La performance de la plupart des méthodes d’échantillonnage se détériore rapidement lorsque la dimension augmente, mais plusieurs méthodes ont prouvé leur efficacité (e.g. Hamiltonian Monte Carlo, Langevin Monte Carlo). Dans la continuité de certains travaux récents (Eberle et al., 2017 ; Cheng et al., 2018), nous étudions certaines discrétisations d’un processus connu sous le nom de kinetic Langevin diffusion. Nous établissons des vitesses de convergence explicites vers la distribution d'échantillonnage, qui ont une dépendance polynomiale en la dimension. Notre travail améliore et étend les résultats de Cheng et al. pour les densités log-concaves. / The first part of this thesis concerns the inference of un-normalized statistical models. We study two methods of inference based on sampling, known as Monte-Carlo MLE (Geyer, 1994), and Noise Contrastive Estimation (Gutmann and Hyvarinen, 2010). The latter method was supported by numerical evidence of improved stability, but no theoretical results had yet been proven. We prove that Noise Contrastive Estimation is more robust to the choice of the sampling distribution. We assess the gain of accuracy depending on the computational budget. The second part of this thesis concerns approximate sampling for high dimensional distributions. The performance of most samplers deteriorates fast when the dimension increases, but several methods have proven their effectiveness (e.g. Hamiltonian Monte Carlo, Langevin Monte Carlo). In the continuity of some recent works (Eberle et al., 2017; Cheng et al., 2018), we study some discretizations of the kinetic Langevin diffusion process and establish explicit rates of convergence towards the sampling distribution, that scales polynomially fast when the dimension increases. Our work improves and extends the results established by Cheng et al. for log-concave densities.
|
3 |
Quelques contributions sur les méthodes de Monte CarloAtchadé, Yves F. January 2003 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
|
4 |
Estimation dans des modèles à variables cachéesMatias, Catherine 21 December 2001 (has links) (PDF)
Cette thèse porte sur des problèmes d'estimation dans des modèles à variables cachées. Le Chapitre 1 est consacré à l'étude d'un modèle de Markov caché où la chaîne de Markov, non-nécessairement stationnaire, est supposée à valeurs dans un espace d'états compact et les observations dans un espace métrique séparable complet. La loi de la chaîne cachée ainsi que la loi conditionnelle dépendent d'un paramètre. Nous prouvons que l'estimateur du maximum de vraisemblance du paramètre est consistant, asymptotiquement normal et efficace. Le Chapitre 2 porte sur l'étude du modèle de convolution. Les observations sont issues d'un signal composé de variables aléatoires i.i.d. de densité inconnue g et d'un bruit blanc Gaussien centré de variance inconnue \sigma. Nous montrons que la non-connaissance de \sigma dégrade nettement la vitesse d'estimation de g : dans la plupart des cas ``réguliers'' cette vitesse est toujours plus lente que (log n)^(-1/2). Nous proposons alors un estimateur de \sigma qui est presque minimax lorsque g possède un support inclus dans un compact fixé. Nous construisons également un estimateur consistant universel de \sigma (i.e. sans contrainte sur g autre que celle d'identifiabilité du modèle). Dans le Chapitre 3, nous considérons ce même modèle de convolution mais lorsque le bruit possède une variance connue (fixée égale à 1) et nous nous intéressons aux propriétés d'estimation de fonctionnelles linéaires intégrales de de la forme \int f(x)\Phi_1(y-x) g(x)dx où \Phi_1 désigne la densité du bruit et f est une fonction connue. Nous étendons les résultats de Taupin dans le cas où la fonction f est soit une fonction polynomiale, soit un polynôme trigonométrique, en établissant des minorations du risque quadratique ponctuel et du risque par rapport à la norme infinie, ainsi que des majorations et minorations du risque par rapport à la norme p (1 \geq p <\infty). Nous montrons que l'estimateur proposé par Taupin atteint les vitesses optimales dans le cas où f est un polynôme et est presque minimax dans le cas où f est un polynôme trigonométrique, avec une perte pour le risque quadratique et pour le risque en norme infinie.
|
Page generated in 0.0403 seconds