Spelling suggestions: "subject:"algorithme metropolis"" "subject:"algorithme petropolis""
1 |
Étude de la performance d’un algorithme Metropolis-Hastings avec ajustement directionnelMireuta, Matei 08 1900 (has links)
Les méthodes de Monte Carlo par chaîne de Markov (MCMC) sont des outils très populaires
pour l’échantillonnage de lois de probabilité complexes et/ou en grandes dimensions.
Étant donné leur facilité d’application, ces méthodes sont largement répandues
dans plusieurs communautés scientifiques et bien certainement en statistique, particulièrement
en analyse bayésienne. Depuis l’apparition de la première méthode MCMC en
1953, le nombre de ces algorithmes a considérablement augmenté et ce sujet continue
d’être une aire de recherche active.
Un nouvel algorithme MCMC avec ajustement directionnel a été récemment développé
par Bédard et al. (IJSS, 9 :2008) et certaines de ses propriétés restent partiellement
méconnues. L’objectif de ce mémoire est de tenter d’établir l’impact d’un paramètre clé
de cette méthode sur la performance globale de l’approche. Un second objectif est de
comparer cet algorithme à d’autres méthodes MCMC plus versatiles afin de juger de sa
performance de façon relative. / Markov Chain Monte Carlo algorithms (MCMC) have become popular tools for sampling
from complex and/or high dimensional probability distributions. Given their relative
ease of implementation, these methods are frequently used in various scientific
areas, particularly in Statistics and Bayesian analysis. The volume of such methods has
risen considerably since the first MCMC algorithm described in 1953 and this area of
research remains extremely active.
A new MCMC algorithm using a directional adjustment has recently been described
by Bédard et al. (IJSS, 9:2008) and some of its properties remain unknown. The objective
of this thesis is to attempt determining the impact of a key parameter on the global
performance of the algorithm. Moreover, another aim is to compare this new method to
existing MCMC algorithms in order to evaluate its performance in a relative fashion.
|
2 |
Étude de la performance d’un algorithme Metropolis-Hastings avec ajustement directionnelMireuta, Matei 08 1900 (has links)
Les méthodes de Monte Carlo par chaîne de Markov (MCMC) sont des outils très populaires
pour l’échantillonnage de lois de probabilité complexes et/ou en grandes dimensions.
Étant donné leur facilité d’application, ces méthodes sont largement répandues
dans plusieurs communautés scientifiques et bien certainement en statistique, particulièrement
en analyse bayésienne. Depuis l’apparition de la première méthode MCMC en
1953, le nombre de ces algorithmes a considérablement augmenté et ce sujet continue
d’être une aire de recherche active.
Un nouvel algorithme MCMC avec ajustement directionnel a été récemment développé
par Bédard et al. (IJSS, 9 :2008) et certaines de ses propriétés restent partiellement
méconnues. L’objectif de ce mémoire est de tenter d’établir l’impact d’un paramètre clé
de cette méthode sur la performance globale de l’approche. Un second objectif est de
comparer cet algorithme à d’autres méthodes MCMC plus versatiles afin de juger de sa
performance de façon relative. / Markov Chain Monte Carlo algorithms (MCMC) have become popular tools for sampling
from complex and/or high dimensional probability distributions. Given their relative
ease of implementation, these methods are frequently used in various scientific
areas, particularly in Statistics and Bayesian analysis. The volume of such methods has
risen considerably since the first MCMC algorithm described in 1953 and this area of
research remains extremely active.
A new MCMC algorithm using a directional adjustment has recently been described
by Bédard et al. (IJSS, 9:2008) and some of its properties remain unknown. The objective
of this thesis is to attempt determining the impact of a key parameter on the global
performance of the algorithm. Moreover, another aim is to compare this new method to
existing MCMC algorithms in order to evaluate its performance in a relative fashion.
|
3 |
Processus de substitution markoviens : un modèle statistique pour la linguistique / Markov Substitute Processes : a statistical model for linguisticsMainguy, Thomas 11 December 2014 (has links)
Ce travail de thèse propose une nouvelle approche au traitement des langues naturelles. Plutôt qu'essayer d'estimer directement la probabilité d'une phrase quelconque, nous identifions des structures syntaxiques dans le langage, qui peuvent être utilisées pour modifier et créer de nouvelles phrases à partir d'un échantillon initial. L'étude des structures syntaxiques est accomplie avec des ensembles de substitution Markoviens, ensembles de chaînes de caractères qui peuvent être échangées sans affecter la distribution. Ces ensembles définissent des processus de substitution Markoviens qui modélisent l'indépendance conditionnelle de certaines chaînes vis-À-Vis de leur contexte. Ce point de vue décompose l'analyse du langage en deux parties, une phase de sélection de modèle, où les ensembles de substitution sont sélectionnés, et une phase d'estimation des paramètres, où les fréquences pour chaque ensemble sont estimées. Nous montrons que ces processus constituent des familles exponentielles quand la structure du langage est fixée. Lorsque la structure du langage est inconnue, nous proposons des méthodes pour identifier des ensembles de substitution à partir d'un échantillon, et pour estimer les paramètres de la distribution. Les ensembles de substitution ont quelques relations avec les grammaires hors-Contexte, qui peuvent être utilisées pour aider l'analyse. Nous construisons alors des dynamiques invariantes pour les processus de substitution. Elles peuvent être utilisées pour calculer l'estimateur du maximum de vraisemblance. En effet, les processus de substitution peuvent être vus comme la limite thermodynamique de la mesure invariante d'une dynamique de crossing-Over. / This thesis proposes a new approach to natural language processing. Rather than trying to estimate directly the probability distribution of a random sentence, we will detect syntactic structures in the language, which can be used to modify and create new sentences from an initial sample.The study of syntactic structures will be done using Markov substitute sets, sets of strings that can be freely substituted in any sentence without affecting the whole distribution. These sets define the notion of Markov substitute processes, modelling conditional independence of certain substrings (given by the sets) with respect to their context. This point of view splits the issue of language analysis into two parts, a model selection stage where Markov substitute sets are selected, and a parameter estimation stage where the actual frequencies for each set are estimated.We show that these substitute processes form exponential families of distributions, when the language structure (the Markov substitute sets) is fixed. On the other hand, when the language structure is unknown, we propose methods to identify Markov substitute sets from a statistical sample, and to estimate the parameters of the distribution. Markov substitute sets show some connections with context-Free grammars, that can be used to help the analysis. We then proceed to build invariant dynamics for Markov substitute processes. They can among other things be used to effectively compute the maximum likelihood estimate. Indeed, Markov substitute models can be seen as the thermodynamical limit of the invariant measure of crossing-Over dynamics.
|
4 |
Recyclage des candidats dans l'algorithme Metropolis à essais multiplesGroiez, Assia 03 1900 (has links)
Les méthodes de Monte Carlo par chaînes de Markov (MCCM) sont des méthodes
servant à échantillonner à partir de distributions de probabilité. Ces techniques
se basent sur le parcours de chaînes de Markov ayant pour lois stationnaires
les distributions à échantillonner. Étant donné leur facilité d’application, elles
constituent une des approches les plus utilisées dans la communauté statistique,
et tout particulièrement en analyse bayésienne. Ce sont des outils très populaires
pour l’échantillonnage de lois de probabilité complexes et/ou en grandes dimensions.
Depuis l’apparition de la première méthode MCCM en 1953 (la méthode de
Metropolis, voir [10]), l’intérêt pour ces méthodes, ainsi que l’éventail d’algorithmes
disponibles ne cessent de s’accroître d’une année à l’autre.
Bien que l’algorithme Metropolis-Hastings (voir [8]) puisse être considéré
comme l’un des algorithmes de Monte Carlo par chaînes de Markov les plus généraux,
il est aussi l’un des plus simples à comprendre et à expliquer, ce qui en fait
un algorithme idéal pour débuter. Il a été sujet de développement par plusieurs
chercheurs. L’algorithme Metropolis à essais multiples (MTM), introduit dans la
littérature statistique par [9], est considéré comme un développement intéressant
dans ce domaine, mais malheureusement son implémentation est très coûteuse
(en termes de temps).
Récemment, un nouvel algorithme a été développé par [1]. Il s’agit de l’algorithme
Metropolis à essais multiples revisité (MTM revisité), qui définit la méthode
MTM standard mentionnée précédemment dans le cadre de l’algorithme
Metropolis-Hastings sur un espace étendu.
L’objectif de ce travail est, en premier lieu, de présenter les méthodes MCCM,
et par la suite d’étudier et d’analyser les algorithmes Metropolis-Hastings ainsi
que le MTM standard afin de permettre aux lecteurs une meilleure compréhension
de l’implémentation de ces méthodes. Un deuxième objectif est d’étudier les
perspectives ainsi que les inconvénients de l’algorithme MTM revisité afin de voir
s’il répond aux attentes de la communauté statistique. Enfin, nous tentons de combattre le problème de sédentarité de l’algorithme MTM revisité, ce qui donne
lieu à un tout nouvel algorithme. Ce nouvel algorithme performe bien lorsque le
nombre de candidats générés à chaque itérations est petit, mais sa performance
se dégrade à mesure que ce nombre de candidats croît. / Markov Chain Monte Carlo (MCMC) algorithms are methods that are used
for sampling from probability distributions. These tools are based on the path
of a Markov chain whose stationary distribution is the distribution to be sampled.
Given their relative ease of application, they are one of the most popular
approaches in the statistical community, especially in Bayesian analysis. These
methods are very popular for sampling from complex and/or high dimensional
probability distributions.
Since the appearance of the first MCMC method in 1953 (the Metropolis algorithm,
see [10]), the interest for these methods, as well as the range of algorithms
available, continue to increase from one year to another.
Although the Metropolis-Hastings algorithm (see [8]) can be considered as
one of the most general Markov chain Monte Carlo algorithms, it is also one of
the easiest to understand and explain, making it an ideal algorithm for beginners.
As such, it has been studied by several researchers. The multiple-try Metropolis
(MTM) algorithm , proposed by [9], is considered as one interesting development
in this field, but unfortunately its implementation is quite expensive (in terms of
time).
Recently, a new algorithm was developed by [1]. This method is named the revisited
multiple-try Metropolis algorithm (MTM revisited), which is obtained by
expressing the MTM method as a Metropolis-Hastings algorithm on an extended
space.
The objective of this work is to first present MCMC methods, and subsequently
study and analyze the Metropolis-Hastings and standard MTM algorithms
to allow readers a better perspective on the implementation of these methods.
A second objective is to explore the opportunities and disadvantages of
the revisited MTM algorithm to see if it meets the expectations of the statistical
community. We finally attempt to fight the sedentarity of the revisited MTM algorithm,
which leads to a new algorithm. The latter performs efficiently when the
number of generated candidates in a given iteration is small, but the performance of this new algorithm then deteriorates as the number of candidates in a given
iteration increases.
|
5 |
Convergence d’un algorithme de type Metropolis pour une distribution cible bimodaleLalancette, Michaël 07 1900 (has links)
Nous présentons dans ce mémoire un nouvel algorithme de type Metropolis-Hastings dans lequel la distribution instrumentale a été conçue pour l'estimation de distributions cibles bimodales. En fait, cet algorithme peut être vu comme une modification de l'algorithme Metropolis de type marche aléatoire habituel auquel on ajoute quelques incréments de grande envergure à des moments aléatoires à travers la simulation. Le but de ces grands incréments est de quitter le mode de la distribution cible où l'on se trouve et de trouver l'autre mode.
Par la suite, nous présentons puis démontrons un résultat de convergence faible qui nous assure que, lorsque la dimension de la distribution cible croît vers l'infini, la chaîne de Markov engendrée par l'algorithme converge vers un certain processus stochastique qui est continu presque partout. L'idée est similaire à ce qui a été fait par Roberts et al. (1997), mais la technique utilisée pour la démonstration des résultats est basée sur ce qui a été fait par Bédard (2006).
Nous proposons enfin une stratégie pour trouver la paramétrisation optimale de notre nouvel algorithme afin de maximiser la vitesse d'exploration locale des modes d'une distribution cible donnée tout en estimant bien la pondération relative de chaque mode. Tel que dans l'approche traditionnellement utilisée pour ce genre d'analyse, notre stratégie passe par l'optimisation de la vitesse d'exploration du processus limite.
Finalement, nous présentons des exemples numériques d'implémentation de l'algorithme sur certaines distributions cibles, dont une ne respecte pas les conditions du résultat théorique présenté. / In this thesis, we present a new Metropolis-Hastings algorithm whose proposal distribution has been designed to successfully estimate bimodal target distributions. This sampler may be seen as a variant of the usual random walk Metropolis sampler in which we propose large candidate steps at random times. The goal of these large candidate steps is to leave the actual mode of the target distribution in order to find the second one.
We then state and prove a weak convergence result stipulating that if we let the dimension of the target distribution increase to infinity, the Markov chain yielded by the algorithm converges to a certain stochastic process that is almost everywhere continuous. The theoretical result is in the flavour of Roberts et al. (1997), while the method of proof is similar to that found in Bédard (2006).
We propose a strategy for optimally parameterizing our new sampler. This strategy aims at optimizing local exploration of the target modes, while correctly estimating the relative weight of each mode. As is traditionally done in the statistical literature, our approach consists of optimizing the limiting process rather than the finite-dimensional Markov chain.
Finally, we illustrate our method via numerical examples on some target distributions, one of which violates the regularity conditions of the theoretical result.
|
6 |
Recyclage des candidats dans l'algorithme Metropolis à essais multiplesGroiez, Assia 03 1900 (has links)
No description available.
|
7 |
Sélection de modèles robuste : régression linéaire et algorithme à sauts réversiblesGagnon, Philippe 10 1900 (has links)
No description available.
|
Page generated in 0.0716 seconds