• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 37
  • 22
  • 6
  • 1
  • Tagged with
  • 63
  • 63
  • 63
  • 23
  • 22
  • 18
  • 16
  • 14
  • 12
  • 11
  • 11
  • 11
  • 10
  • 10
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Ninomiya-Victoir scheme : strong convergence, asymptotics for the normalized error and multilevel Monte Carlo methods / Schéma de Ninomiya Victoir : convergence forte, asymptotiques pour l'erreur renomalisée et méthodes de Monte Carlo multi-pas

Al Gerbi, Anis 10 October 2016 (has links)
Cette thèse est consacrée à l'étude des propriétés de convergence forte du schéma de Ninomiya et Victoir. Les auteurs de ce schéma proposent d'approcher la solution d'une équation différentielle stochastique (EDS), notée $X$, en résolvant $d+1$ équations différentielles ordinaires (EDOs) sur chaque pas de temps, où $d$ est la dimension du mouvement brownien. Le but de cette étude est d'analyser l'utilisation de ce schéma dans une méthode de Monte-Carlo multi-pas. En effet, la complexité optimale de cette méthode est dirigée par l'ordre de convergence vers $0$ de la variance entre les schémas utilisés sur la grille grossière et sur la grille fine. Cet ordre de convergence est lui-même lié à l'ordre de convergence fort entre les deux schémas. Nous montrons alors dans le chapitre $2$, que l'ordre fort du schéma de Ninomiya-Victoir, noté $X^{NV,eta}$ et de pas de temps $T/N$, est $1/2$. Récemment, Giles et Szpruch ont proposé un estimateur Monte-Carlo multi-pas réalisant une complexité $Oleft(epsilon^{-2}right)$ à l'aide d'un schéma de Milstein modifié. Dans le même esprit, nous proposons un schéma de Ninomiya-Victoir modifié qui peut-être couplé à l'ordre fort $1$ avec le schéma de Giles et Szpruch au dernier niveau d'une méthode de Monte-Carlo multi-pas. Cette idée est inspirée de Debrabant et Rossler. Ces auteurs suggèrent d'utiliser un schéma d'ordre faible élevé au niveau de discrétisation le plus fin. Puisque le nombre optimal de niveaux de discrétisation d'une méthode de Monte-Carlo multi-pas est dirigé par l'erreur faible du schéma utilisé sur la grille fine du dernier niveau de discrétisation, cette technique permet d'accélérer la convergence de la méthode Monte-Carlo multi-pas en obtenant une approximation d'ordre faible élevé. L'utilisation du couplage à l'ordre $1$ avec le schéma de Giles-Szpruch nous permet ainsi de garder un estimateur Monte-Carlo multi-pas réalisant une complexité optimale $Oleft( epsilon^{-2} right)$ tout en profitant de l'erreur faible d'ordre $2$ du schéma de Ninomiya-Victoir. Dans le troisième chapitre, nous nous sommes intéressés à l'erreur renormalisée définie par $sqrt{N}left(X - X^{NV,eta}right)$. Nous montrons la convergence en loi stable vers la solution d'une EDS affine, dont le terme source est formé des crochets de Lie entre les champs de vecteurs browniens. Ainsi, lorsqu'au moins deux champs de vecteurs browniens ne commutent pas, la limite n'est pas triviale. Ce qui assure que l'ordre fort $1/2$ est optimal. D'autre part, ce résultat peut être vu comme une première étape en vue de prouver un théorème de la limite centrale pour les estimateurs Monte-Carlo multi-pas. Pour cela, il faut analyser l'erreur en loi stable du schéma entre deux niveaux de discrétisation successifs. Ben Alaya et Kebaier ont prouvé un tel résultat pour le schéma d'Euler. Lorsque les champs de vecteurs browniens commutent, le processus limite est nul. Nous montrons que dans ce cas précis, que l'ordre fort est $1$. Dans le chapitre 4, nous étudions la convergence en loi stable de l'erreur renormalisée $Nleft(X - X^{NV}right)$ où $X^{NV}$ est le schéma de Ninomiya-Victoir lorsque les champs de vecteurs browniens commutent. Nous démontrons la convergence du processus d'erreur renormalisé vers la solution d'une EDS affine. Lorsque le champ de vecteurs dritf ne commute pas avec au moins un des champs de vecteurs browniens, la vitesse de convergence forte obtenue précédemment est optimale / This thesis is dedicated to the study of the strong convergence properties of the Ninomiya-Victoir scheme, which is based on the resolution of $d+1$ ordinary differential equations (ODEs) at each time step, to approximate the solution to a stochastic differential equation (SDE), where $d$ is the dimension of the Brownian. This study is aimed at analysing the use of this scheme in a multilevel Monte Carlo estimator. Indeed, the optimal complexity of this method is driven by the order of convergence to zero of the variance between the two schemes used on the coarse and fine grids at each level, which is related to the strong convergence order between the two schemes. In the second chapter, we prove strong convergence with order $1/2$ of the Ninomiya-Victoir scheme $X^{NV,eta}$, with time step $T/N$, to the solution $X$ of the limiting SDE. Recently, Giles and Szpruch proposed a modified Milstein scheme and its antithetic version, based on the swapping of each successive pair of Brownian increments in the scheme, permitting to construct a multilevel Monte Carlo estimator achieving the optimal complexity $Oleft(epsilon^{-2}right)$ for the precision $epsilon$, as in a simple Monte Carlo method with independent and identically distributed unbiased random variables. In the same spirit, we propose a modified Ninomiya-Victoir scheme, which may be strongly coupled with order $1$ to the Giles-Szpruch scheme at the finest level of a multilevel Monte Carlo estimator. This idea is inspired by Debrabant and R"ossler who suggest to use a scheme with high order of weak convergence on the finest grid at the finest level of the multilevel Monte Carlo method. As the optimal number of discretization levels is related to the weak order of the scheme used in the finest grid at the finest level, Debrabant and R"ossler manage to reduce the computational time, by decreasing the number of discretization levels. The coupling with the Giles-Szpruch scheme allows us to combine both ideas. By this way, we preserve the optimal complexity $Oleft(epsilon^{-2}right)$ and we reduce the computational time, since the Ninomiya-Victoir scheme is known to exhibit weak convergence with order 2. In the third chapter, we check that the normalized error defined by $sqrt{N}left(X - X^{NV,eta}right)$ converges to an affine SDE with source terms involving the Lie brackets between the Brownian vector fields. This result ensures that the strong convergence rate is actually $1/2$ when at least two Brownian vector fields do not commute. To link this result to the multilevel Monte Carlo estimator, it can be seen as a first step to adapt to the Ninomiya-Victoir scheme the central limit theorem of Lindeberg Feller type, derived recently by Ben Alaya and Kebaier for the multilevel Monte Carlo estimator based on the Euler scheme. When the Brownian vector fields commute, the limit vanishes. We then prove strong convergence with order $1$ in this case. The fourth chapter deals with the convergence of the normalized error process $Nleft(X - X^{NV}right)$, where $X^{NV}$ is the Ninomiya-Victoir in the commutative case. We prove its stable convergence in law to an affine SDE with source terms involving the Lie brackets between the Brownian vector fields and the drift vector field. This result ensures that the strong convergence rate is actually $1$ when the Brownian vector fields commute, but at least one of them does not commute with the Stratonovich drift vector field
32

Méthodes numériques pour la simulation d'équations aux dérivées partielles stochastiques non-linéaires en condensation de Bose-Einstein / Numerical methods for the simulation of nonlinear stochastic partial differential equations in Bose-Einstein condensation

Poncet, Romain 02 October 2017 (has links)
Cette thèse porte sur l'étude de méthodes numériques pour l'analyse de deux modèles stochastiques apparaissant dans le contexte de la condensation de Bose-Einstein. Ceux-ci constituent deux généralisations de l'équation de Gross-Pitaevskii. Cette équation aux dérivées partielles déterministe modélise la dynamique de la fonction d'onde d'un condensat de Bose-Einstein piégé par un potentiel extérieur confinant.Le premier modèle étudié permet de modéliser les fluctuations de l'intensité du potentiel confinant et prend la forme d'une équation aux dérivées partielles stochastiques. Celles-ci conduisent en pratique à un échauffement du condensat, et parfois mêmeà son effondrement. Nous proposons dans un premier chapitre la construction d'un schéma numérique pour la résolution de ce modèle. Il est fondé sur une discrétisation spectrale en espace, et une discrétisation temporelle de type Crank-Nicolson. Nous démontrons que le schéma proposé converge fortement en probabilité à l'ordre au moins 1 en temps, et nous présentons des simulations numériques illustrant ce résultat. Le deuxième chapitre est consacré à l'étude théorique et numérique de la dynamique d'une solution stationnaire (pour l'équation déterministe) de type vortex. Nous étudions l'influence des perturbations aléatoires du potentiel sur la solution, et montrons que la solution perturbée garde les symétries de la solution stationnaire pour des temps au moins de l'ordre du carré de l'inverse de l'intensité des fluctuations. Ces résultats sont illustrés par des simulations numériques exploitant une méthode de Monte-Carlo adaptée à la simulation d'événements rares.Le deuxième modèle permet de modéliser les effets de la température sur la dynamique d'un condensat. Lorsque celle-ci n'est pas nulle, la condensation n'est pas complète et le condensat interagit avec les particules non condensées. Ces interactions sont d'un grand intérêt pour comprendre la dynamique de transition de phase et analyser les phénomènes de brisure de symétrie associés, comme la formation spontanée de vortex. Nous nous sommes intéressés dans les chapitres 3 et 4 à des questions relatives à la simulation de la distribution des solutions de cette équation en temps long. Le troisième chapitre est consacré à la construction d'une méthode d’échantillonnage sans biais pour des mesures connues à une constante multiplicative près. C'est une méthode de Monte Carlo par chaînes de Markov qui a la particularité de permettre un échantillonnage non-réversible basé sur une équation de type Langevin sur-amortie. Elle constitue une extension de Metropolis-Adjusted Langevin Algorithm (MALA). Le quatrième chapitre est quant à lui consacré à l'étude numérique de dynamiques métastables liées à la nucléation de vortex dans des condensats en rotation. Un intégrateur numérique pour la dynamique étudiée est proposé, ainsi qu'une méthode de Monte-Carlo adaptée à la simulation d'événements rares correspondant aux changements de configurations métastables. Cette dernière est basée sur l'algorithme Adaptive Multilevel Splitting (AMS). / This thesis is devoted to the numerical study of two stochastic models arising in Bose-Einstein condensation physics. They constitute two generalisations of the Gross-Pitaevskii Equation. This deterministic partial differential equation model the wave function dynamics of a Bose-Einstein condensate trapped in an external confining potential. The first chapter contains a simple presentation of the Bose-Einstein condensation phenomenon and of the experimental methods used to construct such systems.The first model considered enables to model the fluctuations of the confining potential intensity, and takes the form of a stochastic partial differential equation. In practice, these fluctuations lead to heating of the condensate and possibly to its collapse. In the second chapter we propose to build a numerical scheme to solve this model. It is based on a spectral space discretisation and a Crank-Nicolson discretisation in space. We show that the proposed scheme converges strongly at order at least one in probability. We also present numerical simulations to illustrate this result. The third chapter is devoted to the numerical and theoretical study of the dynamics of a stationary solution (for the deterministic equation) of vortex type. We study the influence of random disturbances of the confining potential on the solution. We show that the disturbed solution conserves the symmetries of the stationary solution for times up to at least the square of the inverse of the fluctuations intensity. These results are illustrated with numerical simulations based on a Monte-Carlo method suited to rare events estimation.The second model can be used to model the effects of the temperature on the dynamics of a Bose-Einstein condensate. In the case of finite temperature, the Bose-Einstein condensation is not complete and the condensate interacts with the non-condensed particles. These interactions are interesting to understand the dynamics of the phase transition and analyse the phenomena of symmetry breaking associated, like the spontaneous nucleation of vortices We have studied in the fourth and the fifth chapters some questions linked to the long time simulation of this model solutions. The fourth chapter is devoted to the construction of an unbiased sampling method of measures known up to a multiplicative constant. The distinctive feature of this Markov-Chain Monte-Carlo algorithm is that it enables to perform an unbiased non-reversible sampling based on an overdamped Langevin equation. It constitutes a generalization of the Metropolis-Adjusted Langevin Algorithm (MALA). The fifth chapter is devoted to the numerical study of metastable dynamics linked to the nucleation of vortices in rotating Bose-Einstein condensates. A numerical integrator and a suited Monte-Carlo methods for the simulation of metastable dynamics are proposed. This Monte-Carlo method is based on the Adaptive Multilevel Splitting (AMS) algorithm.
33

Around the Langevin Monte Carlo algorithm : extensions and applications / Autour de l'algorithme du Langevin : extensions et applications

Brosse, Nicolas 12 June 2019 (has links)
Cette thèse porte sur le problème de l'échantillonnage en grande dimension et est basée sur l'algorithme de Langevin non ajusté (ULA).Dans une première partie, nous proposons deux extensions d'ULA et fournissons des garanties de convergence précises pour ces algorithmes. ULA n'est pas applicable lorsque la distribution cible est à support compact; grâce à une régularisation de Moreau Yosida, il est néanmoins possible d'échantillonner à partir d'une distribution suffisamment proche de la distribution cible. ULA diverge lorsque les queues de la distribution cible sont trop fines; en renormalisant correctement le gradient, cette difficulté peut être surmontée.Dans une deuxième partie, nous donnons deux applications d'ULA. Nous fournissons un algorithme pour estimer les constantes de normalisation de densités log concaves à partir d'une suite de distributions dont la variance augmente graduellement. En comparant ULA avec la diffusion de Langevin, nous développons une nouvelle méthode de variables de contrôle basée sur la variance asymptotique de la diffusion de Langevin.Dans une troisième partie, nous analysons Stochastic Gradient Langevin Dynamics (SGLD), qui diffère de ULA seulement dans l'estimation stochastique du gradient. Nous montrons que SGLD, appliqué avec des paramètres habituels, peut être très éloigné de la distribution cible. Cependant, avec une technique appropriée de réduction de variance, son coût calcul peut être bien inférieur à celui d'ULA pour une précision similaire. / This thesis focuses on the problem of sampling in high dimension and is based on the unadjusted Langevin algorithm (ULA).In a first part, we suggest two extensions of ULA and provide precise convergence guarantees for these algorithms. ULA is not feasible when the target distribution is compactly supported; thanks to a Moreau Yosida regularization, it is nevertheless possible to sample from a probability distribution close enough to the distribution of interest. ULA diverges when the tails of the target distribution are too thin; by taming appropriately the gradient, this difficulty can be overcome.In a second part, we give two applications of ULA. We provide an algorithm to estimate normalizing constants of log concave densities based on a sequence of distributions with increasing variance. By comparison of ULA with the Langevin diffusion, we develop a new control variates methodology based on the asymptotic variance of the Langevin diffusion.In a third part, we analyze Stochastic Gradient Langevin Dynamics (SGLD), which differs from ULA only in the stochastic estimation of the gradient. We show that SGLD, applied with usual parameters, may be very far from the target distribution. However, with an appropriate variance reduction technique, its computational cost can be much lower than ULA for the same accuracy.
34

Utilisation de splines monotones afin de condenser des tables de mortalité dans un contexte bayésien

Patenaude, Valérie 04 1900 (has links)
Dans ce mémoire, nous cherchons à modéliser des tables à deux entrées monotones en lignes et/ou en colonnes, pour une éventuelle application sur les tables de mortalité. Nous adoptons une approche bayésienne non paramétrique et représentons la forme fonctionnelle des données par splines bidimensionnelles. L’objectif consiste à condenser une table de mortalité, c’est-à-dire de réduire l’espace d’entreposage de la table en minimisant la perte d’information. De même, nous désirons étudier le temps nécessaire pour reconstituer la table. L’approximation doit conserver les mêmes propriétés que la table de référence, en particulier la monotonie des données. Nous travaillons avec une base de fonctions splines monotones afin d’imposer plus facilement la monotonie au modèle. En effet, la structure flexible des splines et leurs dérivées faciles à manipuler favorisent l’imposition de contraintes sur le modèle désiré. Après un rappel sur la modélisation unidimensionnelle de fonctions monotones, nous généralisons l’approche au cas bidimensionnel. Nous décrivons l’intégration des contraintes de monotonie dans le modèle a priori sous l’approche hiérarchique bayésienne. Ensuite, nous indiquons comment obtenir un estimateur a posteriori à l’aide des méthodes de Monte Carlo par chaînes de Markov. Finalement, nous étudions le comportement de notre estimateur en modélisant une table de la loi normale ainsi qu’une table t de distribution de Student. L’estimation de nos données d’intérêt, soit la table de mortalité, s’ensuit afin d’évaluer l’amélioration de leur accessibilité. / This master’s thesis is about the estimation of bivariate tables which are monotone within the rows and/or the columns, with a special interest in the approximation of life tables. This problem is approached through a nonparametric Bayesian regression model, in particular linear combinations of regression splines. By condensing a life table, our goal is to reduce its storage space without losing the entries’ accuracy. We will also study the reconstruction time of the table with our estimators. The properties of the reference table, specifically its monotonicity, must be preserved in the estimation. We are working with a monotone spline basis since splines are flexible and their derivatives can easily be manipulated. Those properties enable the imposition of constraints of monotonicity on our model. A brief review on univariate approximations of monotone functions is then extended to bivariate estimations. We use hierarchical Bayesian modeling to include the constraints in the prior distributions. We then explain the Markov chain Monte Carlo algorithm to obtain a posterior estimator. Finally, we study the estimator’s behaviour by applying our model on the Standard Normal table and the Student’s t table. We estimate our data of interest, the life table, to establish the improvement in data accessibility.
35

Mélanges bayésiens de modèles d'extrêmes multivariés : application à la prédétermination régionale des crues avec données incomplètes / Bayesian model mergings for multivariate extremes : application to regional predetermination of floods with incomplete data

Sabourin, Anne 24 September 2013 (has links)
La théorie statistique univariée des valeurs extrêmes se généralise au cas multivarié mais l'absence d'un cadre paramétrique naturel complique l'inférence de la loi jointe des extrêmes. Les marges d'erreur associée aux estimateurs non paramétriques de la structure de dépendance sont difficilement accessibles à partir de la dimension trois. Cependant, quantifier l'incertitude est d'autant plus important pour les applications que le problème de la rareté des données extrêmes est récurrent, en particulier en hydrologie. L'objet de cette thèse est de développer des modèles de dépendance entre extrêmes, dans un cadre bayésien permettant de représenter l'incertitude. Le chapitre 2 explore les propriétés des modèles obtenus en combinant des modèles paramétriques existants, par mélange bayésien (Bayesian Model Averaging BMA). Un modèle semi-paramétrique de mélange de Dirichlet est étudié au chapitre suivant : une nouvelle paramétrisation est introduite afin de s'affranchir d'une contrainte de moments caractéristique de la structure de dépendance et de faciliter l'échantillonnage de la loi à posteriori. Le chapitre 4 est motivé par une application hydrologique : il s'agit d'estimer la structure de dépendance spatiale des crues extrêmes dans la région cévenole des Gardons en utilisant des données historiques enregistrées en quatre points. Les données anciennes augmentent la taille de l'échantillon mais beaucoup de ces données sont censurées. Une méthode d'augmentation de données est introduite, dans le cadre du mélange de Dirichlet, palliant l'absence d'expression explicite de la vraisemblance censurée. Les conclusions et perspectives sont discutées au chapitre 5 / Uni-variate extreme value theory extends to the multivariate case but the absence of a natural parametric framework for the joint distribution of extremes complexifies inferential matters. Available non parametric estimators of the dependence structure do not come with tractable uncertainty intervals for problems of dimension greater than three. However, uncertainty estimation is all the more important for applied purposes that data scarcity is a recurrent issue, particularly in the field of hydrology. The purpose of this thesis is to develop modeling tools for the dependence structure between extremes, in a Bayesian framework that allows uncertainty assessment. Chapter 2 explores the properties of the model obtained by combining existing ones, in a Bayesian Model Averaging framework. A semi-parametric Dirichlet mixture model is studied next : a new parametrization is introduced, in order to relax a moments constraint which characterizes the dependence structure. The re-parametrization significantly improves convergence and mixing properties of the reversible-jump algorithm used to sample the posterior. The last chapter is motivated by an hydrological application, which consists in estimating the dependence structure of floods recorded at four neighboring stations, in the ‘Gardons’ region, southern France, using historical data. The latter increase the sample size but most of them are censored. The lack of explicit expression for the likelihood in the Dirichlet mixture model is handled by using a data augmentation framework
36

Reconstruction de profils moléculaires : modélisation et inversion d'une chaîne de mesure protéomique

Strubel, Grégory 01 December 2008 (has links) (PDF)
Des systèmes basés sur la chromatographie et la spectrométrie de masse sont utilisés pour analyser les échantillons biologiques comme l'urine ou le sang. Cette thèse propose une méthode, qui à partir des données, mesure la concentration de biomarqueurs. Dans la première partie du travail, nous élaborons un modèle décrivant chaque module de la chaîne d'analyse. Cependant, pour s'abstraire des fluctuations expérimentales, notre méthode doit évaluer certains paramètres instrument en plus des concentrations. La seconde partie consiste à traiter ce problème d'estimation non linéaire dans le cadre des approches statistiques bayésiennes. Cette démarche nous permet d'introduire de l'information supplémentaire, sous la forme de lois de probabilité, afin de régulariser le problème. La méthode est structurée autour d'un estimateur de la moyenne a posteriori. Sa mise en œuvre algorithmique utilise une boucle de Gibbs incluant un échantillonneur de Metropolis-Hastings.
37

Contributions à l'analyse numérique des méthodes quasi-Monte Carlo

Coulibaly, Ibrahim 03 November 1997 (has links) (PDF)
Les méthodes de type quasi-Monte Carlo sont des versions déterministes des méthodes de Monte Carlo. Les nombres aléatoires sont remplacés par des nombres déterministes qui forment des ensembles ou des suites à faible discrepance, ayant une meilleure distribution uniforme. L'erreur d'une méthode quasi-Monte Carlo dépend de la discrepance de la suite utilisée, la discrepance étant une mesure de la déviation par rapport à la distribution uniforme. Dans un premier temps nous nous intéressons à la résolution par des méthodes quasi-Monte Carlo d'équations différentielles pour lesquelles il y a peu de régularité en temps. Ces méthodes consistent à formuler le problème avec un terme intégral pour effectuer ensuite une quadrature quasi-Monte Carlo. Ensuite des méthodes particulaires quasi-Monte Carlo sont proposées pour résoudre les équations cinétiques suivantes : l'équation de Boltzmann linéaire et le modèle de Kac. Enfin, nous nous intéressons à la résolution de l'équation de la diffusion à l'aide de méthodes particulaires utilisant des marches quasi-aléatoires. Ces méthodes comportent trois étapes : un schéma d'Euler en temps, une approximation particulaire et une quadrature quasi-Monte Carlo à l'aide de réseaux-$(0,m,s)$. A chaque pas de temps les particules sont réparties par paquets dans le cas des problèmes multi-dimensionnels ou triées si le problème est uni-dimensionnel. Ceci permet de démontrer la convergence. Les tests numériques montrent pour les méthodes de type quasi-Monte Carlo de meilleurs résultats que ceux fournis par les méthodes de type Monte Carlo.
38

Some Signal Processing Techniques for Wireless Cooperative Localization and Tracking

NOUREDDINE AL MOUSSAWI, Hadi 16 November 2012 (has links) (PDF)
Les avancements des technologies de l'information et des systèmes de communication ont permis le développement d'une grande variété d'applications et de services de géolocalisation. Les systèmes de positionnement par satellites figurent parmi les solutions principales de localisation. Dans des environnements difficiles (par exemples, les canyons urbains ou à l'intérieur des bâtiments), ces solutions ne fournissent pas une bonne précision, ou même deviennent indisponibles. Afin d'offrir des solutions de localisation précises et disponibles quelque soit l'environnement, les systèmes de communication sans fil ont été utilisés, où plusieurs paramètres topo-dépendants des signaux transmis peuvent être mesurés et exploités (par exemple, le temps d'arrivée (ToA), la puissance du signal reçu (RSS)). Dans ce travail, la localisation dans les systèmes sans fil est étudié d¿un point de vue traitement statistique du signal, et en explorant deux axes. Le premier axe concerne la localisation coopérative appliquée aux réseaux ad-hoc, où les différents n¿uds effectuent des mesures de distance par paire (c.à.d. ToA ou RSS) afin d'estimer simultanément leurs positions. Les conditions de solvabilité unique sont étudiées en s'appuyant sur les deux approches de la rigidité graphique et la programmation semi-définie, et ainsi les conditions d'identifiabilité sont déduites. Les solutions d'estimation de la position sont considérées en se concentrant sur l'estimation probabiliste et son application dans des champs aléatoires de Markov et ce en utilisant l¿algorithme de propagation de croyance non-paramétrique (NBP). Le deuxième axe concerne la poursuite des terminaux mobiles en se basant sur des mesures RSS. Ces mesures sont affectées par un phénomène de masquage (shadowing). L'amélioration apportée à la précision de positionnement par la connaissance des cartes de shadowing est étudiée. La solution classique pour l'obtention de ces cartes est le fingerprinting, qui peut être coûteux en temps de collecte de mesures. Des solutions sont développées afin de surmonter ces difficultés. Plusieurs solutions sont proposées et étudiées par des simulations de Monte Carlo pour différents scénarios d'application et de déploiement, et plusieurs résultats théoriques et pratiques sont obtenus.
39

Inférence bayésienne pour la détermination et la<br />sélection de modèles stochastiques

Caron, Francois 10 November 2006 (has links) (PDF)
On s'intéresse à l'ajout d'incertitudes supplémentaires dans les modèles de Markov cachés. L'inférence est réalisée dans un cadre bayésien à l'aide des méthodes de Monte Carlo. Dans un cadre multicapteur, on suppose que chaque capteur peut commuter entre plusieurs états de fonctionnement. Un modèle à saut original est développé et des algorithmes de Monte Carlo efficaces sont présentés pour différents types de situations, prenant en compte des données synchrones/asynchrones et le cas binaire capteur valide/défaillant. Le modèle/algorithme développé est appliqué à la localisation d'un véhicule terrestre équipé de trois capteurs, dont un récepteur GPS, potentiellement défaillant à cause de phénomènes de trajets multiples. <br />On s'intéresse ensuite à l'estimation de la densité de probabilité des bruits d'évolution et de mesure dans les modèles de Markov cachés, à l'aide des mélanges de processus de Dirichlet. Le cas de modèles linéaires est tout d'abord étudié, et des algorithmes MCMC et de filtrage particulaire sont développés. Ces algorithmes sont testés sur trois applications différentes. Puis le cas de l'estimation des densités de probabilité des bruits dans les modèles non linéaires est étudié. On définit pour cela des processus de Dirichlet variant temporellement, permettant l'estimation en ligne d'une densité de probabilité non stationnaire.
40

Utilisation de splines monotones afin de condenser des tables de mortalité dans un contexte bayésien

Patenaude, Valérie 04 1900 (has links)
Dans ce mémoire, nous cherchons à modéliser des tables à deux entrées monotones en lignes et/ou en colonnes, pour une éventuelle application sur les tables de mortalité. Nous adoptons une approche bayésienne non paramétrique et représentons la forme fonctionnelle des données par splines bidimensionnelles. L’objectif consiste à condenser une table de mortalité, c’est-à-dire de réduire l’espace d’entreposage de la table en minimisant la perte d’information. De même, nous désirons étudier le temps nécessaire pour reconstituer la table. L’approximation doit conserver les mêmes propriétés que la table de référence, en particulier la monotonie des données. Nous travaillons avec une base de fonctions splines monotones afin d’imposer plus facilement la monotonie au modèle. En effet, la structure flexible des splines et leurs dérivées faciles à manipuler favorisent l’imposition de contraintes sur le modèle désiré. Après un rappel sur la modélisation unidimensionnelle de fonctions monotones, nous généralisons l’approche au cas bidimensionnel. Nous décrivons l’intégration des contraintes de monotonie dans le modèle a priori sous l’approche hiérarchique bayésienne. Ensuite, nous indiquons comment obtenir un estimateur a posteriori à l’aide des méthodes de Monte Carlo par chaînes de Markov. Finalement, nous étudions le comportement de notre estimateur en modélisant une table de la loi normale ainsi qu’une table t de distribution de Student. L’estimation de nos données d’intérêt, soit la table de mortalité, s’ensuit afin d’évaluer l’amélioration de leur accessibilité. / This master’s thesis is about the estimation of bivariate tables which are monotone within the rows and/or the columns, with a special interest in the approximation of life tables. This problem is approached through a nonparametric Bayesian regression model, in particular linear combinations of regression splines. By condensing a life table, our goal is to reduce its storage space without losing the entries’ accuracy. We will also study the reconstruction time of the table with our estimators. The properties of the reference table, specifically its monotonicity, must be preserved in the estimation. We are working with a monotone spline basis since splines are flexible and their derivatives can easily be manipulated. Those properties enable the imposition of constraints of monotonicity on our model. A brief review on univariate approximations of monotone functions is then extended to bivariate estimations. We use hierarchical Bayesian modeling to include the constraints in the prior distributions. We then explain the Markov chain Monte Carlo algorithm to obtain a posterior estimator. Finally, we study the estimator’s behaviour by applying our model on the Standard Normal table and the Student’s t table. We estimate our data of interest, the life table, to establish the improvement in data accessibility.

Page generated in 0.4748 seconds