• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 34
  • 9
  • 5
  • Tagged with
  • 49
  • 49
  • 17
  • 16
  • 13
  • 13
  • 13
  • 12
  • 11
  • 10
  • 10
  • 9
  • 9
  • 9
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Estimation Bayésienne non Paramétrique de Systèmes Dynamiques en Présence de Bruits Alpha-Stables

Jaoua, Nouha 06 June 2013 (has links) (PDF)
Dans un nombre croissant d'applications, les perturbations rencontrées s'éloignent fortement des modèles classiques qui les modélisent par une gaussienne ou un mélange de gaussiennes. C'est en particulier le cas des bruits impulsifs que nous rencontrons dans plusieurs domaines, notamment celui des télécommunications. Dans ce cas, une modélisation mieux adaptée peut reposer sur les distributions alpha-stables. C'est dans ce cadre que s'inscrit le travail de cette thèse dont l'objectif est de concevoir de nouvelles méthodes robustes pour l'estimation conjointe état-bruit dans des environnements impulsifs. L'inférence est réalisée dans un cadre bayésien en utilisant les méthodes de Monte Carlo séquentielles. Dans un premier temps, cette problématique a été abordée dans le contexte des systèmes de transmission OFDM en supposant que les distorsions du canal sont modélisées par des distributions alpha-stables symétriques. Un algorithme de Monte Carlo séquentiel a été proposé pour l'estimation conjointe des symboles OFDM émis et des paramètres du bruit $\alpha$-stable. Ensuite, cette problématique a été abordée dans un cadre applicatif plus large, celui des systèmes non linéaires. Une approche bayésienne non paramétrique fondée sur la modélisation du bruit alpha-stable par des mélanges de processus de Dirichlet a été proposée. Des filtres particulaires basés sur des densités d'importance efficaces sont développés pour l'estimation conjointe du signal et des densités de probabilité des bruits
32

Méthodes de lissage et d'estimation dans des modèles à variables latentes par des méthodes de Monte-Carlo séquentielles / Smoothing and estimation methods in hidden variable models through sequential Monte-Carlo methods

Dubarry, Cyrille 09 October 2012 (has links)
Les modèles de chaînes de Markov cachées ou plus généralement ceux de Feynman-Kac sont aujourd'hui très largement utilisés. Ils permettent de modéliser une grande diversité de séries temporelles (en finance, biologie, traitement du signal, ...) La complexité croissante de ces modèles a conduit au développement d'approximations via différentes méthodes de Monte-Carlo, dont le Markov Chain Monte-Carlo (MCMC) et le Sequential Monte-Carlo (SMC). Les méthodes de SMC appliquées au filtrage et au lissage particulaires font l'objet de cette thèse. Elles consistent à approcher la loi d'intérêt à l'aide d'une population de particules définies séquentiellement. Différents algorithmes ont déjà été développés et étudiés dans la littérature. Nous raffinons certains de ces résultats dans le cas du Forward Filtering Backward Smoothing et du Forward Filtering Backward Simulation grâce à des inégalités de déviation exponentielle et à des contrôles non asymptotiques de l'erreur moyenne. Nous proposons également un nouvel algorithme de lissage consistant à améliorer une population de particules par des itérations MCMC, et permettant d'estimer la variance de l'estimateur sans aucune autre simulation. Une partie du travail présenté dans cette thèse concerne également les possibilités de mise en parallèle du calcul des estimateurs particulaires. Nous proposons ainsi différentes interactions entre plusieurs populations de particules. Enfin nous illustrons l'utilisation des chaînes de Markov cachées dans la modélisation de données financières en développant un algorithme utilisant l'Expectation-Maximization pour calibrer les paramètres du modèle exponentiel d'Ornstein-Uhlenbeck multi-échelles / Hidden Markov chain models or more generally Feynman-Kac models are now widely used. They allow the modelling of a variety of time series (in finance, biology, signal processing, ...) Their increasing complexity gave birth to approximations using Monte-Carlo methods, among which Markov Chain Monte-Carlo (MCMC) and Sequential Monte-Carlo (SMC). SMC methods applied to particle filtering and smoothing are dealt with in this thesis. These methods consist in approximating the law of interest through a particle population sequentially defined. Different algorithms have already been developed and studied in the literature. We make some of these results more precise in the particular of the Forward Filtering Backward Smoothing and Forward Filtering Backward Simulation by showing exponential deviation inequalities and by giving non-asymptotic upper bounds to the mean error. We also introduce a new smoothing algorithm improving a particle population through MCMC iterations and allowing to estimate the estimator variance without further simulation. Part of the work presented in this thesis is devoted to the parallel computing of particle estimators. We study different interaction schemes between several particle populations. Finally, we also illustrate the use of hidden Markov chains in the modelling of financial data through an algorithm using Expectation-Maximization to calibrate the exponential Ornstein-Uhlenbeck multiscale stochastic volatility model
33

Contributions aux méthodes de Monte Carlo et leur application au filtrage statistique / Contributions to Monte Carlo methods and their application to statistical filtering

Lamberti, Roland 22 November 2018 (has links)
Cette thèse s’intéresse au problème de l’inférence bayésienne dans les modèles probabilistes dynamiques. Plus précisément nous nous focalisons sur les méthodes de Monte Carlo pour l’intégration. Nous revisitons tout d’abord le mécanisme d’échantillonnage d’importance avec rééchantillonnage, puis son extension au cadre dynamique connue sous le nom de filtrage particulaire, pour enfin conclure nos travaux par une application à la poursuite multi-cibles.En premier lieu nous partons du problème de l’estimation d’un moment suivant une loi de probabilité, connue à une constante près, par une méthode de Monte Carlo. Tout d’abord,nous proposons un nouvel estimateur apparenté à l’estimateur d’échantillonnage d’importance normalisé mais utilisant deux lois de proposition différentes au lieu d’une seule. Ensuite,nous revisitons le mécanisme d’échantillonnage d’importance avec rééchantillonnage dans son ensemble afin de produire des tirages Monte Carlo indépendants, contrairement au mécanisme usuel, et nous construisons ainsi deux nouveaux estimateurs.Dans un second temps nous nous intéressons à l’aspect dynamique lié au problème d’inférence bayésienne séquentielle. Nous adaptons alors dans ce contexte notre nouvelle technique de rééchantillonnage indépendant développée précédemment dans un cadre statique.Ceci produit le mécanisme de filtrage particulaire avec rééchantillonnage indépendant, que nous interprétons comme cas particulier de filtrage particulaire auxiliaire. En raison du coût supplémentaire en tirages requis par cette technique, nous proposons ensuite une procédure de rééchantillonnage semi-indépendant permettant de le contrôler.En dernier lieu, nous considérons une application de poursuite multi-cibles dans un réseau de capteurs utilisant un nouveau modèle bayésien, et analysons empiriquement les résultats donnés dans cette application par notre nouvel algorithme de filtrage particulaire ainsi qu’un algorithme de Monte Carlo par Chaînes de Markov séquentiel / This thesis deals with integration calculus in the context of Bayesian inference and Bayesian statistical filtering. More precisely, we focus on Monte Carlo integration methods. We first revisit the importance sampling with resampling mechanism, then its extension to the dynamic setting known as particle filtering, and finally conclude our work with a multi-target tracking application. Firstly, we consider the problem of estimating some moment of a probability density, known up to a constant, via Monte Carlo methodology. We start by proposing a new estimator affiliated with the normalized importance sampling estimator but using two proposition densities rather than a single one. We then revisit the importance sampling with resampling mechanism as a whole in order to produce Monte Carlo samples that are independent, contrary to the classical mechanism, which enables us to develop two new estimators. Secondly, we consider the dynamic aspect in the framework of sequential Bayesian inference. We thus adapt to this framework our new independent resampling technique, previously developed in a static setting. This yields the particle filtering with independent resampling mechanism, which we reinterpret as a special case of auxiliary particle filtering. Because of the increased cost required by this technique, we next propose a semi independent resampling procedure which enables to control this additional cost. Lastly, we consider an application of multi-target tracking within a sensor network using a new Bayesian model, and empirically analyze the results from our new particle filtering algorithm as well as a sequential Markov Chain Monte Carlo algorithm
34

Contribution au positionnement des véhicules communicants fondé sur les récepteurs GPS et les systèmes de vision / Contribution of communicant vehicles positionning using GPS receivers and vision systems

Challita, Georges 16 September 2009 (has links)
Ces travaux de thèse sont réalisés au sein de l’équipe STI du laboratoire LITIS, en collaboration avec le centre de robotique CAOR de l’école des mines de Paris et l’INRIA Rocquencourt dont ils ont utilisé la plateforme du prototype LARA composée de véhicules instrumentés. L’objectif est de contribuer à la localisation des véhicules intelligents équipés de récepteurs GPS (Global Positionning System), de systèmes de vision et du matériel de communication permettant la coopération entre ces véhicules. En milieu urbain, les performances du GPS sont fortement dégradées. La réception du signal GPS souffre de masquages ou de mauvaises configurations géométriques des satellites. De plus, la qualité du signal peut être corrompue à cause du phénomène de multi-trajets lié à la réflexion du signal sur les bâtiments, tunnels... Alors la robustesse, la précision et la disponibilité de l’estimation de la position peut décroître significativement. D’où la nécessité d’une source d’information complémentaire pour compenser les faiblesses du récepteur GPS. L’originalité de nos travaux consiste à utiliser les données exploitées par notre système de vision. Le système de vision utilisé est basé sur une caméra (monovision). Il permet la détection robuste des obstacles sur la route, ainsi que la détection de la pluie. Le calcul de la distance de l’obstacle à notre véhicule est réalisé à l’aide du modèle sténopé et l’hypothèse de la route plane. Les véhicules utilisant des systèmes de communication sans fil basé sur la norme 802.11g+ coopèrent entre eux en échangeant leurs coordonnées GPS si elles sont disponibles. Cette coopération permet de connaître la position des véhicules qui nous entourent. Le système de communication est aussi utilisé pour l’alerte météorologique V2I ou V2V en utilisant la détection de la pluie réalisée en collaboration avec Valeo. Pour réaliser le positionnement relatif fiable, nous avons mis en oeuvre un algorithme de suivi basé sur le filtrage particulaire. Cette méthode permet de fusionner les données en utilisant les techniques probabilistes lors des différentes étapes du filtre. Finalement, une validation expérimentale en temps réel sur les véhicules du prototype LARA a été réalisée sur différents scénarios. / This thesis work realised at the STI team of the LITIS Laboratory, in collaboration with the Center of Robotics CAOR at the Ecole des Mines of Paris and the INRIA Rocquencourt, and tested on the prototype LARA. The aim is to better positionning of intelligent vehicles equipped with GPS, vision systems and communication devices used for cooperation between vehicles. In urban areas, The usage of GPS is not always ideal because of the poorness of the satellite coverage. Sometimes, the GPS signal may be also corrupted by multipath reflections due to tunnels, high buildings, electronic interferences etc. So, in order to accurate the vehicle positioning in the navigation application, the GPS data will be enhanced with vision data using communication between vehicles. The vision system is based on a monocular real-time vision-based vehicle detection. We can calculate the distance between vehicles using the pinhole model. We developped a rain detection system using the same camera. The inter-vehicle cooperation is made possible thanks to the revolution in the wireless mobile ad hoc network. Localization information can be exchanged between the vehicles through a wireless communication devices. The creation of the system will adopt the Monte Carlo Method or what we call a particle filter for the treatment of the GPS data and vision data. An experimental study of this system is performed on our fleet of experimental communicating vehicles LARA.
35

State estimation and trajectory planning using box particle kernels / Estimation d'état et planification de trajectoire par mixtures de noyaux bornés

Merlinge, Nicolas 29 October 2018 (has links)
L'autonomie d'un engin aérospatial requière de disposer d'une boucle de navigation-guidage-pilotage efficace et sûre. Cette boucle intègre des filtres estimateurs et des lois de commande qui doivent dans certains cas s'accommoder de non-linéarités sévères et être capables d'exploiter des mesures ambiguës. De nombreuses approches ont été développées à cet effet et parmi celles-ci, les approches particulaires présentent l'avantage de pouvoir traiter de façon unifiée des problèmes dans lesquels les incertitudes d’évolution du système et d’observation peuvent être soumises à des lois statistiques quelconques. Cependant, ces approches ne sont pas exemptes de défauts dont le plus important est celui du coût de calcul élevé. D'autre part, dans certains cas, ces méthodes ne permettent pas non plus de converger vers une solution acceptable. Des adaptations récentes de ces approches, combinant les avantages du particulaire tel que la possibilité d'extraire la recherche d'une solution d'un domaine local de description et la robustesse des approches ensemblistes, ont été à l'origine du travail présenté dans cette thèse.Cette thèse présente le développement d’un algorithme d’estimation d’état, nommé le Box Regularised Particle Filter (BRPF), ainsi qu’un algorithme de commande, le Box Particle Control (BPC). Ces algorithmes se basent tous deux sur l’utilisation de mixtures de noyaux bornés par des boites (i.e., des vecteurs d’intervalles) pour décrire l’état du système sous la forme d’une densité de probabilité multimodale. Cette modélisation permet un meilleur recouvrement de l'espace d'état et apporte une meilleure cohérence entre la prédite et la vraisemblance. L’hypothèse est faite que les incertitudes incriminées sont bornées. L'exemple d'application choisi est la navigation par corrélation de terrain qui constitue une application exigeante en termes d'estimation d'état.Pour traiter des problèmes d’estimation ambiguë, c’est-à-dire lorsqu’une valeur de mesure peut correspondre à plusieurs valeurs possibles de l’état, le Box Regularised Particle Filter (BRPF) est introduit. Le BRPF est une évolution de l’algorithme de Box Particle Filter (BPF) et est doté d’une étape de ré-échantillonnage garantie et d’une stratégie de lissage par noyau (Kernel Regularisation). Le BRPF assure théoriquement une meilleure estimation que le BPF en termes de Mean Integrated Square Error (MISE). L’algorithme permet une réduction significative du coût de calcul par rapport aux approches précédentes (BPF, PF). Le BRPF est également étudié dans le cadre d’une intégration dans des architectures fédérées et distribuées, ce qui démontre son efficacité dans des cas multi-capteurs et multi-agents.Un autre aspect de la boucle de navigation–guidage-pilotage est le guidage qui nécessite de planifier la future trajectoire du système. Pour tenir compte de l'incertitude sur l'état et des contraintes potentielles de façon versatile, une approche nommé Box Particle Control (BPC) est introduite. Comme pour le BRPF, le BPC se base sur des mixtures de noyaux bornés par des boites et consiste en la propagation de la densité d’état sur une trajectoire jusqu’à un certain horizon de prédiction. Ceci permet d’estimer la probabilité de satisfaire les contraintes d’état au cours de la trajectoire et de déterminer la séquence de futures commandes qui maintient cette probabilité au-delà d’un certain seuil, tout en minimisant un coût. Le BPC permet de réduire significativement la charge de calcul. / State estimation and trajectory planning are two crucial functions for autonomous systems, and in particular for aerospace vehicles.Particle filters and sample-based trajectory planning have been widely considered to tackle non-linearities and non-Gaussian uncertainties.However, these approaches may produce erratic results due to the sampled approximation of the state density.In addition, they have a high computational cost which limits their practical interest.This thesis investigates the use of box kernel mixtures to describe multimodal probability density functions.A box kernel mixture is a weighted sum of basic functions (e.g., uniform kernels) that integrate to unity and whose supports are bounded by boxes, i.e., vectors of intervals.This modelling yields a more extensive description of the state density while requiring a lower computational load.New algorithms are developed, based on a derivation of the Box Particle Filter (BPF) for state estimation, and of a particle based chance constrained optimisation (Particle Control) for trajectory planning under uncertainty.In order to tackle ambiguous state estimation problems, a Box Regularised Particle Filter (BRPF) is introduced.The BRPF consists of an improved BPF with a guaranteed resampling step and a smoothing strategy based on kernel regularisation.The proposed strategy is theoretically proved to outperform the original BPF in terms of Mean Integrated Square Error (MISE), and empirically shown to reduce the Root Mean Square Error (RMSE) of estimation.BRPF reduces the computation load in a significant way and is robust to measurement ambiguity.BRPF is also integrated to federated and distributed architectures to demonstrate its efficiency in multi-sensors and multi-agents systems.In order to tackle constrained trajectory planning under non-Gaussian uncertainty, a Box Particle Control (BPC) is introduced.BPC relies on an interval bounded kernel mixture state density description, and consists of propagating the state density along a state trajectory at a given horizon.It yields a more accurate description of the state uncertainty than previous particle based algorithms.A chance constrained optimisation is performed, which consists of finding the sequence of future control inputs that minimises a cost function while ensuring that the probability of constraint violation (failure probability) remains below a given threshold.For similar performance, BPC yields a significant computation load reduction with respect to previous approaches.
36

Contributions aux pistages mono et multi-cibles fondés sur les ensembles finis aléatoires / Contributions to single and multi-target tracking based on random finite sets

Legrand, Leo 05 July 2019 (has links)
La détection et le pistage de cibles de surface, maritimes ou terrestres, constituent l’un des champs d’application de la surveillance par radar aéroporté. Dans ce contexte spécifique, il s’agit d’estimer les trajectoires d’un ou de plusieurs objets mobiles au cours du temps à partir de mesures radar bruitées. Cependant, plusieurs contraintes s’additionnent au problème d’estimation des trajectoires :1. le nombre d’objets présents dans la région d’intérêt est inconnu et peut évoluer au cours du temps,2. les mesures fournies par le radar ne correspondent pas toutes à des objets mobiles car certaines sont dues à l’environnement ; il s’agit de fausses alarmes,3. une mesure n’est pas toujours disponible pour chaque objet à chaque instant ; il s’agit de non-détections,4. les cibles de surface peuvent être très diverses en termes de capacité de manoeuvre.Pour tenir compte des trois premières exigences, les modèles d’ensembles finis aléatoires peuvent être envisagés pour procéder aux estimations simultanées du nombre d’objets et de leur trajectoire dans un formalisme bayésien. Pour répondre à la quatrième contrainte, une classification des objets à pister peut s’avérer utile. Aussi, dans le cadre de cette thèse, nous nous intéressons à deux traitements adaptatifs qui intègrent ces deux principes.Tout d’abord, nous proposons une approche conjointe de pistage et de classification dédiée au cas d’un objet évoluant en présence de fausses alarmes. Notre contribution réside dans le développement d’un algorithme incorporant un filtre fondé sur un ensemble fini aléatoire de Bernoulli. L’algorithme résultant combine robustesse aux fausses alarmes et capacité à classer l’objet. Cette classification peut être renforcée grâce à l’estimation d’un paramètre discriminant comme la longueur, qui est déduite d’une mesure d’étalement distance.Le second traitement adaptatif présenté dans cette thèse est une technique de pistage de groupes de cibles dont les mouvements sont coordonnés. Chaque groupe est caractérisé par un paramètre commun définissant la coordination des mouvements de ses cibles. Cependant, ces dernières conservent une capacité de manoeuvre propre par rapport à la dynamique de groupe. S’appuyant sur le formalisme des ensembles finis aléatoires, la solution proposée modélise hiérarchiquement la configuration multi-groupes multi-cibles. Au niveau supérieur, la situation globale est représentée par un ensemble fini aléatoire dont les éléments correspondent aux groupes de cibles. Ils sont constitués du paramètredu groupe et d’un ensemble fini aléatoire multi-cibles. Ce dernier contient les vecteurs d’état des cibles du groupe dont le nombre peut évoluer au cours du temps. L’algorithme d’estimation développé est lui-aussi organisé de manière hiérarchique. Un filtre multi-Bernoulli labélisé (LMB) permet d’estimer le nombre de groupes, puis pour chacun d’entre eux, leur probabilité d’existence ainsi que leur paramètre commun. Pour ce faire, le filtre LMB interagit avec un banc de filtres multi-cibles qui opèrent conditionnellement à une hypothèse de groupe. Chaque filtre multi-cibles estime le nombre et les vecteurs d’état des objets du groupe. Cette approche permet de fournir à l’opérationnel des informations sur la situation tactique. / Detecting and tracking maritime or ground targets is one of the application fields for surveillance by airborne radar systems. In this specific context, the goal is to estimate the trajectories of one or more moving objects over time by using noisy radar measurements. However, several constraints have to be considered in addition to the problem of estimating trajectories:1. the number of objects inside the region of interest is unknown and may change over time,2. the measurements provided by the radar can arise from the environment and do not necessarily correspond to a mobile object; the phenomenon is called false detection,3. a measurement is not always available for each object; the phenomenon is called non-detection,4. the maneuverability depends on the surface targets.Concerning the three first points, random finite set models can be considered to simultaneously estimate the number of objects and their trajectories in a Bayesian formalism. To deal with the fourth constraint, a classification of the objects to be tracked can be useful. During this PhD thesis, we developped two adaptive approaches that take into account both principles.First of all, we propose a joint target tracking and classification method dedicated to an object with the presence of false detections. Our contribution is to incorporate a filter based on a Bernoulli random finite set. The resulting algorithm combines robustness to the false detections and the ability to classify the object. This classification can exploit the estimation of a discriminating parameter such as the target length that can be deduced from a target length extent measurement.The second adaptive approach presented in this PhD dissertation aims at tracking target groups whose movements are coordinated. Each group is characterized by a common parameter defining the coordination of the movements of its targets. However, the targets keep their own capabilities of maneuvering relatively to the group dynamics. Based on the random finite sets formalism, the proposed solution represents the multi-target multi-group configuration hierarchically. At the top level, the overall situation is modeled by a random finite set whose elements correspond to the target groups. They consist of the common parameter of the group and a multi-target random finite set. The latter contains the state vectors of the targets of the group whose number may change over time. The estimation algorithm developed is also organized hierarchically. A labeled multi-Bernoulli filter (LMB) makes it possible to estimate the number of groups, and for each of them, to obtain their probability of existence as well as their common parameter. For this purpose, the LMB filter interacts with a bank of multi-target filters working conditionally to a group hypothesis. Each multi-target filter estimates the number and state vectors of the objects in the group. This approach provides operational information on the tactical situation.
37

Some Signal Processing Techniques for Wireless Cooperative Localization and Tracking

NOUREDDINE AL MOUSSAWI, Hadi 16 November 2012 (has links) (PDF)
Les avancements des technologies de l'information et des systèmes de communication ont permis le développement d'une grande variété d'applications et de services de géolocalisation. Les systèmes de positionnement par satellites figurent parmi les solutions principales de localisation. Dans des environnements difficiles (par exemples, les canyons urbains ou à l'intérieur des bâtiments), ces solutions ne fournissent pas une bonne précision, ou même deviennent indisponibles. Afin d'offrir des solutions de localisation précises et disponibles quelque soit l'environnement, les systèmes de communication sans fil ont été utilisés, où plusieurs paramètres topo-dépendants des signaux transmis peuvent être mesurés et exploités (par exemple, le temps d'arrivée (ToA), la puissance du signal reçu (RSS)). Dans ce travail, la localisation dans les systèmes sans fil est étudié d¿un point de vue traitement statistique du signal, et en explorant deux axes. Le premier axe concerne la localisation coopérative appliquée aux réseaux ad-hoc, où les différents n¿uds effectuent des mesures de distance par paire (c.à.d. ToA ou RSS) afin d'estimer simultanément leurs positions. Les conditions de solvabilité unique sont étudiées en s'appuyant sur les deux approches de la rigidité graphique et la programmation semi-définie, et ainsi les conditions d'identifiabilité sont déduites. Les solutions d'estimation de la position sont considérées en se concentrant sur l'estimation probabiliste et son application dans des champs aléatoires de Markov et ce en utilisant l¿algorithme de propagation de croyance non-paramétrique (NBP). Le deuxième axe concerne la poursuite des terminaux mobiles en se basant sur des mesures RSS. Ces mesures sont affectées par un phénomène de masquage (shadowing). L'amélioration apportée à la précision de positionnement par la connaissance des cartes de shadowing est étudiée. La solution classique pour l'obtention de ces cartes est le fingerprinting, qui peut être coûteux en temps de collecte de mesures. Des solutions sont développées afin de surmonter ces difficultés. Plusieurs solutions sont proposées et étudiées par des simulations de Monte Carlo pour différents scénarios d'application et de déploiement, et plusieurs résultats théoriques et pratiques sont obtenus.
38

Inférence bayésienne pour la détermination et la<br />sélection de modèles stochastiques

Caron, Francois 10 November 2006 (has links) (PDF)
On s'intéresse à l'ajout d'incertitudes supplémentaires dans les modèles de Markov cachés. L'inférence est réalisée dans un cadre bayésien à l'aide des méthodes de Monte Carlo. Dans un cadre multicapteur, on suppose que chaque capteur peut commuter entre plusieurs états de fonctionnement. Un modèle à saut original est développé et des algorithmes de Monte Carlo efficaces sont présentés pour différents types de situations, prenant en compte des données synchrones/asynchrones et le cas binaire capteur valide/défaillant. Le modèle/algorithme développé est appliqué à la localisation d'un véhicule terrestre équipé de trois capteurs, dont un récepteur GPS, potentiellement défaillant à cause de phénomènes de trajets multiples. <br />On s'intéresse ensuite à l'estimation de la densité de probabilité des bruits d'évolution et de mesure dans les modèles de Markov cachés, à l'aide des mélanges de processus de Dirichlet. Le cas de modèles linéaires est tout d'abord étudié, et des algorithmes MCMC et de filtrage particulaire sont développés. Ces algorithmes sont testés sur trois applications différentes. Puis le cas de l'estimation des densités de probabilité des bruits dans les modèles non linéaires est étudié. On définit pour cela des processus de Dirichlet variant temporellement, permettant l'estimation en ligne d'une densité de probabilité non stationnaire.
39

Chaînes de Markov triplets et filtrage optimal dans les systemes à sauts

Abbassi, Noufel 26 April 2012 (has links) (PDF)
Cette thèse est consacrée à la restauration et l'estimation des paramètres par filtrage dans les modèles de chaîne de Markov cachée classique, couple et triplet à sauts Markoviens. Nous proposons deux nouvelles méthodes d'approximation dans le cas des systèmes linéaires gaussiens à sauts Markoviens. La première est fondée sur l'utilisation des chaînes de Markov cachées par du bruit à mémoire longue, on obtient alors une méthode " partiellement non supervisée" dans la quelle certains paramètres, peuvent être estimés en utilisant une version adaptative de l'algorithme EM ou ICE, les résultats obtenus sont encourageant et comparables avec les méthodes classiquement utilisées du type (Kalman/Particulaire). La deuxième exploite l'idée de ne garder à chaque instant que les trajectoires les plus probables; là aussi, on obtient une méthode très rapide donnant des résultats très intéressants. Nous proposons par la suite deux familles de modèles à sauts qui sont originaux. la première est très générale où le processus couple composé du processus d'intérêt et celui des observations conditionnellement aux sauts, est une chaîne de Markov cachée, et nous proposons une extension du filtrage particulaire à cette famille. La deuxième, est une sous famille de la première où le couple composé de la chaîne des sauts et le processus d'observations est Markovien dans ce dernier cas le filtrage optimal exact est possible avec une complexité linéaire dans le temps. L'utilisation de la deuxième famille en tant qu'approximation de la première est alors étudiée et les résultats exposés dans ce mémoire semblent très encourageants
40

Algorithmes de restauration bayésienne mono- et multi-objets dans des modèles markoviens

Petetin, Yohan 27 November 2013 (has links) (PDF)
Cette thèse est consacrée au problème d'estimation bayésienne pour le filtrage statistique, dont l'objectif est d'estimer récursivement des états inconnus à partir d'un historique d'observations, dans un modèle stochastique donné. Les modèles stochastiques considérés incluent principalement deux grandes classes de modèles : les modèles de Markov cachés et les modèles de Markov à sauts conditionnellement markoviens. Ici, le problème est abordé sous sa forme générale dans la mesure où nous considérons le problème du filtrage mono- et multi objet(s), ce dernier étant abordé sous l'angle de la théorie des ensembles statistiques finis et du filtre " Probability Hypothesis Density ". Tout d'abord, nous nous intéressons à l'importante classe d'approximations que constituent les algorithmes de Monte Carlo séquentiel, qui incluent les algorithmes d'échantillonnage d'importance séquentiel et de filtrage particulaire auxiliaire. Les boucles de propagation mises en jeux dans ces algorithmes sont étudiées et des algorithmes alternatifs sont proposés. Les algorithmes de filtrage particulaire dits " localement optimaux ", c'est à dire les algorithmes d'échantillonnage d'importance avec densité d'importance conditionnelle optimale et de filtrage particulaire auxiliaire pleinement adapté sont comparés statistiquement, en fonction des paramètres du modèle donné. Ensuite, les méthodes de réduction de variance basées sur le théorème de Rao-Blackwell sont exploitées dans le contexte du filtrage mono- et multi-objet(s) Ces méthodes, utilisées principalement en filtrage mono-objet lorsque la dimension du vecteur d'état à estimer est grande, sont dans un premier temps étendues pour les approximations Monte Carlo du filtre Probability Hypothesis Density. D'autre part, des méthodes de réduction de variance alternatives sont proposées : bien que toujours basées sur le théorème de Rao-Blackwell, elles ne se focalisent plus sur le caractère spatial du problème mais plutôt sur son caractère temporel. Enfin, nous abordons l'extension des modèles probabilistes classiquement utilisés. Nous rappelons tout d'abord les modèles de Markov couple et triplet dont l'intérêt est illustré à travers plusieurs exemples pratiques. Ensuite, nous traitons le problème de filtrage multi-objets, dans le contexte des ensembles statistiques finis, pour ces modèles. De plus, les propriétés statistiques plus générales des modèles triplet sont exploitées afin d'obtenir de nouvelles approximations de l'estimateur bayésien optimal (au sens de l'erreur quadratique moyenne) dans les modèles à sauts classiquement utilisés; ces approximations peuvent produire des estimateurs de performances comparables à celles des approximations particulaires, mais ont l'avantage d'être moins coûteuses sur le plan calculatoire

Page generated in 0.0682 seconds