Spelling suggestions: "subject:"destimation bayésienne"" "subject:"destimation hayésienne""
1 |
Estimation parcimonieuse de biais multitrajets pour les systèmes GNSSLesouple, Julien 15 March 2019 (has links) (PDF)
L’évolution des technologies électroniques (miniaturisation, diminution des coûts) a permis aux GNSS (systèmes de navigation par satellites) d’être de plus en plus accessibles et doncutilisés au quotidien, par exemple par le biais d’un smartphone, ou de récepteurs disponibles dans le commerce à des prix raisonnables (récepteurs bas-coûts). Ces récepteurs fournissent à l’utilisateur plusieurs informations, comme par exemple sa position et sa vitesse, ainsi que des mesures des temps de propagation entre le récepteur et les satellites visibles entre autres. Ces récepteurs sont donc devenus très répandus pour les utilisateurs souhaitant évaluer des techniques de positionnement sans développer tout le hardware nécessaire. Les signaux issus des satellites GNSS sont perturbés par de nombreuses sources d’erreurs entre le moment où ils sont traités par le récepteurs pour estimer la mesure correspondante. Il est donc nécessaire decompenser chacune des ces erreurs afin de fournir à l’utilisateur la meilleure position possible. Une des sources d’erreurs recevant beaucoup d’intérêt, est le phénomène de réflexion des différents signaux sur les éventuels obstacles de la scène dans laquelle se trouve l’utilisateur, appelé multitrajets. L’objectif de cette thèse est de proposer des algorithmes permettant de limiter l’effet des multitrajets sur les mesures GNSS. La première idée développée dans cette thèse est de supposer que ces signaux multitrajets donnent naissance à des biais additifs parcimonieux. Cette hypothèse de parcimonie permet d’estimer ces biais à l’aide de méthodes efficaces comme le problème LASSO. Plusieurs variantes ont été développés autour de cette hypothèse visant à contraindre le nombre de satellites ne souffrant pas de multitrajet comme non nul. La deuxième idée explorée dans cette thèse est une technique d’estimation des erreurs de mesure GNSS à partir d’une solution de référence, qui suppose que les erreurs dues aux multitrajets peuvent se modéliser à l’aide de mélanges de Gaussiennes ou de modèles de Markov cachés. Deux méthodes de positionnement adaptées à ces modèles sont étudiées pour la navigation GNSS.
|
2 |
Impact du choix de la fonction de perte en segmentation d'images et application à un modèle de couleursPoirier, Louis-François January 2006 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
|
3 |
Random media and processes estimation using non-linear filtering techniques : application to ensemble weather forecast and aircraft trajectories / Estimation jointe de milieu et processus aléatoire par des techniques de filtrage non-linéaire : application aux prévisons météorologiques d'ensemble et trajectoires avionsIchard, Cécile 25 September 2015 (has links)
L'erreur de prédiction d'une trajectoire avion peut être expliquée par différents facteurs. Les incertitudes associées à la prévision météorologique sont l'un d'entre-eux. Qui plus est, l'erreur de prévision de vent a un effet non négligeable sur l'erreur de prédiction de la position d'un avion. En regardant le problème sous un autre angle, il s'avère que les avions peuvent être utilisés comme des capteurs locaux pour estimer l'erreur de prévision de vent. Dans ce travail nous décrivons ce problème d'estimation à l'aide de plusieurs processus d'acquisition d'un même champ aléatoire. Quand ce champ est homogène, nous montrons que le problème est équivalent à plusieurs processus aléatoires évoluant dans un même environnement aléatoire pour lequel nous donnons un modèle de Feynman-Kac. Nous en dérivons une approximation particulaire et fournissons pour les estimateurs obtenus des résultats de convergence. Quand le champ n'est pas homogène mais qu'une décomposition en sous-domaine homogène est possible, nous proposons un modèle différent basé sur le couplage de plusieurs processus d'acquisition. Nous en déduisons un modèle de Feynman-Kac et suggérons une approximation particulaire du flot de mesure. Par ailleurs, pour pouvoir traiter un trafic aérien, nous développons un modèle de prédiction de trajectoire avion. Finalement nous démontrons dans le cadre de simulations que nos algorithmes peuvent estimer les erreurs de prévisions de vent en utilisant les observations délivrées par les avions le long de leur trajectoire. / Aircraft trajectory prediction error can be explained by different factors. One of them is the weather forecast uncertainties. For example, the wind forecast error has a non negligible impact on the along track accuracy for the predicted aircraft position. From a different perspective, that means that aircrafts can be used as local sensors to estimate the weather forecast error. In this work we describe the estimation problem as several acquisition processes of a same random field. When the field is homogeneous, we prove that they are equivalent to random processes evolving in a random media for which a Feynman-Kac formulation is done. Then we give a particle-based approximation and provide convergence results of the ensuing estimators. When the random field is not homogeneous but can be decomposed in homogeneous sub-domains, a different model is proposed based on the coupling of different acquisition processes. From there, a Feynman-Kac formulation is derived and its particle-based approximation is suggested. Furthermore, we develop an aircraft trajectory prediction model. Finally we demonstrate on a simulation set-up that our algorithms can estimate the wind forecast errors using the aircraft observations delivered along their trajectory.
|
4 |
Estimation de paramètres de champs markoviens cachés avec applications à la segmentation d'images et la localisation de formesDestrempes, François January 2006 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
|
5 |
Estimation parcimonieuse de biais multitrajets pour les systèmes GNSS / Sparse estimation of multipath biases for GNSSLesouple, Julien 15 March 2019 (has links)
L’évolution des technologies électroniques (miniaturisation, diminution des coûts) a permis aux GNSS (systèmes de navigation par satellites) d’être de plus en plus accessibles et doncutilisés au quotidien, par exemple par le biais d’un smartphone, ou de récepteurs disponibles dans le commerce à des prix raisonnables (récepteurs bas-coûts). Ces récepteurs fournissent à l’utilisateur plusieurs informations, comme par exemple sa position et sa vitesse, ainsi que des mesures des temps de propagation entre le récepteur et les satellites visibles entre autres. Ces récepteurs sont donc devenus très répandus pour les utilisateurs souhaitant évaluer des techniques de positionnement sans développer tout le hardware nécessaire. Les signaux issus des satellites GNSS sont perturbés par de nombreuses sources d’erreurs entre le moment où ils sont traités par le récepteurs pour estimer la mesure correspondante. Il est donc nécessaire decompenser chacune des ces erreurs afin de fournir à l’utilisateur la meilleure position possible. Une des sources d’erreurs recevant beaucoup d’intérêt, est le phénomène de réflexion des différents signaux sur les éventuels obstacles de la scène dans laquelle se trouve l’utilisateur, appelé multitrajets. L’objectif de cette thèse est de proposer des algorithmes permettant de limiter l’effet des multitrajets sur les mesures GNSS. La première idée développée dans cette thèse est de supposer que ces signaux multitrajets donnent naissance à des biais additifs parcimonieux. Cette hypothèse de parcimonie permet d’estimer ces biais à l’aide de méthodes efficaces comme le problème LASSO. Plusieurs variantes ont été développés autour de cette hypothèse visant à contraindre le nombre de satellites ne souffrant pas de multitrajet comme non nul. La deuxième idée explorée dans cette thèse est une technique d’estimation des erreurs de mesure GNSS à partir d’une solution de référence, qui suppose que les erreurs dues aux multitrajets peuvent se modéliser à l’aide de mélanges de Gaussiennes ou de modèles de Markov cachés. Deux méthodes de positionnement adaptées à ces modèles sont étudiées pour la navigation GNSS. / The evolution of electronic technologies (miniaturization, price decreasing) allowed Global Navigation Satellite Systems (GNSS) to be used in our everyday life, through a smartphone for instance, or through receivers available in the market at reasonable prices (low cost receivers). Those receivers provide the user with many information, such as his position or velocity, but also measurements such as propagation delays of the signals emitted by the satellites and processed by the receiver. These receivers are thus widespread for users who want to challenge positioning techniques without developing the whole product. GNSS signals are affected by many error sources between the moment they are emitted and the moment they are processed by the receiver to compute the measurements. It is then necessary to mitigate each of these error sources to provide the user the most accurate solution. One of the most intense research topic in navigation is the phenomenon of reflexions on the eventual obstacles in the scene the receiver is located in, called multipath. The aim of this thesis is to propose algorithms allowing the effects of multipath on GNSS measurements to be reduced. The first idea presented in this thesis is to assume these multipath lead to sparse additive biases. This hypothesis allows us to estimate this biases thanks to efficient methods such as the LASSO problem. The second idea explored in this thesis is an estimation method of GNSS measurement errors corresponding to the proposed navigation algorithm thanks to a reference trajectory, which assumes these errors can be modelled by Gaussian mixtures or Hidden Markov Models. Two filtering methods corresponding to these two models are studied for GNSS navigation.
|
6 |
Méthodes bayésiennes semi-paramétriques d'extraction et de sélection de variables dans le cadre de la dendroclimatologieGuin, Ophélie 14 April 2011 (has links) (PDF)
Selon le Groupe Intergouvernemental d'experts sur l'Évolution du Climat (GIEC), il est important de connaitre le climat passé afin de replacer le changement climatique actuel dans son contexte. Ainsi, de nombreux chercheurs ont travaillé à l'établissement de procédures permettant de reconstituer les températures ou les précipitations passées à l'aide d'indicateurs climatiques indirects. Ces procédures sont généralement basées sur des méthodes statistiques mais l'estimation des incertitudes associées à ces reconstructions reste une difficulté majeure. L'objectif principal de cette thèse est donc de proposer de nouvelles méthodes statistiques permettant une estimation précise des erreurs commises, en particulier dans le cadre de reconstructions à partir de données sur les cernes d'arbres.De manière générale, les reconstructions climatiques à partir de mesures de cernes d'arbres se déroulent en deux étapes : l'estimation d'une variable cachée, commune à un ensemble de séries de mesures de cernes, et supposée climatique puis l'estimation de la relation existante entre cette variable cachée et certaines variables climatiques. Dans les deux cas, nous avons développé une nouvelle procédure basée sur des modèles bayésiens semi- paramétriques. Tout d'abord, concernant l'extraction du signal commun, nous proposons un modèle hiérarchique semi-paramétrique qui offre la possibilité de capturer les hautes et les basses fréquences contenues dans les cernes d'arbres, ce qui était difficile dans les études dendroclimatologiques passées. Ensuite, nous avons développé un modèle additif généralisé afin de modéliser le lien entre le signal extrait et certaines variables climatiques, permettant ainsi l'existence de relations non-linéaires contrairement aux méthodes classiques de la dendrochronologie. Ces nouvelles méthodes sont à chaque fois comparées aux méthodes utilisées traditionnellement par les dendrochronologues afin de comprendre ce qu'elles peuvent apporter à ces derniers.
|
7 |
Fiabilité des systèmes embarquésVoiculescu, Sorin 03 July 2009 (has links) (PDF)
Les travaux présentés dans cette thèse abordent la problématique de l'estimation de la fiabilité des systèmes qui est devenue un enjeu majeur pour les entreprises et ce dès les premières phases de développement. En effet, plus tôt les caractéristiques d'un produit ou d'un système sont appréhendées dans son cycle de vie et moins les risques ( financiers ou liés à la sécurité des installations ), dus à la non réalisation des performances attendues sont élevés. Dans un contexte exigeant des systèmes de plus en plus fiables et sûrs, et de durées de garanties croissantes, il est impératif de vérifier le plus rapidement possible que les performances des systèmes soient conformes au cahier des charges. La démarche idéale pour identifier la fiabilité d'un produit ou d'un système avant sa fabrication en série, est de procéder à des séries d'essais sur des prototypes, quand ils existent. Cette démarche nécessite un investissement trop important en temps en nombre de prototypes, car ces derniers étant de plus en plus fiables, l'observation de défaillances est de moins en moins probable .
|
8 |
Approches bayésiennes pour le débruitage des images dans le domaine des transformées multi-échelles parcimonieuses orientées et non orientéesBoubchir, Larbi 04 July 2007 (has links) (PDF)
Les images issues d'une chaîne d'acquisition sont généralement dégradées par le bruit du capteur. La tâche qui consiste à restaurer une image de bonne qualité à partir de sa version bruitée est communément appelée débruitage. Celui-ci a engendré une importante littérature en pré-traitement des images. Lors de ce travail de thèse, et après avoir posé le problème du débruitage en présence d'un bruit additif gaussien, nous avons effectué un état de l'art méthodique sur ce sujet. Les méthodes présentées cherchent pour la plupart à reconstruire une solution qui présente une certaine régularité. En s'appuyant sur un cadre bayésien, la régularité de la solution, qui peut être imposée de différentes manières, a été formellement mise en place en passant dans le domaine des transformées multi-échelle. Ainsi, afin d'établir un modèle d'a priori, nous avons mené une modélisation des statistiques marginales et jointes des coefficients d'images dans le domaine des transformées multi-échelles orientées (e.g. curvelets) et non-orientées (e.g. ondelettes). Ensuite, nous avons proposé de nouveaux estimateurs bayésiens pour le débruitage. La mise en œuvre de ces estimateurs est effectuée en deux étapes, la première consistant à estimer les hyperparamètres du modèle de l'a priori en présence du bruit et la seconde à trouver une forme analytique pour l'estimateur bayésien correspondant. Dans un premier temps, nous avons mis en place des estimateurs bayésiens univariés en mettant à profit les statistiques marginales des coefficients des images dans des représentations multi-échelle comme les ondelettes. Ces lois marginales ont été analytiquement modélisées par le biais des distributions: ?-stable et les Formes K de Bessel. Dans un second temps, nous avons amélioré les performances de nos estimateurs univariés en introduisant l'information géométrique dans le voisinage des coefficients. Plus précisément, nous avons proposé un cadre statistique bayésien multivarié permettant de prendre en compte les dépendances inter- et intra-échelle des coefficients, en mettant à profit les statistiques jointes de ces derniers dans le domaine des curvelets et des ondelettes non décimées. Ensuite, nous avons mis en place l'estimateur bayésien multivarié correspondant basé sur une extension multivariée de la distribution des Formes K de Bessel. Une large étude comparative a finalement été menée afin de confronter nos algorithmes de débruitage à d'autres débruiteurs de l'état de l'art.
|
9 |
Nonlinear unmixing of Hyperspectral images / Démélange non-linéaire d'images hyperspectralesAltmann, Yoann 07 October 2013 (has links)
Le démélange spectral est un des sujets majeurs de l’analyse d’images hyperspectrales. Ce problème consiste à identifier les composants macroscopiques présents dans une image hyperspectrale et à quantifier les proportions (ou abondances) de ces matériaux dans tous les pixels de l’image. La plupart des algorithmes de démélange suppose un modèle de mélange linéaire qui est souvent considéré comme une approximation au premier ordre du mélange réel. Cependant, le modèle linéaire peut ne pas être adapté pour certaines images associées par exemple à des scènes engendrant des trajets multiples (forêts, zones urbaines) et des modèles non-linéaires plus complexes doivent alors être utilisés pour analyser de telles images. Le but de cette thèse est d’étudier de nouveaux modèles de mélange non-linéaires et de proposer des algorithmes associés pour l’analyse d’images hyperspectrales. Dans un premier temps, un modèle paramétrique post-non-linéaire est étudié et des algorithmes d’estimation basés sur ce modèle sont proposés. Les connaissances a priori disponibles sur les signatures spectrales des composants purs, sur les abondances et les paramètres de la non-linéarité sont exploitées à l’aide d’une approche bayesienne. Le second modèle étudié dans cette thèse est basé sur l’approximation de la variété non-linéaire contenant les données observées à l’aide de processus gaussiens. L’algorithme de démélange associé permet d’estimer la relation non-linéaire entre les abondances des matériaux et les pixels observés sans introduire explicitement les signatures spectrales des composants dans le modèle de mélange. Ces signatures spectrales sont estimées dans un second temps par prédiction à base de processus gaussiens. La prise en compte d’effets non-linéaires dans les images hyperspectrales nécessite souvent des stratégies de démélange plus complexes que celles basées sur un modèle linéaire. Comme le modèle linéaire est souvent suffisant pour approcher la plupart des mélanges réels, il est intéressant de pouvoir détecter les pixels ou les régions de l’image où ce modèle linéaire est approprié. On pourra alors, après cette détection, appliquer les algorithmes de démélange non-linéaires aux pixels nécessitant réellement l’utilisation de modèles de mélange non-linéaires. La dernière partie de ce manuscrit se concentre sur l’étude de détecteurs de non-linéarités basés sur des modèles linéaires et non-linéaires pour l’analyse d’images hyperspectrales. Les méthodes de démélange non-linéaires proposées permettent d’améliorer la caractérisation des images hyperspectrales par rapport au méthodes basées sur un modèle linéaire. Cette amélioration se traduit en particulier par une meilleure erreur de reconstruction des données. De plus, ces méthodes permettent de meilleures estimations des signatures spectrales et des abondances quand les pixels résultent de mélanges non-linéaires. Les résultats de simulations effectuées sur des données synthétiques et réelles montrent l’intérêt d’utiliser des méthodes de détection de non-linéarités pour l’analyse d’images hyperspectrales. En particulier, ces détecteurs peuvent permettre d’identifier des composants très peu représentés et de localiser des régions où les effets non-linéaires sont non-négligeables (ombres, reliefs,...). Enfin, la considération de corrélations spatiales dans les images hyperspectrales peut améliorer les performances des algorithmes de démélange non-linéaires et des détecteurs de non-linéarités. / Spectral unmixing is one the major issues arising when analyzing hyperspectral images. It consists of identifying the macroscopic materials present in a hyperspectral image and quantifying the proportions of these materials in the image pixels. Most unmixing techniques rely on a linear mixing model which is often considered as a first approximation of the actual mixtures. However, the linear model can be inaccurate for some specific images (for instance images of scenes involving multiple reflections) and more complex nonlinear models must then be considered to analyze such images. The aim of this thesis is to study new nonlinear mixing models and to propose associated algorithms to analyze hyperspectral images. First, a ost-nonlinear model is investigated and efficient unmixing algorithms based on this model are proposed. The prior knowledge about the components present in the observed image, their proportions and the nonlinearity parameters is considered using Bayesian inference. The second model considered in this work is based on the approximation of the nonlinear manifold which contains the observed pixels using Gaussian processes. The proposed algorithm estimates the relation between the observations and the unknown material proportions without explicit dependency on the material spectral signatures, which are estimated subsequentially. Considering nonlinear effects in hyperspectral images usually requires more complex unmixing strategies than those assuming linear mixtures. Since the linear mixing model is often sufficient to approximate accurately most actual mixtures, it is interesting to detect pixels or regions where the linear model is accurate. This nonlinearity detection can be applied as a pre-processing step and nonlinear unmixing strategies can then be applied only to pixels requiring the use of nonlinear models. The last part of this thesis focuses on new nonlinearity detectors based on linear and nonlinear models to identify pixels or regions where nonlinear effects occur in hyperspectral images. The proposed nonlinear unmixing algorithms improve the characterization of hyperspectral images compared to methods based on a linear model. These methods allow the reconstruction errors to be reduced. Moreover, these methods provide better spectral signature and abundance estimates when the observed pixels result from nonlinear mixtures. The simulation results conducted on synthetic and real images illustrate the advantage of using nonlinearity detectors for hyperspectral image analysis. In particular, the proposed detectors can identify components which are present in few pixels (and hardly distinguishable) and locate areas where significant nonlinear effects occur (shadow, relief, ...). Moreover, it is shown that considering spatial correlation in hyperspectral images can improve the performance of nonlinear unmixing and nonlinearity detection algorithms.
|
10 |
La Zone Franc : bonne ou mauvaise institution pour la convergence et la croissance économiques ? / The Franc Zone : good or bad institution for convergence and economic growth ?Bah, Mohamed Siry 07 July 2015 (has links)
L’objectif de cette thèse est d’approfondir l’analyse du processus de convergence et des moteurs de la croissance économique dans la Zone Franc (ZF). En premier lieu, l’utilisation du test de racine unitaire en panel avec prise en compte des chocs structurels de Carrion-I-Silvestre et al. (2005) a mis en évidence une convergence stochastique uniquement dans l’UEMOA. L’analyse complémentaire en termes de β-convergence dans cette dernière a montré un processus de rattrapage du Burkina Faso et du Mali, une convergence du Togo vers la moyenne communautaire et des divergences du Niger et du Sénégal de cette moyenne. Ensuite, nous avons estimé l’impact de la ZF en comparant les pays membres à d’autres pays en développement analogues. L’estimation en panel à effets aléatoires a montré qu’en moyenne les pays de la ZF avaient une croissance inférieure à celle de leurs contrefactuels. Cette infériorité a d’ailleurs été favorisée par les politiques d’inflation, de dépenses publiques et de crédits bancaires mais atténuée par les politiques d’investissement. Finalement, l’utilisation de l’estimation bayésienne itérative et la comparaison de ces estimateurs a révélé que la ZF et les regroupements économiques et/ou monétaires africains n’ont pas introduit de spécificités dans la convergence et les moteurs de la croissance économique. Au-delà de la ZF, cette approche a mis en exergue la prépondérance des dotations naturelles pour les processus de convergence et de la croissance économique des pays Africains. En définitive, les résultats de cette thèse suggèrent des réflexions supplémentaires sur le mode de fonctionnement de la ZF. / L’objectif de cette thèse est d’approfondir l’analyse du processus de convergence et des moteurs de la croissance économique dans la Zone Franc (ZF). En premier lieu, l’utilisation du test de racine unitaire en panel avec prise en compte des chocs structurels de Carrion-I-Silvestre et al. (2005) a mis en évidence une convergence stochastique uniquement dans l’UEMOA. L’analyse complémentaire en termes de β-convergence dans cette dernière a montré un processus de rattrapage du Burkina Faso et du Mali, une convergence du Togo vers la moyenne communautaire et des divergences du Niger et du Sénégal de cette moyenne. Ensuite, nous avons estimé l’impact de la ZF en comparant les pays membres à d’autres pays en développement analogues. L’estimation en panel à effets aléatoires a montré qu’en moyenne les pays de la ZF avaient une croissance inférieure à celle de leurs contrefactuels. Cette infériorité a d’ailleurs été favorisée par les politiques d’inflation, de dépenses publiques et de crédits bancaires mais atténuée par les politiques d’investissement. Finalement, l’utilisation de l’estimation bayésienne itérative et la comparaison de ces estimateurs a révélé que la ZF et les regroupements économiques et/ou monétaires africains n’ont pas introduit de spécificités dans la convergence et les moteurs de la croissance économique. Au-delà de la ZF, cette approche a mis en exergue la prépondérance des dotations naturelles pour les processus de convergence et de la croissance économique des pays Africains. En définitive, les résultats de cette thèse suggèrent des réflexions supplémentaires sur le mode de fonctionnement de la ZF.
|
Page generated in 0.1133 seconds