Spelling suggestions: "subject:"fusion dess données"" "subject:"fusion deus données""
1 |
Localisation multi-hypothèses pour l'aide à la conduite : conception d'un filtre "réactif-coopératif" / Multi-assumptions localization for driving assistance : design of a "reactive-cooperative" filterAhmed Bacha, Adda Redouane 01 December 2014 (has links)
“ Lorsqu'on utilise des données provenant d'une seule source,C'est du plagiat;Lorsqu'on utilise plusieurs sources,C'est de la fusion de données ”Ces travaux présentent une approche de fusion de données collaborative innovante pour l'égo-localisation de véhicules routiers. Cette approche appelée filtre de Kalman optimisé à essaim de particules (Optimized Kalman Particle Swarm) est une méthode de fusion de données et de filtrage optimisé. La fusion de données est faite en utilisant les données d'un GPS à faible coût, une centrale inertielle, un compteur odométrique et un codeur d'angle au volant. Ce travail montre que cette approche est à la fois plus robuste et plus appropriée que les méthodes plus classiques d'égo-localisation aux situations de conduite urbaine. Cette constatation apparait clairement dans le cas de dégradations des signaux capteurs ou des situations à fortes non linéarités. Les méthodes d'égo-localisation de véhicules les plus utilisées sont les approches bayésiennes représentées par le filtre de Kalman étendu (Extended Kalman Filter) et ses variantes (UKF, DD1, DD2). Les méthodes bayésiennes souffrent de sensibilité aux bruits et d'instabilité pour les cas fortement non linéaires. Proposées pour couvrir les limitations des méthodes bayésiennes, les approches multi-hypothèses (à base de particules) sont aussi utilisées pour la localisation égo-véhiculaire. Inspiré des méthodes de simulation de Monte-Carlo, les performances du filtre à particules (Particle Filter) sont fortement dépendantes des ressources en matière de calcul. Tirant avantage des techniques de localisation existantes et en intégrant les avantages de l'optimisation méta heuristique, l'OKPS est conçu pour faire face aux bruits, aux fortes dynamiques, aux données non linéaires et aux besoins d'exécution en temps réel. Pour l'égo-localisation d'un véhicule, en particulier pour les manœuvres très dynamiques sur route, un filtre doit être robuste et réactif en même temps. Le filtre OKPS est conçu sur un nouvel algorithme de localisation coopérative-réactive et dynamique inspirée par l'Optimisation par Essaim de Particules (Particle Swarm Optimization) qui est une méthode méta heuristique. Cette nouvelle approche combine les avantages de la PSO et des deux autres filtres: Le filtre à particules (PF) et le filtre de Kalman étendu (EKF). L'OKPS est testé en utilisant des données réelles recueillies à l'aide d'un véhicule équipé de capteurs embarqués. Ses performances sont testées en comparaison avec l'EKF, le PF et le filtre par essaim de particules (Swarm Particle Filter). Le filtre SPF est un filtre à particules hybride intéressant combinant les avantages de la PSO et du filtrage à particules; Il représente la première étape de la conception de l'OKPS. Les résultats montrent l'efficacité de l'OKPS pour un scénario de conduite à dynamique élevée avec des données GPS endommagés et/ou de qualité faible. / “ When we use information from one source,it's plagiarism;Wen we use information from many,it's information fusion ”This work presents an innovative collaborative data fusion approach for ego-vehicle localization. This approach called the Optimized Kalman Particle Swarm (OKPS) is a data fusion and an optimized filtering method. Data fusion is made using data from a low cost GPS, INS, Odometer and a Steering wheel angle encoder. This work proved that this approach is both more appropriate and more efficient for vehicle ego-localization in degraded sensors performance and highly nonlinear situations. The most widely used vehicle localization methods are the Bayesian approaches represented by the EKF and its variants (UKF, DD1, DD2). The Bayesian methods suffer from sensitivity to noises and instability for the highly non-linear cases. Proposed for covering the Bayesian methods limitations, the Multi-hypothesis (particle based) approaches are used for ego-vehicle localization. Inspired from monte-carlo simulation methods, the Particle Filter (PF) performances are strongly dependent on computational resources. Taking advantages of existing localization techniques and integrating metaheuristic optimization benefits, the OKPS is designed to deal with vehicles high nonlinear dynamic, data noises and real time requirement. For ego-vehicle localization, especially for highly dynamic on-road maneuvers, a filter needs to be robust and reactive at the same time. The OKPS filter is a new cooperative-reactive localization algorithm inspired by dynamic Particle Swarm Optimization (PSO) metaheuristic methods. It combines advantages of the PSO and two other filters: The Particle Filter (PF) and the Extended Kalman filter (EKF). The OKPS is tested using real data collected using a vehicle equipped with embedded sensors. Its performances are tested in comparison with the EKF, the PF and the Swarm Particle Filter (SPF). The SPF is an interesting particle based hybrid filter combining PSO and particle filtering advantages; It represents the first step of the OKPS development. The results show the efficiency of the OKPS for a high dynamic driving scenario with damaged and low quality GPS data.
|
2 |
Développement d'algorithmes de métrologie dédiés à la caractérisation de nano-objets à partir d'informations hétérogènes / Development of nano-object characterization algorithms from heterogeneous dataDerville, Alexandre 20 December 2018 (has links)
Ces travaux de thèse s’inscrivent dans le contexte technico/économique des nanomatériaux notamment les nanoparticules et les copolymères. Aujourd’hui, une révolution technologique est en cours avec l’introduction de ces matériaux dans des matrices plus ou moins complexes présentes dans notre quotidien (santé, cosmétique, bâtiment, agroalimentaire...). Ces matériaux confèrent à ces produits des propriétés uniques (mécanique, électrique, chimique, thermique, ...). Cette omniprésence associée aux enjeux économiques engendre deux problématiques liées au contrôle des procédés de fabrication et à la métrologie associée. La première est de garantir une traçabilité de ces nanomatériaux afin de prévenir tout risque sanitaire et environnemental et la seconde est d’optimiser le développement des procédés afin de pérenniser des filières économiques rentables. Pour cela, les deux techniques les plus courantes de métrologie utilisées sont : la microscopie électronique à balayage (MEB) et la microscopie à force atomique (AFM).Le premier volet des travaux est consacré au développement d’une méthodologie de fusion de données permettant d’analyser automatiquement les données en provenance de chaque microscope et d’utiliser leurs points forts respectifs afin de réduire les incertitudes de mesure en trois dimensions. Une première partie a été consacrée à la correction d’un défaut majeur d’asservissement de l’AFM qui génère des dérives et/ou sauts dans les signaux. Nous présentons une technique dirigée par les données permettant une correction de ces signaux. La méthode présentée a l’avantage de ne pas faire d’hypothèses sur les objets et leurs positions. Elle peut être utilisée en routine automatique pour l’amélioration du signal avant l’analyse des objets.La deuxième partie est consacrée au développement d’une méthode d’analyse automatique des images de nanoparticules sphériques en provenance d’un AFM ou d’un MEB. Dans le but de développer une traçabilité en 3D, il est nécessaire d’identifier et de mesurer les nanoparticules identiques qui ont été mesurées à la fois sur l’AFM et sur le MEB. Afin d’obtenir deux estimations du diamètre sur la même particule physique, nous avons développé une technique qui permet de mettre en correspondance les particules. Partant des estimations pour les deux types de microscopie, avec des particules présentes dans les deux types d'images ou non, nous présentons une technique qui permet l'agrégation d’estimateurs sur les populations de diamètres afin d'obtenir une valeur plus fiable des propriétés du diamètre des particules.Le second volet de cette thèse est dédié à l’optimisation d’un procédé de fabrication de copolymères à blocs (structures lamellaires) afin d’exploiter toutes les grandeurs caractéristiques utilisées pour la validation du procédé (largeur de ligne, période, rugosité, taux de défauts) notamment à partir d’images MEB afin de les mettre en correspondance avec un ensemble de paramètres de procédé. En effet, lors du développement d’un nouveau procédé, un plan d’expériences est effectué. L’analyse de ce dernier permet d’estimer manuellement une fenêtre de procédé plus ou moins précise (estimation liée à l’expertise de l’ingénieur matériaux). L’étape est réitérée jusqu’à l’obtention des caractéristiques souhaitées. Afin d’accélérer le développement, nous avons étudié une façon de prédire le résultat du procédé de fabrication sur l’espace des paramètres. Pour cela, nous avons étudié différentes techniques de régression que nous présentons afin de proposer une méthodologie automatique d’optimisation des paramètres d’un procédé alimentée par les caractéristiques d’images AFM et/ou MEB.Ces travaux d’agrégations d’estimateurs et d’optimisation de fenêtre de procédés permettent d’envisager le développement d’une standardisation d’analyse automatique de données issues de MEB et d’AFM en vue du développement d’une norme de traçabilité des nanomatériaux. / This thesis is included in the technical and economical context of nanomaterials, more specifically nanoparticles and block copolymer. Today, we observe a technological revolution with the introduction of these materials into matrices more or less complex present in our daily lives (health, cosmetics, buildings, food ...). These materials yield unique properties to these products (mechanical, electrical, chemical, thermal ...). This omnipresence associated with the economic stakes generates two problems related to the process control and associated metrology. The first is to ensure traceability of these nanomaterials in order to prevent any health and environmental risks and the second is to optimize the development of processes in order to sustain profitable economic sectors. For this, the two most common metrology techniques used are: scanning electron microscopy (SEM) and atomic force microscopy (AFM).The first phase of the work is devoted to the development of a data fusion methodology that automatically analyzes data from each microscope and uses their respective strengths to reduce measurement uncertainties in three dimensions. A first part was dedicated to the correction of a major defect of the AFM which generates drifts and / or jumps in the signals. We present a data-driven methodology, fast to implement and which accurately corrects these deviations. The proposed methodology makes no assumption on the object locations and can therefore be used as an efficient preprocessing routine for signal enhancement before object analysis.The second part is dedicated to the development of a method for automatic analysis of spherical nanoparticle images coming from an AFM or a SEM. In order to develop 3D traceability, it is mandatory to identify and measure the identical nanoparticles that have been measured on both AFM and SEM. In order to obtain two estimations of the diameter on the same physical particle, we developed a technique that allows to match the particles. Starting from estimates for both types of microscopy, with particles present in both kinds of images or not, we present a technique that allows the aggregation of estimators on diameter populations in order to obtain a more reliable value of properties of the particle diameter.The second phase of this thesis is dedicated to the optimization of a block copolymer process (lamellar structures) in order to capitalize on all the characteristic quantities used for the validation of the process (line width, period, roughness, defects rate) in particular from SEM images for the purpose of matching them with a set of process parameters.Indeed, during the development of a new process, an experimental plan is carried out. The analysis of the latter makes it possible to manually estimate a more or less precise process window (estimate related to the expertise of the materials engineer). The step is reiterated until the desired characteristics are obtained. In order to accelerate the development, we have studied a way of predicting the result of the process on the parameter space. For this, we studied different regression techniques that we present to propose an automatic methodology for optimizing the parameters of a process powered by AFM and / or SEM image characteristics.This work of estimator aggregation and process window optimization makes it possible to consider the development of a standardization of automatic analysis of SEM and AFM data for the development of a standard for traceability of nanomaterials.
|
3 |
Fusion de données et modélisation de l'environnementRanchin, Thierry 07 December 2005 (has links) (PDF)
Les travaux effectués dans le cadre de mes activités de recherche et d'enseignements au sein du Centre Energétique et Procédés de l'Ecole des Mines de Paris concernent la description et la compréhension des problématiques liées à l'environnement dans le cadre du protocole de Kyoto. Dans ce cadre, les satellites d'observation de la Terre sont un formidable outil d'investigation. Ils permettent notamment une perception des phénomènes physiques au travers des structures dans l'espace et leur évolution dans le temps. Mes travaux exploitent les observations et mesures satellitaires (images, profils). Ils s'appuient sur la modélisation des structures observées dans l'environnement et sur la fusion de données. Pour cette dernière, j'ai adopté la définition proposée par le groupe de travail de l'association EARSeL (European Association of Remote Sensing Laboratories) : "la fusion de données constitue un cadre formel dans lequel s'expriment les moyens et techniques permettant l'alliance des données provenant de sources diverses. Elle vise à obtenir des informations de meilleure qualité ; la définition de meilleure qualité dépendant de l'application". Elle vise donc à tirer le meilleur parti possible de l'ensemble des observations et informations disponibles sur notre environnement.
|
4 |
Contextualized access to distributed and heterogeneous multimedia data sources / Accès contextualisé aux sources de données multimédias distribuées et hétérogènesVilsmaier, Christian 26 September 2014 (has links)
Rendre les données multimédias disponibles en ligne devient moins cher et plus pratique sur une base quotidienne, par exemple par les utilisateurs eux-mêmes. Des phénomènes du Web comme Facebook, Twitter et Flickr bénéficient de cette évolution. Ces phénomènes et leur acceptation accrue conduisent à une multiplication du nombre d’images disponibles en ligne. La taille cumulée de ces images souvent publiques et donc consultables, est de l’ordre de plusieurs zettaoctets. L’exécution d’une requête de similarité sur de tels volumes est un défi que la communauté scientifique commence à cibler. Une approche envisagée pour faire face à ce problème propose d’utiliser un système distribué et hétérogène de recherche d’images basé sur leur contenu (CBIRs). De nombreux problèmes émergent d’un tel scénario. Un exemple est l’utilisation de formats de métadonnées distincts pour décrire le contenu des images; un autre exemple est l’information technique et structurelle inégale. Les métriques individuelles qui sont utilisées par les CBIRs pour calculer la similarité entre les images constituent un autre exemple. Le calcul de bons résultats dans ce contexte s’avère ainsi une tàche très laborieuse qui n’est pas encore scientifiquement résolue. Le problème principalement abordé dans cette thèse est la recherche de photos de CBIRs similaires à une image donnée comme réponse à une requête multimédia distribuée. La contribution principale de cette thèse est la construction d’un réseau de CBIRs sensible à la sémantique des contenus (CBIRn). Ce CBIRn sémantique est capable de collecter et fusionner les résultats issus de sources externes spécialisées. Afin d’être en mesure d’intégrer de telles sources extérieures, prêtes à rejoindre le réseau, mais pas à divulguer leur configuration, un algorithme a été développé capable d’estimer la configuration d’un CBIRS. En classant les CBIRs et en analysant les requêtes entrantes, les requêtes d’image sont exclusivement transmises aux CBIRs les plus appropriés. De cette fac ̧on, les images sans intérêt pour l’utilisateur peuvent être omises à l’avance. Les images retournées cells sont considérées comme similaires par rapport à l’image donnée pour la requête. La faisabilité de l’approche et l’amélioration obtenue par le processus de recherche sont démontrées par un développement prototypique et son évaluation utilisant des images d’ImageNet. Le nombre d’images pertinentes renvoyées par l’approche de cette thèse en réponse à une requête image est supérieur d’un facteur 4.75 par rapport au résultat obtenu par un réseau de CBIRs predéfini. / Making multimedia data available online becomes less expensive and more convenient on a daily basis. This development promotes web phenomenons such as Facebook, Twitter, and Flickr. These phenomena and their increased acceptance in society in turn leads to a multiplication of the amount of available images online. This vast amount of, frequently public and therefore searchable, images already exceeds the zettabyte bound. Executing a similarity search on the magnitude of images that are publicly available and receiving a top quality result is a challenge that the scientific community has recently attempted to rise to. One approach to cope with this problem assumes the use of distributed heterogeneous Content Based Image Retrieval system (CBIRs). Following from this anticipation, the problems that emerge from a distributed query scenario must be dealt with. For example the involved CBIRs’ usage of distinct metadata formats for describing their content, as well as their unequal technical and structural information. An addition issue is the individual metrics that are used by the CBIRs to calculate the similarity between pictures, as well as their specific way of being combined. Overall, receiving good results in this environment is a very labor intensive task which has been scientifically but not yet comprehensively explored. The problem primarily addressed in this work is the collection of pictures from CBIRs, that are similar to a given picture, as a response to a distributed multimedia query. The main contribution of this thesis is the construction of a network of Content Based Image Retrieval systems that are able to extract and exploit the information about an input image’s semantic concept. This so called semantic CBIRn is mainly composed of CBIRs that are configured by the semantic CBIRn itself. Complementarily, there is a possibility that allows the integration of specialized external sources. The semantic CBIRn is able to collect and merge results of all of these attached CBIRs. In order to be able to integrate external sources that are willing to join the network, but are not willing to disclose their configuration, an algorithm was developed that approximates these configurations. By categorizing existing as well as external CBIRs and analyzing incoming queries, image queries are exclusively forwarded to the most suitable CBIRs. In this way, images that are not of any use for the user can be omitted beforehand. The hereafter returned images are rendered comparable in order to be able to merge them to one single result list of images, that are similar to the input image. The feasibility of the approach and the hereby obtained improvement of the search process is demonstrated by a prototypical implementation. Using this prototypical implementation an augmentation of the number of returned images that are of the same semantic concept as the input images is achieved by a factor of 4.75 with respect to a predefined non-semantic CBIRn.
|
5 |
Tolérance aux fautes pour la perception multi-capteurs : application à la localisation d'un véhicule intelligent / Fault tolerance for multi-sensor perception : application to the localization of an intelligent vehicleBader, Kaci 05 December 2014 (has links)
La perception est une entrée fondamentale des systèmes robotiques, en particulier pour la localisation, la navigation et l'interaction avec l'environnement. Or les données perçues par les systèmes robotiques sont souvent complexes et sujettes à des imprécisions importantes. Pour remédier à ces problèmes, l'approche multi-capteurs utilise soit plusieurs capteurs de même type pour exploiter leur redondance, soit des capteurs de types différents pour exploiter leur complémentarité afin de réduire les imprécisions et les incertitudes sur les capteurs. La validation de cette approche de fusion de données pose deux problèmes majeurs.Tout d'abord, le comportement des algorithmes de fusion est difficile à prédire,ce qui les rend difficilement vérifiables par des approches formelles. De plus, l'environnement ouvert des systèmes robotiques engendre un contexte d'exécution très large, ce qui rend les tests difficiles et coûteux. L'objet de ces travaux de thèse est de proposer une alternative à la validation en mettant en place des mécanismes de tolérance aux fautes : puisqu'il est difficile d'éliminer toutes les fautes du système de perception, on va chercher à limiter leurs impacts sur son fonctionnement. Nous avons étudié la tolérance aux fautes intrinsèquement permise par la fusion de données en analysant formellement les algorithmes de fusion de données, et nous avons proposé des mécanismes de détection et de rétablissement adaptés à la perception multi-capteurs. Nous avons ensuite implémenté les mécanismes proposés pour une application de localisation de véhicules en utilisant la fusion de données par filtrage de Kalman. Nous avons finalement évalué les mécanismes proposés en utilisant le rejeu de données réelles et la technique d'injection de fautes, et démontré leur efficacité face à des fautes matérielles et logicielles. / Perception is a fundamental input for robotic systems, particularly for positioning, navigation and interaction with the environment. But the data perceived by these systems are often complex and subject to significant imprecision. To overcome these problems, the multi-sensor approach uses either multiple sensors of the same type to exploit their redundancy or sensors of different types for exploiting their complementarity to reduce the sensors inaccuracies and uncertainties. The validation of the data fusion approach raises two major problems. First, the behavior of fusion algorithms is difficult to predict, which makes them difficult to verify by formal approaches. In addition, the open environment of robotic systems generates a very large execution context, which makes the tests difficult and costly. The purpose of this work is to propose an alternative to validation by developing fault tolerance mechanisms : since it is difficult to eliminate all the errors of the perceptual system, We will try to limit impact in their operation. We studied the inherently fault tolerance allowed by data fusion by formally analyzing the data fusion algorithms, and we have proposed detection and recovery mechanisms suitable for multi-sensor perception, we implemented the proposed mechanisms on vehicle localization application using Kalman filltering data fusion. We evaluated the proposed mechanims using the real data replay and fault injection technique.
|
6 |
Étude de contraintes spatiales bas niveau appliquées à la vision par ordinateurJodoin, Pierre-Marc January 2006 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
|
7 |
Démélange d'images radar polarimétrique par séparation thématique de sources / Unmixing polarimetric radar images based on land cover typeGiordano, Sébastien 30 November 2015 (has links)
Cette thèse s'inscrit dans le contexte de l'amélioration de la caractérisation de l'occupation du sol à partir d'observations de télédétection de natures très différentes : le radar polarimétrique et les images optiques multispectrales. Le radar polarimétrique permet la détermination de mécanismes de rétrodiffusion provenant de théorèmes de décomposition de l'information polarimétrique utiles à la classification des types d'occupation du sol. Cependant ces décompositions sont peu compréhensibles lorsque que plu- sieurs classes thématiques co-existent dans des proportions très variables au sein des cellules de résolution radar. Le problème est d'autant plus important que le speckle inhérent à l'imagerie radar nécessite l'estimation de ces paramètres sur des voisinages locaux. Nous nous interrogeons alors sur la capacité des données optiques multispectrales sensiblement plus résolues spatialement que le radar polarimétrique à améliorer la compréhension des mécanismes radar. Pour répondre à cette question, nous mettons en place une méthode de démélange des images radar polarimétrique par séparation thématique de sources. L'image optique peut être considérée comme un paramètre de réglage du radar fournissant une vue du mélange. L'idée générale est donc de commencer par un démélange thématique (décomposer l'information radar sur les types d'occupation du sol) avant de réaliser les décompositions polarimétriques (identifier des mécanismes de rétrodiffusion).Dans ce travail nous proposons d'utiliser un modèle linéaire et présentons un algorithme pour réaliser le démélange thématique. Nous déterminons ensuite la capacité de l'algorithme de démé- lange à reconstruire le signal radar observé. Enfin nous évaluons si l'information radar démélangée contient de l'information thématique pertinente. Cette évaluation est réalisée sur des données simulées que nous avons générées et sur des données Radarsat-2 complètement polarimétriques pour un cas d'application de mélange sol nu/forêt. Les résultats montrent que, malgré le speckle, la reconstruction est valable. Il est toujours possible d'estimer localement des bases thématiques permettant de décomposer l'information radar polarimétrique puis de reconstruire le signal observé. Cet algorithme de démélange permet aussi d'assimiler de l'information portée par les images optiques. L'évaluation de la pertinence thématique des bases de la décomposition est plus problématique. Les expériences sur des données simulées montrent que celles-ci représentent bien l'information thématique souhaitée, mais que cette bonne estimation est dépendante de la nature des types thématiques et de leurs proportions de mélange. Cette méthode nécessite donc des études complémentaires sur l'utilisation de méthodes d'estimation plus robustes aux statistiques des images radar. Son application à des images radar de longueur d'onde plus longue pourrait permettre, par exemple, une meilleure estimation du volume de végétation dans le contexte de forêts ouvertes / Land cover is a layer of information of significant interest for land management issues. In this context, combining remote sensing observations of different types is expected to produce more reliable results on land cover classification. The objective of this work is to explore the use of polarimetric radar images in association with co-registered higher resolution optical images. Extracting information from a polarimetric representation consists in decomposing it with target decomposition algorithms. Understanding these mechanisms is challenging as they are mixed inside the radar cell resolution but it is the key to producing a reliable land cover classification. The problem while using these target decomposition algorithms is that average physical parameters are obtained. As a result, each land cover type of a mixed pixel might not be well described by the average polarimetric parameters. The effect is all the more important as speckle affecting radar observations requires a local estimation of the polarimetric matrices. In this context, we chose to assess whether optical images can improve the understanding of radar images at the observation scale so as to retrieve more information. Spatial and spectral unmixing methods, traditionally designed for optical image fusion, were found to be an interesting framework. As a consequence, the idea of unmixing physical radar scattering mechanisms with the optical images is proposed. The original method developed is the decomposition of the polarimetric information, based on land cover type. This thematic decomposition is performed before applying usual target decomposition algorithms. A linear mixing model for radar images and an unmixing algorithm are proposed in this document. Having pointed out that the linear unmixing model is able to split off polarimetric information on a land cover type basis, the information contained in the unmixed matrices is evaluated. The assesment is carried out with generated simulated data and polarimetric radar images from the Radarsat-2 satellite. For this experiment, textit {Bare soil} and textit {Forested area} were considered for land cover types. It was found that despite speckle the reconstructed radar information after the unmixing is statically relevant with the observations. Moreover, the unmixing algorithm is capable of assimilating information from optical images. The question whether the unmixed radar images contain relevant thematic information is more challenging. Results on real and simulated data show that this capacity depends on the types of land cover considered and their respective proportions. Future work will be carried out to make the estimation step more robust to speckle and to test this unmixing algorithm on longer wavelength radar images. In this case, this method could be used to have a better estimation of vegetation biomass in the context of open forested areas
|
8 |
Fusion de données de télédétection haute résolution pour le suivi de la neige / Fusion of high resolution remote sensing data for snow monitoringMasson, Théo 19 December 2018 (has links)
Les acquisitions de télédétection ont des caractéristiques complémentaires en termes de résolution spatiale et temporelle et peuvent mesurer différents aspects de la couverture neigeuse (propriétés physiques de surface, type de neige, etc.). En combinant plusieurs acquisitions, il devrait être possible d'obtenir un suivi précis et continu de la neige. Cependant, cet objectif se heurte à la complexité du traitement des images satellites et à la confusion possible entre les différents matériaux observés. Plus particulièrement, l’accès à l’information fractionnelle, c’est-à-dire à la proportion de neige dans chaque pixel, nécessite de retrouver la proportion de l’ensemble des matériaux qui se trouvent dans celui-ci. Ces proportions sont accessibles via des méthodes d’inversions ou démélange spectral se basant sur la résolution spectrale des images obtenues. Le défi général est alors d’arriver à exploiter correctement les différentes informations de natures différentes qui nous sont apportées par les différentes acquisitions afin de produire des cartes d’enneigement précises. Les objectifs de la thèse sont alors au nombre de trois et peuvent se résumer par trois grandes interrogations qui permettent de traiter les différents points évoqués:- Quelles sont les limitations actuelles de l’état de l'art pour l’observation spatiale optique de la neige ?- Comment exploiter les séries temporelles pour s’adapter à la variabilité spectrale des matériaux ?- Est-il possible de généraliser la fusion de données pour une acquisition multimodale à partir de capteurs optiques ?Une étude complète des différents produits de neige issus du satellite MODIS est ainsi proposée, permettant l’identification des nombreuses limitations dont la principale est le haut taux d’erreurs lors de la reconstitution de la fraction (environ 30%). Parmi ces résultats sont notamment identifiés des problèmes liés aux méthodes de démélange face à la variabilité spectrale des matériaux. Face à ces limitations nous avons exploité les séries temporelles MODIS pour proposer une nouvelle approche d’estimation des endmembers, étape critique du démélange spectral. La faible évolution temporelle du milieu (hors neige) est alors utilisée pour contraindre l’estimation des endmembers non seulement sur l’image d’intérêt, mais également sur les images des jours précédents. L’efficacité de cette approche bien que démontrée ici reste sujette aux limitations de résolution spatiale intrinsèques au capteur. Des expérimentations sur la fusion de donnée, à même de pouvoir améliorer la qualité des images, ont par conséquent été réalisées. Devant les limitations de ces méthodes dans le cas des capteurs multispectraux utilisés, une nouvelle approche de fusion a été proposée. Via la formulation d’un nouveau modèle et sa résolution, la fusion entre des capteurs optiques de tous types peut être réalisée sans considération de recouvrement spectral. Les différentes expérimentations sur l’estimation de cartes de neige montrent un intérêt certain d’une meilleure résolution spatiale pour isoler les zones enneigées. Ce travail montre ainsi les nouvelles possibilités de développement pour l’observation de la neige, mais également les évolutions de l’utilisation combinée des images satellites pour l’observation de la Terre en général. / Remote sensing acquisitions have complementary characteristics in terms of spatial and temporal resolution and can measure different aspects of snow cover (e.g., surface physical properties and snow type). By combining several acquisitions, it should be possible to obtain a precise and continuous monitoring of the snow. However, this task has to face the complexity of processing satellite images and the possible confusion between different materials observed. In particular, the estimation of fractional information, i.e., the amount of snow in each pixel, requires to know the proportion of the materials present in a scene. These proportions can be obtained performing spectral unmixing. The challenge is then to effectively exploit the information of different natures that are provided by the multiple acquisitions in order to produce accurate snow maps.Three main objectives are addressed by this thesis and can be summarized by the three following questions:- What are the current limitations of state-of-the-art techniques for the estimation of snow cover extent from optical observations?- How to exploit a time series for coping with the spectral variability of materials?- How can we take advantage of multimodal acquisitions from optical sensors for estimating snow cover maps?A complete study of the various snow products from the MODIS satellite is proposed. It allows the identification of numerous limitations, the main one being the high rate of errors during the estimation of the snow fraction (approximately 30%).The experimental analysis allowed to highlight the sensitivity of the spectral unmixing methods against the spectral variability of materials.Given these limitations, we have exploited the MODIS time series to propose a new endmembers estimation approach, addressing a critical step in spectral unmixing. The low temporal evolution of the medium (except snow) is then used to constrain the estimation of the endmembers not only on the image of interest, but also on images of the previous days. The effectiveness of this approach, although demonstrated here, remains limited by the spatial resolution of the sensor.Data fusion has been considered aiming at taking advantage of multiple acquisitions with different characteristics in term of resolution available on the same scene. Given the limitations of the actual methods in the case of multispectral sensors, a new fusion approach has been proposed. Through the formulation of a new model and its resolution, the fusion between optical sensors of all types can be achieved without consideration of their characteristics. The various experiments on the estimation of snow maps show a clear interest of a better spatial resolution to isolate the snow covered areas. The improvement in spectral resolution will improve future approaches based on spectral unmixing.This work explores the new possibilities of development for the observation of snow, but also for the combined use of the satellite images for the observation of the Earth in general.
|
9 |
Fusion de systèmes et analyse des caractéristiques linguistiques des requêtes: vers un processus de RI adaptatifKompaoré, Nongdo Désiré 26 June 2008 (has links) (PDF)
La recherche d'information (RI) est un domaine de recherche qui est de plus en plus visible, surtout avec la profusion de données (textes, images, vidéos, etc) sur Internet.<br />Nous nous intéressons dans cette thèse à la RI à partir de documents textuels non structurés.<br />Trois éléments sont essentiels dans un processus de RI : un besoin d'information (généralement exprimé sous la forme d'une requête), un système de recherche d'information (SRI), et une collection de documents. Ainsi, la requête est soumise au SRI qui<br />recherche dans la collection les documents les plus pertinents pour la requête. La variabilité relative à l'expression de la requête, la relation entre la requête et les documents, ainsi que celle liée aux caractéristiques des SRI utilisés conduisent à des variabilités dans les réponses obtenues (Buckley et al., 2004). Ainsi, le système A peut être très<br />performant pour une requête donnée et être très médiocre pour une autre requête, alors que le système B conduira à des résultats inversés.<br />Notre thèse se situe dans ce contexte. Notre objectif est de proposer des méthodes de recherche pouvant s'intégrer dans un modèle de recherche capable de s'adapter à différents contextes. Nous considérons par exemple que les caractéristiques linguistiques (CL) des requêtes, les performances locales des systèmes ainsi que leurs caractéristiques<br />sont des éléments définissant différents contextes. Nous proposons plusieurs processus afin d'atteindre cet objectif. D'une part, nous utilisons un profil linguistique des requêtes (Mothe et Tanguy, 2005) qui nous permet d'établir une classification des requêtes à base de leurs CL. Nous utilisons à cet effet des techniques statistiques d'analyse de données telles que la classification ascendante hiérarchique (CAH) et les k-means. Les requêtes ne sont plus alors considérées de manière isolée, mais sont vues comme des groupes possédant des CL similaires. L'hypothèse sous-jacente que nous faisons est qu'il existe des contextes dans lesquels certains SRI sont plus adaptés que d'autres. Nous étudions alors les performances des systèmes sur les classes de requêtes obtenues (contextes). Nous proposons quatre méthodes de fusion afin de combiner les résultats obtenus pour une requête donnée, par différents SRI. Une série d'expérimentations valide nos propositions. <br />L'ensemble de ces travaux s'appuie sur l'évaluation au travers des campagnes d'évaluation de TREC.
|
10 |
Fusion de données multicapteurs pour la construction incrémentale du modèle tridimensionnel texturé d'un environnement intérieur par un robot mobileZureiki, Ayman 16 September 2008 (has links) (PDF)
Ce travail traite la problématique de la Modélisation 3D d'un environnement intérieur supposé inconnu par un robot mobile. Notre principale contribution concerne la construction d'un modèle géométrique dense représenté par une carte hétérogène qui combine des amers plans texturés, des lignes 3D et des points d'intérêt. Afin de réaliser cette tâche, nous devons fusionner des données géométriques et photométriques. Pour cela, nous avons d'abord amélioré la stéréovision dense, en proposant une approche qui transforme le problème de la mise en correspondance stéréoscopique en un problème de minimisation d'une fonction d'énergie globale. Le minimum de cette fonction est trouvé par une coupure minimale dans un graphe. Notre contribution réside dans la construction d'un graphe réduit qui a permis d'accélérer considérablement cette méthode globale de l'appariement stéréoscopique et d'obtenir de meilleurs résultats que les méthodes locales. Néanmoins, cette méthode reste non applicable en robotique mobile. Aussi, pour percevoir l'environnement, le robot est équipé d'un télémètre laser pivotant autour d'un axe horizontal et d'une caméra. Nous proposons une chaîne algorithmique permettant de construire de manière incrémentale une carte hétérogène, par l'algorithme de Cartographie et Localisation Simultanées basé sur le filtre de Kalman étendu (EKF-SLAM). Le placage de la texture sur les facettes planes rend le modèle plus réaliste pour un opérateur ; il a permis aussi de solidifier l'étape d'association de données, une étape essentielle pour garantir la cohérence de la carte. Les différents mécanismes développés sont illustrés et validés par des résultats expérimentaux.
|
Page generated in 0.0938 seconds