• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 13
  • 7
  • 2
  • Tagged with
  • 22
  • 22
  • 7
  • 7
  • 7
  • 7
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • 5
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Économie de l’Innovation : le cas du véhicule intelligent / Economy of innovation : the case of the intelligent vehicle

Shang, Lu 05 July 2010 (has links)
Intitulée « Economie de l’innovation – le cas du véhicule intelligent », cette thèse analyse la montée en puissance de l’innovation dans le transport à travers la croissance de l’intelligence artificielle dans les véhicules, les infrastructures et les postes centralisés de régulation et de surveillance. Elle introduit de nouveaux instruments théoriques en économie de l’innovation, définissant le cadre d’une économie comportementale de l’innovation. Ces nouveaux instruments théoriques sont appliqués au cas des concepteurs et des consommateurs-conducteurs du véhicule intelligent. Les apports novateurs portent sur : - l’impact sur la sécurité routière des systèmes intelligents ; - les conditions de l’acceptabilité et de la diffusion des systèmes intelligents ;- l’évolution de l’industrie automobile vers le véhicule intelligent ; - la conception générale du véhicule intelligent : l’intelligence artificielle intégrée dans le véhicule comme un outil ou le véhicule comme accessoire de l’intelligence du mouvement. / Titled “Economy of innovation – The case of the intelligent (smart ?) vehicle”, this thesis deals with the growing innovation in the transportation means through the growing importance of artificial intelligence in vehicles, in infrastructures, and in centralized regulation and monitoring centers. It presents new theoretical instruments applicable for the economy of innovation by defining the framework of its behavioral aspects. These new theoretical instruments are applied to the case of designers and to the case of consumers-drivers of the intelligent vehicle. Innovative topics are the following: - the impact of intelligent systems on road safety, - the conditions for accepting and spreading intelligent systems, - the evolution of the car industry towards the intelligent vehicle, - the global design of the intelligent vehicle: the artificial intelligence embedded in the vehicle as an assistant tool or the vehicle as secondary to the intelligence of the movement.
2

Descripteurs 2D et 2D+t de points d'intérêt pour des appariements robustes / 2D and 2D+t descriptors of points of interest for robust matching

Grand-Brochier, Manuel 18 November 2011 (has links)
De nos jours les méthodes de vision par ordinateur sont utilisées dans de nombreuses applications telles que la vidéo-surveillance, l'aide à la conduite ou la reconstruction 3D par exemple. Ces différentes applications s'appuient généralement sur des procédés de reconnaissance de formes ou de suivi. Pour ce faire, l'image est analysée afin d'en extraire des amers ou des primitives (contours, fonctions d'intensité ou modèles morphologiques). Les méthodes les plus courantes s'appuient sur l'utilisation de points d'intérêt représentant une discontinuité des niveaux de gris caractérisant un coin dans une image. Afin de mettre en correspondance un ensemble de points d'une image à une autre, une description locale est utilisée. Elle permet d'extraire l'information du voisinage de chaque point (valeurs des pixels, des intensités lumineuses, des gradients). Dans le cas d'applications telles que la vidéo-surveillance ou les caméras embarquées, l'ajout d'une information temporelle est fortement recommandé. Cette généralisation est utilisée au sein du laboratoire pour des projets de type véhicules intelligents (CyCab : véhicule intelligent, VELAC : VEhicule du Lasmea pour l'Aide à la Conduite). Les travaux de recherche présentés dans ce mémoire ont pour objectif de mettre en oeuvre différents outils de détection, description et mise en correspondance de points d'intérêt. Un certain nombre de contraintes a été établi, notamment l'utilisation d'images en niveaux de gris, la robustesse et l'aspect générique de la méthode. Dans un premier temps, nous proposons une analyse bibliographique des méthodes existantes. Cette dernière permet en effet d'en déduire les paramètres de mise en oeuvre ainsi que les principaux avantages et inconvénients. Nous détaillons par la suite la méthode proposée. La détection des primitives repose sur l'utilisation du détecteur fast-hessien que nous optimisons. L'utilisation d'une description locale basée sur des histogrammes de gradients orientés (HOG) est très répandue et procure de très bons résultats. Nous proposons de compléter son utilisation par un recalage et une mise à l'échelle d'un masque d'analyse elliptique créant ainsi une nouvelle forme de description locale (E-HOG). La mise en correspondance des points d'intérêt se base quant à elle sur une approche par corrélation à laquelle nous ajoutons un coefficient de sélection ainsi qu'une étape de suppression des doublons. Les différents résultats validant notre approche s'appuient sur l'utilisation de transformations synthétiques (vérité terrain) ou réelles. Nous proposons également une généralisation de notre approche au domaine spatiotemporel, permettant ainsi d'élargir son domaine d'utilisation. Le masque d'analyse précédemment cité est modifié et s'appuie donc sur l'utilisation d'ellipsoïdes. Les tests de validation reposent d'une part sur des séquences vidéo ayant subi des transformations synthétiques et d'autre part sur des séquences réelles issues de la plate-forme PAVIN (Plate-forme d'Auvergne pour Véhicules Intelligents). / Pas de résumé disponible
3

Descripteurs 2D et 2D+t de points d'intérêt pour des appariements robustes

Grand-Brochier, Manuel 18 November 2011 (has links) (PDF)
De nos jours les méthodes de vision par ordinateur sont utilisées dans de nombreuses applications telles que la vidéo-surveillance, l'aide à la conduite ou la reconstruction 3D par exemple. Ces différentes applications s'appuient généralement sur des procédés de reconnaissance de formes ou de suivi. Pour ce faire, l'image est analysée afin d'en extraire des amers ou des primitives (contours, fonctions d'intensité ou modèles morphologiques). Les méthodes les plus courantes s'appuient sur l'utilisation de points d'intérêt représentant une discontinuité des niveaux de gris caractérisant un coin dans une image. Afin de mettre en correspondance un ensemble de points d'une image à une autre, une description locale est utilisée. Elle permet d'extraire l'information du voisinage de chaque point (valeurs des pixels, des intensités lumineuses, des gradients). Dans le cas d'applications telles que la vidéo-surveillance ou les caméras embarquées, l'ajout d'une information temporelle est fortement recommandé. Cette généralisation est utilisée au sein du laboratoire pour des projets de type véhicules intelligents (CyCab : véhicule intelligent, VELAC : VEhicule du Lasmea pour l'Aide à la Conduite). Les travaux de recherche présentés dans ce mémoire ont pour objectif de mettre en oeuvre différents outils de détection, description et mise en correspondance de points d'intérêt. Un certain nombre de contraintes a été établi, notamment l'utilisation d'images en niveaux de gris, la robustesse et l'aspect générique de la méthode. Dans un premier temps, nous proposons une analyse bibliographique des méthodes existantes. Cette dernière permet en effet d'en déduire les paramètres de mise en oeuvre ainsi que les principaux avantages et inconvénients. Nous détaillons par la suite la méthode proposée. La détection des primitives repose sur l'utilisation du détecteur fast-hessien que nous optimisons. L'utilisation d'une description locale basée sur des histogrammes de gradients orientés (HOG) est très répandue et procure de très bons résultats. Nous proposons de compléter son utilisation par un recalage et une mise à l'échelle d'un masque d'analyse elliptique créant ainsi une nouvelle forme de description locale (E-HOG). La mise en correspondance des points d'intérêt se base quant à elle sur une approche par corrélation à laquelle nous ajoutons un coefficient de sélection ainsi qu'une étape de suppression des doublons. Les différents résultats validant notre approche s'appuient sur l'utilisation de transformations synthétiques (vérité terrain) ou réelles. Nous proposons également une généralisation de notre approche au domaine spatiotemporel, permettant ainsi d'élargir son domaine d'utilisation. Le masque d'analyse précédemment cité est modifié et s'appuie donc sur l'utilisation d'ellipsoïdes. Les tests de validation reposent d'une part sur des séquences vidéo ayant subi des transformations synthétiques et d'autre part sur des séquences réelles issues de la plate-forme PAVIN (Plate-forme d'Auvergne pour Véhicules Intelligents).
4

Contribution to Perception for Intelligent Vehicles

Aycard, Olivier 09 December 2010 (has links) (PDF)
Perceiving or understanding the environment surrounding of a vehicle is a very important step in building driving assistant systems or autonomous vehicles. In this thesis, we focus on using laser scanner as a main perception sensor in context of dynamic outdoor environments. To solve this problem, we have to deal with 3 main tasks: (1) identify static part and dynamic entities moving in the environment, (2) use static part of the environment to build a map of the environment and localize the vehicle inside this map: this task is know as "Simultaneous Localization And Mapping" (SLAM) and finally (3) Detect And Track Moving Objects (DATMO). Regarding SLAM, the first contribution of this research is made by a grid-based approach\footnote{An occupancy grid is a decomposition of the environment in rectangular cells where each cell contains the probability that it is occupied by an obstacle.} to solve both problems of SLAM and detection of moving objects. To correct vehicle location from odometry we introduce a new fast incremental scan matching method that works reliably in dynamic outdoor environments. After good vehicle location is estimated, the surrounding map is updated incrementally and moving objects are detected without a priori knowledge of the targets. Our second contribution is an efficient, precise and multiscale representation of 2D/3D environment. This representation is actually an extension of occupancy grid where (1) only cells corresponding to occupied part of the environment are stored and updated (2) where cells are represented by a cluster of gaussian to have a fine representation of the environment and (3) where several occupancy grids are used to store and update a multiscale representation of the environment. Regarding DATMO, we firstly present a method of simultaneous detection, classification and tracking moving objects. A model-based approach is introduced to interpret the laser measurement sequence over a sliding window of time by hypotheses of moving object trajectories. The data-driven Markov chain Monte Carlo (DDMCMC) technique is used to explore the hypothesis space and effectively find the most likely solution. An other important problem to solve regarding DATMO is the definition of an appropriate dynamic model. In practice, objects can change their dynamic behaviors over time (e.g. : stopped, moving, accelerating, etc...). To adapt to these changing behaviors, a multiple dynamic model is generally required. But, this set of dynamic models and interactions between these models are always given a priori. Our second contribution on DATMO is a method to guide in the choice of motion models and in the estimation of interactions between these motion models. The last part of this thesis reports integration of these contributions on different experimental platforms in the framework of some national and european projects. Evaluations are presented which confirm the robustness and reliability of our contributions.
5

Cooperation stereo mouvement pour la detection des objets dynamiques / Stereo-Motion Cooperation - Dynamic Objects Detection

Bak, Adrien 14 October 2011 (has links)
Un grand nombre d'applications de robotique embarquées pourrait bénéficier d'une détection explicite des objets mobiles. A ce jour, la majorité des approches présentées repose sur la classification, ou sur une analyse structurelle de la scène (la V-Disparité est un bon exemple de ces approches). Depuis quelques années, nous sommes témoins d'un intérêt croissant pour les méthodes faisant collaborer activement l'analyse structurelle et l'analyse du mouvement. Ces deux processus sont en effet étroitement liés. Dans ce contexte, nous proposons, à travers de travail de thèse, deux approches différentes. Si la première fait appel à l'intégralité de l'information stéréo/mouvement, la seconde se penche sur le cas des capteurs monoculaires, et permet de retrouver une information partielle.La première approche présentée consiste en un système innovation d'odométrie visuelle. Nous avons en effet démontré que le problème d'odométrie visuelle peut être posé de façon linéaire, alors que l'immense majorité des auteurs sont contraint de faire appel à des méthodes d'optimisation non-linéaires. Nous avons également montré que notre approche permet d'atteindre, voire de dépasser le niveau de performances présenté par des système matériels haut de gamme (type centrale inertielle). A partir de ce système d'odométrie visuelle, nous définissons une procédure permettant de détecter les objets mobiles. Cette procédure repose sur une compensation de l'influence de l'égo-mouvement, puis une mesure du mouvement résiduel. Nous avons ensuite mené une réflexion de fond sur les limitations et les sources d'amélioration de ce système. Il nous est apparu que les principaux paramètres du système de vision (base, focale) ont un impact de premier plan sur les performances du détecteur. A notre connaissance, cet impact n'a jamais été décrit dans la littérature. Il nous semble cependant que nos conclusions peuvent constituer un ensemble de recommandations utiles à tout concepteur de système de vision intelligent.La seconde partie de ce travail porte sur les systèmes de vision monoculaire, et plus précisément sur le concept de C-Vélocité. Alors que la V-Disparité a défini une transformée de la carte de disparité permettant de mettre en avant certains plans de l'image, la C-Vélocité défini une transformée du champ de flot optique, et qui utilise la position du FoE, qui permet une détection facile de certains plans spécifiques de l'image. Dans ce travail, nous présentons une modification de la C-Vélocité. Au lieu d'utiliser un a priori sur l'égo-mouvement (la position du FoE) afin d'inférer la structure de la scène, nous utilisons un a priori sur la structure de la scène afin de localiser le FoE, donc d'estimer l'égo-mouvement translationnel. Les premiers résultats de ce travail sont encourageants et nous permettent d'ouvrir plusieurs pistes de recherches futures. / Many embedded robotic applications could benefit from an explicit detection of mobile objects. To this day, most approaches rely on classification, or on some structural scene analysis (for instance, V-Disparity). During the last few years, we've witnessed a growing interest for collaboration methods, that use actively btw structural analysis and motion analysis. These two processes are, indeed, closely related. In this context, we propose, through this study, two novel approaches that address this issue. While the first one use information from stereo and motion, the second one focuses on monocular systems, and allows us to retrieve a partial information.The first presented approach consists in a novel visual odometry system. We have shown that, even though the wide majority of authors tackle the visual odometry problem as non-linear, it can be shown to be purely linear. We have also shown that our approach achieves performances, as good as, or even better than the ones achieved by high-end IMUs. Given this visual odometry system, we then define a procedure allowing us to detect mobile objects. This procedure relies on a compensation of the ego-motion and a measure of the residual motion. We then lead a reflexion on the causes of limitation and the possible sources of improvement of this system. It appeared that the main parameters of the vision system (baseline, focal length) have a major impact on the performances of our detector. To the best of our knowledge, this impact had never been discussed, prior to our study. However, we think that our conclusion could be used as a set of recommendations, useful for every designer of intelligent vision system.the second part of this work focuses on monocular systems, and more specifically on the concept of C-Velocity. When V-Disparity defined a disparity map transform, allowing an easy detection of specific planes, C-Velocity defines a transform of the optical flow field, using the position of the FoE, allowing an easy detection of specific planes. Through this work, we present a modification of the C-Velocity concept. Instead of using a priori knowledge of the ego-motion (the position of the FoE) in order to determine the scene structure, we use a prior knowledge of the scene structure in order to localize the FoE, thus the translational ego-motion. the first results of this work are promising, and allow us to define several future works.
6

Contribution à la localisation dynamique d'automobiles.<br />Application à l'aide à la conduite.

Bonnifait, Philippe 13 December 2005 (has links) (PDF)
Le manuscrit est organisé autour de 4 chapitres scientifiques et techniques. Le premier porte sur la radiolocalisation. Il en dresse un état de l'art en décrivant les mesures et le fonctionnement de systèmes de radiolocalisation sur la base des exemples du LORAN C et du GPS. Ces principes serviront aux modélisations du chapitre 4. Les amers utilisés par les systèmes de localisation ont été souvent peu considérés. Depuis quelques années et suite au progrès des techniques de cartographie et localisation simultanées, ils sont au centre des préoccupations de chercheurs. Ainsi dans le chapitre 3, je présente quelques types d'amers en cherchant à faire le lien avec l'information géographique et les bases de données navigables utiles pour leur gestion. Le chapitre 4 pose le problème de la localisation dynamique comme un problème d'observation d'état et décrit les différentes méthodologies que j'ai étudiées.<br>C'est le chapitre le plus méthodologique dans lequel je présente le plus de résultats. Enfin, le chapitre 5 présente l'application de mes travaux à l'aide à la conduite automobile.<br>Le document se terminera par une synthèse de mes contributions scientifiques et dressera des perspectives de recherche.
7

Coopération stéréo mouvement pour la détection des objets dynamiques

Bak, Adrien 14 October 2011 (has links) (PDF)
Un grand nombre d'applications de robotique embarquées pourrait bénéficier d'une détection explicite des objets mobiles. A ce jour, la majorité des approches présentées repose sur la classification, ou sur une analyse structurelle de la scène (la V-Disparité est un bon exemple de ces approches). Depuis quelques années, nous sommes témoins d'un intérêt croissant pour les méthodes faisant collaborer activement l'analyse structurelle et l'analyse du mouvement. Ces deux processus sont en effet étroitement liés. Dans ce contexte, nous proposons, à travers de travail de thèse, deux approches différentes. Si la première fait appel à l'intégralité de l'information stéréo/mouvement, la seconde se penche sur le cas des capteurs monoculaires, et permet de retrouver une information partielle.La première approche présentée consiste en un système innovation d'odométrie visuelle. Nous avons en effet démontré que le problème d'odométrie visuelle peut être posé de façon linéaire, alors que l'immense majorité des auteurs sont contraint de faire appel à des méthodes d'optimisation non-linéaires. Nous avons également montré que notre approche permet d'atteindre, voire de dépasser le niveau de performances présenté par des système matériels haut de gamme (type centrale inertielle). A partir de ce système d'odométrie visuelle, nous définissons une procédure permettant de détecter les objets mobiles. Cette procédure repose sur une compensation de l'influence de l'égo-mouvement, puis une mesure du mouvement résiduel. Nous avons ensuite mené une réflexion de fond sur les limitations et les sources d'amélioration de ce système. Il nous est apparu que les principaux paramètres du système de vision (base, focale) ont un impact de premier plan sur les performances du détecteur. A notre connaissance, cet impact n'a jamais été décrit dans la littérature. Il nous semble cependant que nos conclusions peuvent constituer un ensemble de recommandations utiles à tout concepteur de système de vision intelligent.La seconde partie de ce travail porte sur les systèmes de vision monoculaire, et plus précisément sur le concept de C-Vélocité. Alors que la V-Disparité a défini une transformée de la carte de disparité permettant de mettre en avant certains plans de l'image, la C-Vélocité défini une transformée du champ de flot optique, et qui utilise la position du FoE, qui permet une détection facile de certains plans spécifiques de l'image. Dans ce travail, nous présentons une modification de la C-Vélocité. Au lieu d'utiliser un a priori sur l'égo-mouvement (la position du FoE) afin d'inférer la structure de la scène, nous utilisons un a priori sur la structure de la scène afin de localiser le FoE, donc d'estimer l'égo-mouvement translationnel. Les premiers résultats de ce travail sont encourageants et nous permettent d'ouvrir plusieurs pistes de recherches futures.
8

Contributions des systèmes de vision à la localisation et au suivi d'objets par fusion multi-capteur pour les véhicules intelligents

Rodriguez Florez, Sergio Alberto 07 December 2010 (has links) (PDF)
Les systèmes d'aide à la conduite peuvent améliorer la sécurité routière en aidant les utilisateurs via des avertissements de situations dangereuses ou en déclenchant des actions appropriées en cas de collision imminente (airbags, freinage d'urgence, etc). Dans ce cas, la connaissance de la position et de la vitesse des objets mobiles alentours constitue une information clé. C'est pourquoi, dans ce travail, nous nous focalisons sur la détection et le suivi d'objets dans une scène dynamique. En remarquant que les systèmes multi-caméras sont de plus en plus présents dans les véhicules et en sachant que le lidar est performant pour la détection d'obstacles, nous nous intéressons à l'apport de la vision stéréoscopique dans la perception géométrique multimodale de l'environnement. Afin de fusionner les informations géométriques entre le lidar et le système de vision, nous avons développé un procédé de calibrage qui détermine les paramètres extrinsèques et évalue les incertitudes sur ces estimations. Nous proposons ensuite une méthode d'odométrie visuelle temps-réel permettant d'estimer le mouvement propre du véhicule afin de simplifier l'analyse du mouvement des objets dynamiques. Dans un second temps, nous montrons comment l'intégrité de la détection et du suivi des objets par lidar peut être améliorée en utilisant une méthode de confirmation visuelle qui procède par reconstruction dense de l'environnement 3D. Pour finir, le système de perception multimodal a été intégré sur une plateforme automobile, ce qui a permis de tester expérimentalement les différentes approches proposées dans des situations routières en environnement non contrôlé.
9

Contributions to Lane Marking Based Localization for Intelligent Vehicles / Contribution à la localisation de véhicules intelligents à partir de marquage routier

Lu, Wenjie 09 February 2015 (has links)
Les applications pour véhicules autonomes et les systèmes d’aide avancée à la conduite (Advanced Driving Assistance Systems - ADAS) mettent en oeuvre des processus permettant à des systèmes haut niveau de réaliser une prise de décision. Pour de tels systèmes, la connaissance du positionnement précis (ou localisation) du véhicule dans son environnement est un pré-requis nécessaire. Cette thèse s’intéresse à la détection de la structure de scène, au processus de localisation ainsi qu’à la modélisation d’erreurs. A partir d’un large spectre fonctionnel de systèmes de vision, de l’accessibilité d’un système de cartographie ouvert (Open Geographical Information Systems - GIS) et de la large diffusion des systèmes de positionnement dans les véhicules (Global Positioning System - GPS), cette thèse étudie la performance et la fiabilité d’une méthode de localisation utilisant ces différentes sources. La détection de marquage sur la route réalisée par caméra monoculaire est le point de départ permettant de connaître la structure de la scène. En utilisant, une détection multi-noyau avec pondération hiérarchique, la méthode paramétrique proposée effectue la détection et le suivi des marquages sur la voie du véhicule en temps réel. La confiance en cette source d’information a été quantifiée par un indicateur de vraisemblance. Nous proposons ensuite un système de localisation qui fusionne des informations de positionnement (GPS), la carte (GIS) et les marquages détectés précédemment dans un cadre probabiliste basé sur un filtre particulaire. Pour ce faire, nous proposons d’utiliser les marquages détectés non seulement dans l’étape de mise en correspondance des cartes mais aussi dans la modélisation de la trajectoire attendue du véhicule. La fiabilité du système de localisation, en présence d’erreurs inhabituelles dans les différentes sources d’information, est améliorée par la prise en compte de différents indicateurs de confiance. Ce mécanisme est par la suite utilisé pour identifier les sources d’erreur. Cette thèse se conclut par une validation expérimentale des méthodes proposées dans des situations réelles de conduite. Leurs performances ont été quantifiées en utilisant un véhicule expérimental et des données en libre accès sur internet. / Autonomous Vehicles (AV) applications and Advanced Driving Assistance Systems (ADAS) relay in scene understanding processes allowing high level systems to carry out decision marking. For such systems, the localization of a vehicle evolving in a structured dynamic environment constitutes a complex problem of crucial importance. Our research addresses scene structure detection, localization and error modeling. Taking into account the large functional spectrum of vision systems, the accessibility of Open Geographical Information Systems (GIS) and the widely presence of Global Positioning Systems (GPS) onboard vehicles, we study the performance and the reliability of a vehicle localization method combining such information sources. Monocular vision–based lane marking detection provides key information about the scene structure. Using an enhanced multi-kernel framework with hierarchical weights, the proposed parametric method performs, in real time, the detection and tracking of the ego-lane marking. A self-assessment indicator quantifies the confidence of this information source. We conduct our investigations in a localization system which tightly couples GPS, GIS and lane makings in the probabilistic framework of Particle Filter (PF). To this end, it is proposed the use of lane markings not only during the map-matching process but also to model the expected ego-vehicle motion. The reliability of the localization system, in presence of unusual errors from the different information sources, is enhanced by taking into account different confidence indicators. Such a mechanism is later employed to identify error sources. This research concludes with an experimental validation in real driving situations of the proposed methods. They were tested and its performance was quantified using an experimental vehicle and publicly available datasets.
10

Grilles de perception évidentielles pour la navigation robotique en milieu urbain / Evidential perception grids for robotics navigation in urban environment

Moras, Julien 17 January 2013 (has links)
Les travaux de recherche présentés dans cette thèse portent sur le problème de la perception de l’environnement en milieu urbain, complexe et dynamique et ce en présence de mesures extéroceptives bruitées et incomplètes obtenues à partir decapteurs embarqués. Le problème est formalisé sous l’angle de la fusion de données capteurs à l’aide d’une représentation spatiale de l’environnement. Ces travaux ont été réalisés pour la navigation autonome de véhicules intelligents dans le cadre du projet national ANR CityVIP. Après avoir considéré les principaux formalismes de modélisation de l’incertitude, un système de fusion de grilles spatio-référencées gérant l’incertitude avec des fonctions de croyances est étudié. Ce système est notamment capable de fusionner les mesures d’un lidar multi-nappes et multi-échos, obtenues à différents instants pour construire une carte locale dynamique sous la forme discrète d’une grille d’occupation évidentielle.Le principal avantage des fonctions de croyance est de représenter de manière explicite l’ignorance et ne nécessite donc pas d’introduire d’information à priori non fondée. De plus, ce formalisme permet d’utiliser facilement l’information conflictuelle pour déterminer la dynamique de la scène comme par exemple les cellules en mouvement. Le formalisme de grilles d’occupation évidentielles est présenté en détails et un modèle de capteur lidar multi-nappes et multi-echos est ensuite proposé. Deux approches de fusion séquentielle multi-grilles sont étudiées selon les paradigmes halocentréet égo-centré. Enfin, l’implémentation et les tests expérimentaux des approches sont décrits et l’injection d’informations géographiques connues a priori est étudiée. La plupart des travaux présentés ont été implémentés en temps réel sur un véhicule du laboratoire et de nombreux tests en conditions réelles ont été réalisés avec une interface d’analyse de résultat utilisant une rétro-projection dans une image grand angle. Les résultats ont été présentés dans 5 conférences internationales [Moras et al., 2010, Moras et al., 2011a, Moras et al., 2011b, Moras et al., 2012, Kurdej et al., 2012] etle système expérimental a servi à la réalisation de démonstrations officielles dans le cadre du projet CityVIP à Paris et lors de la conférence IEEE Intelligent Vehicles Symposium 2011 en Allemagne. / The research presented in this thesis focuses on the problem of the perception of the urban environment which is complex and dynamic in the presence of noisy and incomplete exteroceptive measurements obtained from on-board sensors. The problem is formalized in terms of sensor data fusion with a spatial representation of the environment. This work has been carried out for the autonomous navigation of intelligent vehicles within the national project ANR CityVIP. After having considered various formalisms to represent uncertainty, a fusion of spatio-referenced grids managing uncertainty with belief functions is studied. This system is capable of merging multi-layers and multi-echoes lidar measurements, obtainedat different time indexes to build a dynamic local map as a discrete evidential occupancy grid. The main advantages of belief functions are, firstly, to represent explicitly ignorance, which reduces the assumptions and therefore avoid introducing wrong a priori information and, secondly, to easily use conflicting information to determine the dynamics of the scene such as movements of the cells. The formalism of evidential occupancy grids is then presented in details and two multi-layers and multi-echos lidar sensor models are proposed. The propagation of the information through geometrical transformations is formalized in a similar way of image transformation framework. Then, the implementation of the approach is described and the injection of prior geographic information is finally investigated. Most of the works presented have been implemented in real time on a vehicle and many tests in real conditions have been realized. The results of these researches were presented through five international conferences [Moras et al., 2010, Moras et al., 2011a, Moras et al., 2011b, Moras et al., 2012], [Kurdej et al., 2012] and the experimental vehicle was presented at the official demonstration project CityVIP in Paris and at the IEEE Intelligent Vehicles Symposium 2011, in Germany.

Page generated in 0.1043 seconds