• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 21
  • 9
  • 2
  • Tagged with
  • 32
  • 32
  • 15
  • 14
  • 12
  • 12
  • 11
  • 10
  • 9
  • 9
  • 9
  • 9
  • 9
  • 8
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Le signal monogène couleur : théorie et applications

Demarcq, Guillaume 10 December 2010 (has links) (PDF)
Dans cette thèse, une nouvelle représentation des images couleur basée sur une généralisation du signal analytique est introduite. En utilisant l'analogie entre les conditions de Cauchy-Riemann, qui définissent le caractère holomorphe d'une fonction, et l'équation de Dirac dans l'algèbre de Clifford R_{5,0}, un système d'équations dont la solution est le signal monogène couleur est obtenu. Ce signal est notamment basé sur des noyaux de Riesz ainsi que de Poisson 2D, et une représentation polaire, basée sur un produit géométrique, peut lui être associée. Les applications envisagées reposent majoritairement sur cette représentation polaire et sur les informations de couleur et de structures locales s'y rattachant. Des problématiques liées au flot optique couleur, à la segmentation couleur multi-échelle, au suivi d'objets couleur et à la détection de points d'intérêt sont abordées. En ce qui concerne le flot optique, nous nous intéressons à l'extraction du mouvement d'objets d'une certaine couleur en remplaçant la contrainte de conservation de l'intensité par une contrainte de conservation d'angles. Pour la segmentation, une méthode de détection de contours basée sur de la géométrie différentielle et plus particulièrement sur la première forme fondamentale d'une surface, est proposée afin de déterminer les contours d'objets d'une couleur choisie. Pour le suivi d'objets, nous définissons un nouveau critère de similarité utilisant le produit géométrique que nous insérons dans un filtrage particulaire. Enfin, nous resituons la définition du détecteur de Harris dans le cadre de la géométrie différentielle en faisant le lien entre ce dernier et une version "relaxée" du discriminant du polynôme caractéristique de la première forme fondamentale. Ensuite nous proposons une nouvelle version multi-échelle de ce détecteur en traitant le paramètre d'échelle comme une variable d'une variété de dimension 3.
12

Intégration du contexte par réseaux bayésiens pour la détection et le suivi multi-cibles

Jida, B. 09 December 2008 (has links) (PDF)
Ces travaux se placent dans le cadre général de l'assistance au conducteur et plus particulièrement de la sécurité. L'objectif est ici de surveiller l'environnement d'un véhicule grâce à un capteur télémétrique à balayage et d'informer le conducteur de situations potentiellement dangereuses. Ce dispositif permet alors d'envisager une manoeuvre d'évitement ou d'atténuation de collision. Deux points particuliers ont retenu notre attention : la détection d'objets qui occupe une place privilégiée car elle conditionne directement les performances globales de la méthode, et le processus d'association/suivi qui doit permettre d'associer efficacement les mesures disponibles à chaque objet suivi. Les données télémétriques utilisées nécessitent de passer par une étape de détection afin d'estimer le nombre d'objets présents dans la scène et leur distance au capteur, en procédant à une agrégation des mesures liées au même objet. Nous proposons en particulier dans ce mémoire une méthode de détection d'objets qui exploite non seulement la nature des mesures disponibles mais également les caractéristiques géométriques particulières liées au contexte applicatif. L'approche retenue pour l'étape d'association repose sur les méthodes d'association probabiliste de données qui permettent notamment de considérer le fait qu'une mesure disponible puisse ne pas être liée à un objet, en exploitant donc directement les notions de probabilité de détection et de fausse alarme. Ces probabilités, et notamment la probabilité de détection, demeurent non seulement fortement liées au détecteur, mais également au contexte de la scène : contexte capteur/objet et contexte objet/objet. Pour pouvoir intégrer ces informations globales de contexte, nous proposons une méthode d'association-suivi basée sur les réseaux bayésiens qui autorise l'intégration de paramètres liés aux caractéristiques des objets et du capteur dans la détermination de la probabilité de détection.
13

Algorithmes adaptatifs d'estimation du fond pour la détection des objets mobiles dans les séquences vidéos

Nghiem, Anh-Tuan 09 June 2010 (has links) (PDF)
Dans cette thèse, nous nous intéressons à la détection d'objets mobiles dans des séquences vidéo. En particulier, nous proposons une nouvelle méthode d'estimation du fond qui peut s'adapter aux différentes variations de la scène (ex. changements d'illumination, du fond). Cette méthode est composée d'un algorithme de soustraction du fond pour détecter les pixels du fond et d'un algorithme de post-traitement pour éliminer les changements d'illumination tels que les ombres des objets mobiles. Pour que cette méthode puisse s'adapter à une scène dynamique, nous proposons un contrôleur avec deux stratégies d'adaptation. La première stratégie supervise l'algorithme de soustraction du fond pour mettre à jour la représentation du fond en fonction du type d'objets détectés et des conditions d'illumination. Cette stratégie permet aux algorithmes de soustraction du fond de résoudre des problèmes concernant des petits bruits, des changements soudains d'illumination, la gestion des objets stationnaires, et aussi la détection des objets d'intérêt quand ils s'arrêtent de bouger. La deuxième stratégie règle les valeurs des paramètres de l'algorithme de soustraction du fond pour qu'il puisse s'adapter aux conditions courantes de la scène telles que le niveau de bruit. Pour atteindre ces objectifs, le contrôleur utilise les résultats des tâches de classification et de suivi, les informations diverses des algorithmes (ex. la sémantique des paramètres), ainsi que la nature de la scène observée (ex. scènes intérieures ou extérieures) . L'algorithme de soustraction du fond proposé est une extension du modèle de Mélange de Gaussiennes et il prend en compte les caractéristiques de la scène tels que les mouvements du fond et les changements dynamiques du fond. Cet algorithme propose également une nouvelle méthode pour mieux estimer la moyenne et l'écart type des distributions gaussiennes dans la représentation du fond. L'étape de post-traitement consiste en un algorithme pour supprimer les changements d'illumination à l'aide d'un nouvel espace de couleurs. Cet espace de couleurs est robuste aux changements d'illumination, ainsi que des irrégularités de caméras (la balance de blanc, la transformation non-linéaire lorsque l'intensité de lumière est faible par exemple). Cette méthode a été validée dans la base de données publiques ETISEO et dans une vidéo d'une heure du projet GERHOME.
14

Reconstruction et analyse de trajectoires 2D d'objets mobiles par modélisation Markovienne et la théorie de l'évidence à partir de séquences d'images monoculaires - Application à l'évaluation de situations potentiellement dangereuses aux passages à niveau

Salmane, Houssam 09 July 2013 (has links) (PDF)
Les travaux présentés dans ce mémoire s'inscrivent dans le cadre duprojet PANsafer (Vers un Passage A Niveau plus sûr), lauréat de l'appel ANR-VTT2008. Ce projet est labellisé par les deux pôles de compétitivité i-Trans et Véhiculedu Futur. Le travail de la thèse est mené conjointement par le laboratoire IRTESSETde l'UTBM et le laboratoire LEOST de l'IFSTTAR.L'objectif de cette thèse est de développer un système de perception permettantl'interprétation de scénarios dans l'environnement d'un passage à niveau. Il s'agitd'évaluer des situations potentiellement dangereuses par l'analyse spatio-temporelledes objets présents autour du passage à niveau.Pour atteindre cet objectif, le travail est décomposé en trois étapes principales. Lapremière étape est consacrée à la mise en place d'une architecture spatiale des capteursvidéo permettant de couvrir de manière optimale l'environnement du passageà niveau. Cette étape est mise en oeuvre dans le cadre du développement d'unsimulateur d'aide à la sécurité aux passages à niveau en utilisant un système deperception multi-vues. Dans ce cadre, nous avons proposé une méthode d'optimisationpermettant de déterminer automatiquement la position et l'orientation descaméras par rapport à l'environnement à percevoir.La deuxième étape consisteà développer une méthode robuste de suivi d'objets enmouvement à partir d'une séquence d'images. Dans un premier temps, nous avonsproposé une technique permettant la détection et la séparation des objets. Le processusde suivi est ensuite mis en oeuvre par le calcul et la rectification du flotoptique grâce respectivement à un modèle gaussien et un modèle de filtre de Kalman.La dernière étape est destinée à l'analyse des trajectoires 2D reconstruites parl'étape précédente pour l'interprétation de scénarios. Cette analyse commence parune modélisation markovienne des trajectoires 2D. Un système de décision à basede théorie de l'évidence est ensuite proposé pour l'évaluation de scénarios, aprèsavoir modélisé les sources de danger.L'approche proposée a été testée et évaluée avec des données issues de campagnesexpérimentales effectuées sur site réel d'un passage à niveau mis à disposition parRFF.
15

Analyse sémantique d'un trafic routier dans un contexte de vidéo-surveillance / semantic analysis of road trafic in a context of video-surveillance

Brulin, Mathieu 25 October 2012 (has links)
Les problématiques de sécurité, ainsi que le coût de moins en moins élevé des caméras numériques, amènent aujourd'hui à un développement rapide des systèmes de vidéosurveillance. Devant le nombre croissant de caméras et l'impossibilité de placer un opérateur humain devant chacune d'elles, il est nécessaire de mettre en oeuvre des outils d'analyse capables d'identifier des évènements spécifiques. Le travail présenté dans cette thèse s'inscrit dans le cadre d'une collaboration entre le Laboratoire Bordelais de Recherche en Informatique (LaBRI) et la société Adacis. L'objectif consiste à concevoir un système complet de vidéo-surveillance destiné à l'analyse automatique de scènes autoroutières et la détection d'incidents. Le système doit être autonome, le moins supervisé possible et doit fournir une détection en temps réel d'un évènement.Pour parvenir à cet objectif, l'approche utilisée se décompose en plusieurs étapes. Une étape d'analyse de bas-niveau, telle que l'estimation et la détection des régions en mouvement, une identification des caractéristiques d'un niveau sémantique plus élevé, telles que l'extraction des objets et la trajectoire des objets, et l'identification d'évènements ou de comportements particuliers, tel que le non respect des règles de sécurité. Les techniques employées s'appuient sur des modèles statistiques permettant de prendre en compte les incertitudes sur les mesures et observations (bruits d'acquisition, données manquantes, ...).Ainsi, la détection des régions en mouvement s'effectue au travers la modélisation de la couleur de l'arrière-plan. Le modèle statistique utilisé est un modèle de mélange de lois, permettant de caractériser la multi-modalité des valeurs prises par les pixels. L'estimation du flot optique, de la différence de gradient et la détection d'ombres et de reflets sont employées pour confirmer ou infirmer le résultat de la segmentation.L'étape de suivi repose sur un filtrage prédictif basé sur un modèle de mouvement à vitesse constante. Le cas particulier du filtrage de Kalman (filtrage tout gaussien) est employé, permettant de fournir une estimation a priori de la position des objets en se basant sur le modèle de mouvement prédéfini.L'étape d'analyse de comportement est constituée de deux approches : la première consiste à exploiter les informations obtenues dans les étapes précédentes de l'analyse. Autrement dit, il s'agit d'extraire et d'analyser chaque objet afin d'en étudier son comportement. La seconde étape consiste à détecter les évènements à travers une coupe du volume 2d+t de la vidéo. Les cartes spatio-temporelles obtenues sont utilisées pour estimer les statistiques du trafic, ainsi que pour détecter des évènements telles que l'arrêt des véhicules.Pour aider à la segmentation et au suivi des objets, un modèle de la structure de la scène et de ses caractéristiques est proposé. Ce modèle est construit à l'aide d'une étape d'apprentissage durant laquelle aucune intervention de l'utilisateur n'est requise. La construction du modèle s'effectue à travers l'analyse d'une séquence d'entraînement durant laquelle les contours de l'arrière-plan et les trajectoires typiques des véhicules sont estimés. Ces informations sont ensuite combinées pour fournit une estimation du point de fuite, les délimitations des voies de circulation et une approximation des lignes de profondeur dans l'image. En parallèle, un modèle statistique du sens de direction du trafic est proposé. La modélisation de données orientées nécessite l'utilisation de lois de distributions particulières, due à la nature périodique de la donnée. Un mélange de lois de type von-Mises est utilisée pour caractériser le sens de direction du trafic. / Automatic traffic monitoring plays an important role in traffic surveillance. Video cameras are relatively inexpensive surveillance tools, but necessitate robust, efficient and automated video analysis algorithms. The loss of information caused by the formation of images under perspective projection made the automatic task of detection and tracking vehicles a very challenging problem, but essential to extract a semantic interpretation of vehicles behaviors. The work proposed in this thesis comes from a collaboration between the LaBRI (Laboratoire Bordelais de Recherche en Informatique) and the company Adacis. The aim is to elaborate a complete video-surveillance system designed for automatic incident detection.To reach this objective, traffic scene analysis proceeds from low-level processing to high-level descriptions of the traffic, which can be in a wide variety of type: vehicles entering or exiting the scene, vehicles collisions, vehicles' speed that are too fast or too low, stopped vehicles or objects obstructing part of the road... A large number of road traffic monitoring systems are based on background subtraction techniques to segment the regions of interest of the image. Resulted regions are then tracked and trajectories are used to extract a semantic interpretation of the vehicles behaviors.The motion detection is based on a statistical model of background color. The model used is a mixture model of probabilistic laws, which allows to characterize multimodal distributions for each pixel. Estimation of optical flow, a gradient difference estimation and shadow and highlight detection are used to confirm or invalidate the segmentation results.The tracking process is based on a predictive filter using a motion model with constant velocity. A simple Kalman filter is employed, which allow to predict state of objets based on a \textit{a priori} information from the motion model.The behavior analysis step contains two approaches : the first one consists in exploiting information from low-level and mid-level analysis. Objects and their trajectories are analysed and used to extract abnormal behavior. The second approach consists in analysing a spatio-temporal slice in the 3D video volume. The extracted maps are used to estimate statistics about traffic and are used to detect abnormal behavior such as stopped vehicules or wrong way drivers.In order to help the segmentaion and the tracking processes, a structure model of the scene is proposed. This model is constructed using an unsupervised learning step. During this learning step, gradient information from the background image and typical trajectories of vehicles are estimated. The results are combined to estimate the vanishing point of the scene, the lanes boundaries and a rough depth estimation is performed. In parallel, a statistical model of the trafic flow direction is proposed. To deal with periodic data, a von-Mises mixture model is used to characterize the traffic flow direction.
16

Etude de la structure nanométrique et de la viscosité locale de l’espace extracellulaire du cerveau par microscopie de fluorescence de nanotubes de carbone uniques / A study of the nanoscale structure and local viscosity of the brain extracellular space by single carbon nanotubes fluorescence microscopy

Danné, Noémie 30 October 2018 (has links)
Le cerveau est composé de neurones et de cellules gliales qui jouent un rôle de soutien et de protection du réseau cellulaire. L’espace extra-cellulaire (ECS) correspond à l’espace qui existe entre ces cellules. Les modifications de sa structure peuvent dépendre de plusieurs paramètres comme l’âge, l’apprentissage ou les maladies neuro-dégénératives. Le volume de l’ECS correspond à environ 20$%$ du volume total du cerveau et les neurotransmetteurs et autres molécules circulent dans cet espace pour assurer une communication neuronale optimale. Cependant, les dimensions et la viscosité locale de cet espace restent encore mal-connues. L’ECS est composé entre autres de protéoglycans, de glycoaminoglycans (acide hyaluronique…) et de fluide cérébrospinal. Nous avons proposé dans cette thèse une stratégie pour mesurer les dimensions et les propriétés rhéologiques de l’espace extra-cellulaire de tranches de cerveaux de rats maintenue en vie à l’aide du suivi de nanotubes de carbone individuels luminescents. Pour ces applications, nous avons étudier la biocompatibilité et le rapport signal sur bruit de nos échantillons de nanotubes afin de les détecter en profondeur dans les tranches de cerveaux et de pouvoir mesurer leurs propriétés de diffusion. / The brain is mainly composed of neurons which ensure neuronal communication and glialcells which play a role in supporting and protecting the neural network. The extracellular space corresponds to the space that exists between all these cells and represents around 20 %of the whole brain volume. In this space, neurotransmitters and other molecules circulate into ensure optimal neuronal functioning and communication. Its complex organization whichis important to ensure proper functioning of the brain changes during aging, learning or neurodegenerative diseases. However, its local dimensions and viscosity are still poorly known.To understand these key parameters, in this thesis, we developed a strategy based on the tracking of single luminescent carbon nanotubes. We applied this strategy to measure the structural and viscous properties of the extracellular space of living rodent brains slices at the nanoscale. The organization of the manuscript is as follows. After an introduction of the photoluminescence properties of carbon nanotubes, we present the study that allowed us to select the optimal nanotube encapsulation protocol to achieve our biological applications. We also present a quantitative study describing the temperature increase of the sample when laser irradiations at different wavelengths are used to detect single nanotubes in a brain slice.Thanks to a fine analysis of the singular diffusion properties of carbon nanotubes in complex environments, we then present the strategy set up to reconstruct super-resolved maps (i.e. with resolution below the diffraction limit) of the brain extracellular space morphology.We also show that two local properties of this space can be extracted : a structural complexity parameter (tortuosity) and the fluid’s in situ viscosity seen by the nanotubes. This led us to propose a methodology allowing to model the viscosity in situ that would be seen, not by the nanotubes,but by any molecule of arbitrary sizes to simulate those intrinsically present or administered in the brain for pharmacological treatments. Finally, we present a strategy to make luminescent ultra-short carbon nanotubes that are not intrinsically luminescent and whose use could be a complementary approach to measure the local viscosity of the extracellular space of the brain.
17

Navigation visuelle de robots mobile dans un environnement d'intérieur. / Visual navigation of mobile robots in indoor environments.

Ghazouani, Haythem 12 December 2012 (has links)
Les travaux présentés dans cette thèse concernent le thème des fonctionnalités visuelles qu'il convient d'embarquer sur un robot mobile, afin qu'il puisse se déplacer dans son environnement. Plus précisément, ils ont trait aux méthodes de perception par vision stéréoscopique dense, de modélisation de l'environnement par grille d'occupation, et de suivi visuel d'objets, pour la navigation autonome d'un robot mobile dans un environnement d'intérieur. Il nous semble important que les méthodes de perception visuelle soient à la fois robustes et rapide. Alors que dans les travaux réalisés, on trouve les méthodes globales de mise en correspondance qui sont connues pour leur robustesse mais moins pour être employées dans les applications temps réel et les méthodes locales qui sont les plus adaptées au temps réel tout en manquant de précision. Pour cela, ce travail essaye de trouver un compromis entre robustesse et temps réel en présentant une méthode semi-locale, qui repose sur la définition des distributions de possibilités basées sur une formalisation floue des contraintes stéréoscopiques.Il nous semble aussi important qu'un robot puisse modéliser au mieux son environnement. Une modélisation fidèle à la réalité doit prendre en compte l'imprécision et l'incertitude. Ce travail présente une modélisation de l'environnement par grille d'occupation qui repose sur l'imprécision du capteur stéréoscopique. La mise à jour du modèle est basée aussi sur la définition de valeurs de crédibilité pour les mesures prises.Enfin, la perception et la modélisation de l'environnement ne sont pas des buts en soi mais des outils pour le robot pour assurer des tâches de haut niveau. Ce travail traite du suivi visuel d'un objet mobile comme tâche de haut niveau. / This work concerns visual functionalities to be embedded in a mobile robot for navigation purposes. More specifically, it relates to methods of dense stereoscopic vision based perception, grid occupancy based environment modeling and object tracking for autonomous navigation of mobile robots in indoor environments.We consider that is important for visual perception methods to be robust and fast. While in previous works, there are global stereo matching methods which are known for their robustness, but less likely to be employed in real-time applications. There are also local methods which are more suitable for real time but imprecise. To this aim, this work tries to find a compromise between robustness and real-time by proposing a semi-local method based on the definition of possibility distributions built around a fuzzy formalization of stereoscopic constraints.We consider also important for a mobile robot to better model its environment. To better fit a model to the reality we have to take uncertainty and inaccuracy into account. This work presents an occupancy grid environment modeling based on stereoscopic sensor inaccuracy.. Model updating relies on the definition of credibility values for the measures taken.Finally, perception and environment modeling are not goals but tools to provide robot high-level tasks. This work deals with visual tracking of a moving object such as high-level task.
18

Reconstruction et analyse de trajectoires 2D d'objets mobiles par modélisation markovienne et par la théorie de l'évidence à partir de séquences d'images monoculaires - Application à l'évaluation du danger aux passages à niveau

Salmane, Houssam 09 July 2013 (has links) (PDF)
Les travaux présentés dans ce mémoire s'inscrivent dans le cadre du projet PANsafer (Vers un Passage A Niveau plus sûr), lauréat de l'appel ANR-VTT 2008. Ce projet est labellisé par les deux pôles de compétitivité i-Trans et Véhicule du Futur. Le travail de la thèse est mené conjointement par le laboratoire IRTES-SET de l'UTBM et le laboratoire LEOST de l'IFSTTAR. L'objectif de cette thèse est de développer un système de perception permettant l'interprétation de scénarios dans l'environnement d'un passage à niveau. Il s'agit d'évaluer des situations potentiellement dangereuses par l'analyse spatio-temporelle des objets présents autour du passage à niveau. Pour atteindre cet objectif, le travail est décomposé en trois étapes principales. La première étape est consacrée à la mise en place d'une architecture spatiale des capteurs vidéo permettant de couvrir de manière optimale l'environnement du passage à niveau. Cette étape est mise en œuvre dans le cadre du développement d'un simulateur d'aide à la sécurité aux passages à niveau en utilisant un système de perception multi-vues. Dans ce cadre, nous avons proposé une méthode d'optimisation permettant de déterminer automatiquement la position et l'orientation des caméras par rapport à l'environnement à percevoir. La deuxième étape consiste à développer une méthode robuste de suivi d'objets en mouvement à partir d'une séquence d'images. Dans un premier temps, nous avons proposé une technique permettant la détection et la séparation des objets. Le processus de suivi est ensuite mis en œuvre par le calcul et la rectification du flot optique grâce respectivement à un modèle gaussien et un modèle de filtre de Kalman. La dernière étape est destinée à l'analyse des trajectoires 2D reconstruites par l'étape précédente pour l'interprétation de scénarios. Cette analyse commence par une modélisation markovienne des trajectoires 2D. Un système de décision à base de théorie de l'évidence est ensuite proposé pour l'évaluation de scénarios, après avoir modélisé les sources de danger. L'approche proposée a été testée et évaluée avec des données issues de campagnes expérimentales effectuées sur site réel d'un passage à niveau mis à disposition par RFF.
19

Fusion de données multi capteurs pour la détection et le suivi d'objets mobiles à partir d'un véhicule autonome

Baig, Qadeer 29 February 2012 (has links) (PDF)
La perception est un point clé pour le fonctionnement d'un véhicule autonome ou même pour un véhicule fournissant des fonctions d'assistance. Un véhicule observe le monde externe à l'aide de capteurs et construit un modèle interne de l'environnement extérieur. Il met à jour en continu ce modèle de l'environnement en utilisant les dernières données des capteurs. Dans ce cadre, la perception peut être divisée en deux étapes : la première partie, appelée SLAM (Simultaneous Localization And Mapping) s'intéresse à la construction d'une carte de l'environnement extérieur et à la localisation du véhicule hôte dans cette carte, et deuxième partie traite de la détection et du suivi des objets mobiles dans l'environnement (DATMO pour Detection And Tracking of Moving Objects). En utilisant des capteurs laser de grande précision, des résultats importants ont été obtenus par les chercheurs. Cependant, avec des capteurs laser de faible résolution et des données bruitées, le problème est toujours ouvert, en particulier le problème du DATMO. Dans cette thèse nous proposons d'utiliser la vision (mono ou stéréo) couplée à un capteur laser pour résoudre ce problème. La première contribution de cette thèse porte sur l'identification et le développement de trois niveaux de fusion. En fonction du niveau de traitement de l'information capteur avant le processus de fusion, nous les appelons "fusion bas niveau", "fusion au niveau de la détection" et "fusion au niveau du suivi". Pour la fusion bas niveau, nous avons utilisé les grilles d'occupations. Pour la fusion au niveau de la détection, les objets détectés par chaque capteur sont fusionnés pour avoir une liste d'objets fusionnés. La fusion au niveau du suivi requiert le suivi des objets pour chaque capteur et ensuite on réalise la fusion entre les listes d'objets suivis. La deuxième contribution de cette thèse est le développement d'une technique rapide pour trouver les bords de route à partir des données du laser et en utilisant cette information nous supprimons de nombreuses fausses alarmes. Nous avons en effet observé que beaucoup de fausses alarmes apparaissent sur le bord de la route. La troisième contribution de cette thèse est le développement d'une solution complète pour la perception avec un capteur laser et des caméras stéréo-vision et son intégration sur un démonstrateur du projet européen Intersafe-2. Ce projet s'intéresse à la sécurité aux intersections et vise à y réduire les blessures et les accidents mortels. Dans ce projet, nous avons travaillé en collaboration avec Volkswagen, l'Université Technique de Cluj-Napoca, en Roumanie et l'INRIA Paris pour fournir une solution complète de perception et d'évaluation des risques pour le démonstrateur de Volkswagen.
20

Fusion de données multi capteurs pour la détection et le suivi d'objets mobiles à partir d'un véhicule autonome / Multi sensor data fusion for detection and tracking of moving objects from a dynamic autonomous vehicle

Baig, Qadeer 29 February 2012 (has links)
La perception est un point clé pour le fonctionnement d'un véhicule autonome ou même pour un véhicule fournissant des fonctions d'assistance. Un véhicule observe le monde externe à l'aide de capteurs et construit un modèle interne de l'environnement extérieur. Il met à jour en continu ce modèle de l'environnement en utilisant les dernières données des capteurs. Dans ce cadre, la perception peut être divisée en deux étapes : la première partie, appelée SLAM (Simultaneous Localization And Mapping) s'intéresse à la construction d'une carte de l'environnement extérieur et à la localisation du véhicule hôte dans cette carte, et deuxième partie traite de la détection et du suivi des objets mobiles dans l'environnement (DATMO pour Detection And Tracking of Moving Objects). En utilisant des capteurs laser de grande précision, des résultats importants ont été obtenus par les chercheurs. Cependant, avec des capteurs laser de faible résolution et des données bruitées, le problème est toujours ouvert, en particulier le problème du DATMO. Dans cette thèse nous proposons d'utiliser la vision (mono ou stéréo) couplée à un capteur laser pour résoudre ce problème. La première contribution de cette thèse porte sur l'identification et le développement de trois niveaux de fusion. En fonction du niveau de traitement de l'information capteur avant le processus de fusion, nous les appelons "fusion bas niveau", "fusion au niveau de la détection" et "fusion au niveau du suivi". Pour la fusion bas niveau, nous avons utilisé les grilles d'occupations. Pour la fusion au niveau de la détection, les objets détectés par chaque capteur sont fusionnés pour avoir une liste d'objets fusionnés. La fusion au niveau du suivi requiert le suivi des objets pour chaque capteur et ensuite on réalise la fusion entre les listes d'objets suivis. La deuxième contribution de cette thèse est le développement d'une technique rapide pour trouver les bords de route à partir des données du laser et en utilisant cette information nous supprimons de nombreuses fausses alarmes. Nous avons en effet observé que beaucoup de fausses alarmes apparaissent sur le bord de la route. La troisième contribution de cette thèse est le développement d'une solution complète pour la perception avec un capteur laser et des caméras stéréo-vision et son intégration sur un démonstrateur du projet européen Intersafe-2. Ce projet s'intéresse à la sécurité aux intersections et vise à y réduire les blessures et les accidents mortels. Dans ce projet, nous avons travaillé en collaboration avec Volkswagen, l'Université Technique de Cluj-Napoca, en Roumanie et l'INRIA Paris pour fournir une solution complète de perception et d'évaluation des risques pour le démonstrateur de Volkswagen. / Perception is one of important steps for the functioning of an autonomous vehicle or even for a vehicle providing only driver assistance functions. Vehicle observes the external world using its sensors and builds an internal model of the outer environment configuration. It keeps on updating this internal model using latest sensor data. In this setting perception can be divided into two sub parts: first part, called SLAM(Simultaneous Localization And Mapping), is concerned with building an online map of the external environment and localizing the host vehicle in this map, and second part deals with finding moving objects in the environment and tracking them over time and is called DATMO(Detection And Tracking of Moving Objects). Using high resolution and accurate laser scanners successful efforts have been made by many researchers to solve these problems. However, with low resolution or noisy laser scanners solving these problems, especially DATMO, is still a challenge and there are either many false alarms, miss detections or both. In this thesis we propose that by using vision sensor (mono or stereo) along with laser sensor and by developing an effective fusion scheme on an appropriate level, these problems can be greatly reduced. The main contribution of this research is concerned with the identification of three fusion levels and development of fusion techniques for each level for SLAM and DATMO based perception architecture of autonomous vehicles. Depending on the amount of preprocessing required before fusion for each level, we call them low level, object detection level and track level fusion. For low level we propose to use grid based fusion technique and by giving appropriate weights (depending on the sensor properties) to each grid for each sensor a fused grid can be obtained giving better view of the external environment in some sense. For object detection level fusion, lists of objects detected for each sensor are fused to get a list of fused objects where fused objects have more information then their previous versions. We use a Bayesian fusion technique for this level. Track level fusion requires to track moving objects for each sensor separately and then do a fusion between tracks to get fused tracks. Fusion at this level helps remove false tracks. Second contribution of this research is the development of a fast technique of finding road borders from noisy laser data and then using these border information to remove false moving objects. Usually we have observed that many false moving objects appear near the road borders due to sensor noise. If they are not filtered out then they result into many false tracks close to vehicle making vehicle to apply breaks or to issue warning messages to the driver falsely. Third contribution is the development of a complete perception solution for lidar and stereo vision sensors and its intigration on a real vehicle demonstrator used for a European Union project (INTERSAFE-21). This project is concerned with the safety at intersections and aims at the reduction of injury and fatal accidents there. In this project we worked in collaboration with Volkswagen, Technical university of Cluj-Napoca Romania and INRIA Paris to provide a complete perception and risk assessment solution for this project.

Page generated in 0.0716 seconds