Return to search

Indexation d'une base de données images : application à la localisation et la cartographie fondées sur des radio-étiquettes et des amers visuels pour la navigation d'un robot en milieu intérieur / Indexation of an image data base : application to the localization and the mapping from RFID tags and visual landmarks for the indoor navigation of a robot

Ce mémoire concerne les techniques d'indexation dans des bases d'image, ainsi que les méthodes de localisation en robotique mobile. Il fait le lien entre les travaux en Perception du pôle Robotique et Intelligence Artificielle du LAAS-CNRS, et les recherches sur la fouille de données menées à l'Université de Rabat. Depuis une dizaine d'années, la vision est devenue une source de données sensorielles essentielles sur les robots mobiles: elle fournit en particulier des représentations de l'environnement dans lequel doit se déplacer un robot sous la forme de modèles géométriques ou de modèles fondés sur l'apparence. Concernant la vision, seules les représentations fondées sur l'apparence ont été considérées; elles consistent en une base d'images acquises lors de déplacements effectués de manière supervisée durant une phase d'apprentissage. Le robot se localise en recherchant dans la base d'images, celle qui ressemble le plus à l'image courante: les techniques exploitées pour ce faire sont des méthodes d'indexation, similaires à celles exploitées en fouille de données sur Internet par exemple. Nous proposons une approche fondés sur des points d'intérêt extraits d'images en couleur texturées. Par ailleurs, nous présentons une technique de navigation par RFID (Radio Frequency IDentifier) qui utilise la méthode MonteCarlo, appliquée soit de manière intuitive, soit de manière formelle. Enfin, nous donnons des résultats très préliminaires sur la combinaison d'une perception par capteurs RFID et par capteurs visuels afin d'améliorer la précision de la localisation du robot mobile. / This document is related both to indexing methods in image data bases and to localization methods used in mobile robotics. It exploits the relationships between research works on Perception made in the Robotics department of LAAS-CNRS in Toulouse, and on Data Mining performed by the LIMAIARF lab at the Rabat University. Computer Vision has become a major source of sensory data on mobile robots for about ten years; it allows to build especially representations of the environment in which a robot has to execute motions, either by geometrical maps or by appearance-based models. Concerning computer vision, only appearance-based representations have been studied; they consist on a data base of images acquired while the robot is moved in an interactive way during a learning step. Robot self-localization is provided by searching in this data base, the image which looks like the one acquired from the current position: this function is performed from indexing or data mining methods, similar to the ones used on Internet. It is proposed an indexing method based on interest points extracted from color and textured images. Moreover, geometrical representations are also considered for an RFID-based navigation method, based on particle filtering, used either in a classical formal way or with a more intuitive approach. Finally, very preliminar results are described on a multi-sensory approach using both Vision and RFID tags in order to improve the accuracy on the robot localization

Identiferoai:union.ndltd.org:theses.fr/2011INPT0032
Date29 April 2011
CreatorsRaoui, Younès
ContributorsToulouse, INPT, Université Mohammed V-Agdal (Rabat, Maroc), Devy, Michel, Bouyakhf, El-Houssine
Source SetsDépôt national des thèses électroniques françaises
LanguageFrench
Detected LanguageFrench
TypeElectronic Thesis or Dissertation, Text

Page generated in 0.0021 seconds