Spelling suggestions: "subject:"robotique autonome"" "subject:"cobotique autonome""
1 |
Programmation Bayésienne des RobotsLebeltel, Olivier 08 October 1999 (has links) (PDF)
Cette thèse propose une méthode originale de programmation de robot fondée sur l'inférence et l'apprentissage bayésien. Cette méthode traite formellement des problèmes d'incertitude et d'incomplétude inhérents au domaine considéré. En effet, la principale difficulté de la programmation des robots vient de l'inévitable incomplétude des modèles utilisés. Nous exposons le formalisme de description d'une tâche robotique ainsi que les méthodes de résolutions. Ce formalisme est inspiré de la théorie du calcul des probabilités, proposée par le physicien E.T. Jaynes : "Probability as Logic". L'apprentissage et les techniques de maximum d'entropie traduisent l'incomplétude en incertitude. L'inférence bayésienne offre un cadre formel permettant de raisonner avec cette incertitude. L'apport principal de cette thèse est la définition d'un système générique de programmation pour la robotique et son application expérimentale. Nous l'illustrons en utilisant ce système pour programmer une application de surveillance pour un robot mobile : le Khepera. Pour cela, nous utilisons des ressources génériques de programmation appelées "descriptions". Nous montrons comment définir et utiliser de manière incrémentale ces ressources (comportements réactifs, fusion capteur, reconnaissance de situations et séquences de comportements) dans un cadre systématique et unifié. Nous discutons des différents avantages de notre approche : expression des connaissances préalables, prise en compte et restitution de l'incertitude, programmation directe et inverse. Nous proposons des perspectives à ce travail : choix d'architecture et planification. Nous situons notre travail dans un cadre épistémologique plus vaste en opposant, dans le cadre de la robotique autonome, l'approche "classique" relevant de la "cognition de haut niveau" et l'approche "réactive" associée à une "cognition de bas niveau". Nous montrons finalement comment nos travaux proposent de faire le lien entre ces deux extrêmes.
|
2 |
Méthodes probabilistes basées sur les mots visuels pour la reconnaissance de lieux sémantiques par un robot mobile.Dubois, Mathieu 20 February 2012 (has links) (PDF)
Les êtres humains définissent naturellement leur espace quotidien en unités discrètes. Par exemple, nous sommes capables d'identifier le lieu où nous sommes (e.g. le bureau 205) et sa catégorie (i.e. un bureau), sur la base de leur seule apparence visuelle. Les travaux récents en reconnaissance de lieux sémantiques, visent à doter les robots de capacités similaires. Ces unités, appelées "lieux sémantiques", sont caractérisées par une extension spatiale et une unité fonctionnelle, ce qui distingue ce domaine des travaux habituels en cartographie. Nous présentons nos travaux dans le domaine de la reconnaissance de lieux sémantiques. Ces derniers ont plusieurs originalités par rapport à l'état de l'art. Premièrement, ils combinent la caractérisation globale d'une image, intéressante car elle permet de s'affranchir des variations locales de l'apparence des lieux, et les méthodes basées sur les mots visuels, qui reposent sur la classification non-supervisée de descripteurs locaux. Deuxièmement, et de manière intimement reliée, ils tirent parti du flux d'images fourni par le robot en utilisant des méthodes bayésiennes d'intégration temporelle. Dans un premier modèle, nous ne tenons pas compte de l'ordre des images. Le mécanisme d'intégration est donc particulièrement simple mais montre des difficultés à repérer les changements de lieux. Nous élaborons donc plusieurs mécanismes de détection des transitions entre lieux qui ne nécessitent pas d'apprentissage supplémentaire. Une deuxième version enrichit le formalisme classique du filtrage bayésien en utilisant l'ordre local d'apparition des images. Nous comparons nos méthodes à l'état de l'art sur des tâches de reconnaissance d'instances et de catégorisation, en utilisant plusieurs bases de données. Nous étudions l'influence des paramètres sur les performances et comparons les différents types de codage employés sur une même base.Ces expériences montrent que nos méthodes sont supérieures à l'état de l'art, en particulier sur les tâches de catégorisation.
|
3 |
Modélisation des mécanismes émotionnels pour un robot autonome : perspective développementale et socialeHasson, Cyril 22 September 2011 (has links) (PDF)
L'objectif de cette thèse est de s'inspirer de la neurobiologie pour modéliser les mécanismes émotionnels de bas niveau sur un robot évoluant en environnement réel. Ce travail présente un modèle des émotions cohérent avec les données expérimentales décrivant le fonctionnement des structures cérébrales principales impliquées dans les mécanismes émotionnels. Les émotions jouent un rôle capital aussi bien pour la régulation du comportement des êtres humains que des animaux. En accord avec la vision darwinienne, les émotions sont vues comme des mécanismes adaptatifs favorisant la survie. Cependant, leur organisation autours de signaux essentiellement positifs et négatifs leur donne un caractère dimensionnel. Notre modèle considère les émotions comme le résultat de la dynamique d'interactions entre deux systèmes permettant l'évaluation des interactions avec l'environnement physique d'une part et l'environnement social d'autre part. Cette approche bioinspirée des émotions permet de donner aux robots une mécanique de base pour construire leur autonomie comportementale et leurs capacités de communication. Dans cette thèse, nous montrons qu'elles permettent autant de s'adapter aux caractéristiques de l'environnement que de servir de support à une communication non verbale. L'approche biomimétique de notre travail se traduit en termes méthodologiques par l'utilisation de réseaux de neurones formels pour les architectures de contrôle du robot mais aussi en termes fonctionnels par l'organisation de ces réseaux comme modèles de différentes structures du cerveau et de leurs interactions (amygdale, accumbens, hippocampe et cortex préfrontal). Suivant le courant animat, le robot est vu comme un animal aux besoins vitaux satisfaits par les ressources de son environnement. Les expérimentations seront illustrées sur des comportements de navigation reposant sur les apprentissages de conditionnements visuo-moteurs (stratégie visuelle) et sur l'intégration de chemin (stratégie propioceptive). Les conditionnements associant les signaux nocicepteurs et hédoniques aux autres informations sensorielles ou aux actions du robot sont à la base des régulations émotionnelles. Les prédictions que forme le robot lui permettent d'apprendre des comportements aversifs ou appétitifs en réponse à ses anticipations de "douleur" ou de "plaisir". Il peut aussi monitorer ses prédictions afin d'évaluer l'efficacité de ses comportements. C'est ce qui lui permet de réguler ses motivations et de sélectionner ses stratégies (navigation visuelle ou proprioceptive) et ses buts (ressources de l'environnement) de façon à satisfaire au mieux son équilibre interne en fonction de son environnement. Cette utilisation de signaux bas niveau positifs et négatifs permet de construire un modèle émotionnel minimal assurant au robot une autonomie comportementale. Dans un deuxième temps, nous utilisons l'expressivité émotionnelle comme base à une communication avec le robot. Une tête mécanique permet au robot d'exprimer ses émotions grâce à ses expressions faciales. Cette communication consiste à donner au robot des signaux de récompense et de punition. Nous avons développé un modèle permettant de construire de manière autonome ces signaux d'interaction en leur donnant leur valeur émotionnelle. Cet échange d'informations avec le robot lui permet d'apprendre à valuer son environnement ou son comportement et ainsi d'apprendre interactivement à résoudre ses problèmes de navigation. La modélisation des mécanismes émotionnels présentées dans cette thèse permet d'aborder aussi bien les questions de robotique autonome que d'interactions Homme-Machine. Plus largement, cette approche illustre l'intérêt de placer la robotique au coeur des sciences cognitives grâce à l'éclairage que permet l'analyse des comportements rendus possibles par des architectures neuronales relativement simples.
|
4 |
Decision-making algorithms for autonomous robots / Algorithmes de prise de décision stratégique pour robots autonomesHofer, Ludovic 27 November 2017 (has links)
Afin d'être autonomes, les robots doivent êtres capables de prendre des décisions en fonction des informations qu'ils perçoivent de leur environnement. Cette thèse modélise les problèmes de prise de décision robotique comme des processus de décision markoviens avec un espace d'état et un espace d'action tous deux continus. Ce choix de modélisation permet de représenter les incertitudes sur le résultat des actions appliquées par le robot. Les nouveaux algorithmes d'apprentissage présentés dans cette thèse se focalisent sur l'obtention de stratégies applicables dans un domaine embarqué. Ils sont appliqués à deux problèmes concrets issus de la RoboCup, une compétition robotique internationale annuelle. Dans ces problèmes, des robots humanoïdes doivent décider de la puissance et de la direction de tirs afin de maximiser les chances de marquer et contrôler la commande d'une primitive motrice pour préparer un tir. / The autonomy of robots heavily relies on their ability to make decisions based on the information provided by their sensors. In this dissertation, decision-making in robotics is modeled as continuous state and action markov decision process. This choice allows modeling of uncertainty on the results of the actions chosen by the robots. The new learning algorithms proposed in this thesis focus on producing policies which can be used online at a low computational cost. They are applied to real-world problems in the RoboCup context, an international robotic competition held annually. In those problems, humanoid robots have to choose either the direction and power of kicks in order to maximize the probability of scoring a goal or the parameters of a walk engine to move towards a kickable position.
|
5 |
La représentation contingente : vers une réconciliation des approches fonctionnelles et structurelles de la robotique autonomeDedieu, Eric 12 September 1995 (has links) (PDF)
L'objet de la robotique autonome est d'éliminer l'intervention du concepteur humain dans le fonctionnement d'un robot en environnement "complexe". Or, la programmation traditionnelle d'un robot repose sur l'utilisation de modèles dont le domaine de validité est assez restreint. Quand on sort du domaine de validité, on tombe sur le problème de l'imprévu, objet de cette thèse. Nous affirmons d'abord que l'autonomie d'un robot ne peut être obtenue sans une gestion systématique de l'imprévu, et que les approches habituelles de la robotique (hiérarchiques, comportementales, adaptatives) ne sont pas adéquates pour aborder cette question dans des environnements naturels non précisement controlés. Nous proposons alors trois pistes pour contourner ces limites. Sur le plan théorique, nous défendons la nécessité d'une reconnaissance explicite par un robot de sa propre ignorance, et donc d'une gestion systématique de l'incertitude, et adoptons pour cela une théorie de la logique probabiliste (Jaynes 1995). Sur le plan méthodologique, nous complétons le tandem conception-adaptation par une démarche incrémentale, i.e. la systématisation d'une évolution structurelle en réponse à certains imprévus. Nous mettons ainsi l'accent sur l'origine et la génèse des représentations plus que sur leurs performances. Sur le plan conceptuel, enfin, nous proposons la notion de "représentation contingente", qui définit une représentation non par sa fonction mais par sa structure : la capacité de représentation est intrinsèque à cette structure, mais son interprétation effective est contingente au contexte. Les problèmes liés à la représentation classique avaient conduit certains auteurs à rejeter la notion même de représentation, et avec elle un guide de conception incontournable. La représentation contingente est une tentative permettant d'aborder le problème de la conception au sein d'approches non encore exploitées en IA, telles que la clotûre opérationnelle.
|
6 |
Apprentissage Interactif en Robotique Autonome : vers de nouveaux types d'IHMRolland de Rengervé, Antoine 13 December 2013 (has links) (PDF)
Un robot autonome collaborant avec des humains doit être capable d'apprendre à se déplacer et à manipuler des objets dans la même tâche. Dans une approche classique, on considère des modules fonctionnels indépendants gérant les différents aspects de la tâche (navigation, contrôle du bras...). A l'opposé, l'objectif de cette thèse est de montrer que l'apprentissage de tâches de natures différentes peut être abordé comme un problème d'apprentissage d'attracteurs sensorimoteurs à partir d'un petit nombre de structures non spécifiques à une tâche donnée. Nous avons donc proposé une architecture qui permet l'apprentissage et l'encodage d'attracteurs pour réaliser aussi bien des tâches de navigation que de contrôle d'un bras.Comme point de départ, nous nous sommes appuyés sur un modèle inspiré des cellules de lieu pour la navigation d'un robot autonome. Des apprentissages en ligne et interactifs de couples lieu/action sont suffisants pour faire émerger des bassins d'attraction permettant à un robot autonome de suivre une trajectoire. En interagissant avec le robot, on peut corriger ou orienter son comportement. Les corrections successives et leur encodage sensorimoteur permettent de définir le bassin d'attraction de la trajectoire. Ma première contribution a été d'étendre ce principe de construction d'attracteurs sensorimoteurs à un contrôle en impédance pour un bras robotique. Lors du maintien d'une posture proprioceptive, les mouvements du bras peuvent être corrigés par une modification en-ligne des commandes motrices exprimées sous la forme d'activations musculaires. Les attracteurs moteurs résultent alors des associations simples entre l'information proprioceptive du bras et ces commandes motrices. Dans un second temps, j'ai montré que le robot pouvait apprendre des attracteursvisuo-moteurs en combinant les informations proprioceptives et visuelles. Le contrôle visuo-moteur correspond à un homéostat qui essaie de maintenir un équilibre entre ces deux informations. Dans le cas d'une information visuelle ambiguë, le robot peut percevoir un stimulus externe (e.g. la main d'un humain) comme étant sa propre pince. Suivant le principe d'homéostasie, le robot agira pour réduire l'incohérence entre cette information externe et son information proprioceptive. Il exhibera alors un comportement d'imitation immédiate des gestes observés. Ce mécanisme d'homéostasie, complété par une mémoire des séquences observées et l'inhibition des actions durant l'observation, permet au robot de réaliser des imitations différées et d'apprendre par observation. Pour des tâches plus complexes, nous avons aussi montré que l'apprentissage de transitions peut servir de support pour l'apprentissage de séquences de gestes, comme c'était le cas pour l'apprentissage de cartes cognitives en navigation. L'utilisation de contextes motivationnels permet alors le choix entre les différentes séquences apprises.Nous avons ensuite abordé le problème de l'intégration dans une même architecture de comportements impliquant une navigation visuomotrice et le contrôle d'un bras robotique pour la préhension d'objets. La difficulté est de pouvoir synchroniser les différentes actions afin que le robot agisse de manière cohérente. Les comportements erronés du robot sont détectés grâce à l'évaluation des actions proposées par le modèle vis à vis des corrections imposées par le professeur humain. Un apprentissage de ces situations sous la forme de contextes multimodaux modulant la sélection d'action permet alors d'adapter le comportement afin que le robot reproduise la tâche désirée.Pour finir, nous présentons les perspectives de ce travail en terme de contrôle sensorimoteur, pour la navigation comme pour le contrôle d'un bras robotique, et son extension aux questions d'interface homme/robot. Nous insistons sur le fait que différents types d'imitation peuvent être le fruit des propriétés émergentes d'une architecture de contrôle sensorimotrice.
|
7 |
Une architecture de contrôle distribuée pour l'autonomie des robotsDegroote, Arnaud 05 October 2012 (has links) (PDF)
Pour des tâches simples ou dans un environnement contrôlé, la coordination des di érents processus internes d'un robot est un problème relativement trivial, souvent implémenté de manière ad-hoc. Toutefois, avec le développement de robots plus complexes travaillant dans des environnements non contrôlés et dynamiques, le robot doit en permanence se reconfigurer afin de s'adapter aux conditions extérieures et à ses objectifs. La définition d'une architecture de contrôle e cace permettant de gérer ces reconfigurations devient alors primordiale pour l'autonomie de tels robots. Dans ces travaux, nous avons d'abord étudié les di érentes architectures proposées dans la littérature, dont l'analyse a permis d'identifier les grandes problématiques qu'une architecture de contrôle doit résoudre. Cette analyse nous a mené à proposer une nouvelle architecture de contrôle décentralisée, générique et réutilisable, selon une démarche qui intègre une approche "intelligence artificielle" (utilisation de raisonneur logique, propagation dynamique de contraintes) et une approche "génie logiciel" (programmation par contrats, agents). Après une présentation des concepts qui sous-tendent cette architecture et une description approfondie de son fonctionnement, nous en décrivons une implémentation, qui est exploitée pour assurer le contrôle d'un robot terrestre d'extérieur dans le cadre de tâches de navigation, d'exploration ou de suivi. Des résultats sont présentés et analysés. Dans une seconde partie, nous nous sommes penchés sur la modélisation et la vérifiabilité d'une telle architecture de contrôle. Après avoir analysé di érentes solutions, nous décrivons un modèle complet de l'architecture qui utilise la logique linéaire. Nous discutons ensuite des di érentes approches possibles pour montrer des propriétés d'atteignabilité et de sûreté de fonctionnement en exploitant ce modèle. Enfin nous abordons di érentes voies d'enrichissement de ces travaux. En particulier, nous discutons des extensions possibles pour le contrôle d'un ensemble de robots coopérants entre eux, mais aussi de la nécessité d'avoir des liens plus forts entre cette couche de contrôle, et les approches de modélisation des fonctionnalités sous-jacentes.
|
8 |
Formalisme pragmatiste pour le développement de schèmes cognitifs en robotique autonomeCoussinet, Cédric 25 September 2007 (has links) (PDF)
Afin de déterminer les difficultés à réaliser un robot autonome, une grille d'analyse philosophique et épistémologique a été établie pour mener une étude transversale. Cette étude révèle que les diverses approches se justifient par au moins une hypothèse ontologique qui conduit inévitablement à une impasse au développement d'une science de la cognition contrairement aux sciences physiques. Une solution consiste alors à adopter une définition pragmatiste de la vérité (James, 1905) conduisant à considérer la cognition comme une dynamique sémiotique auto-orientée toujours en interaction avec l'environnement. À partir de la notion d'autopoièse (Varela, 1989), la cognition a été définie comme une autopoièse sémiotique. La formalisation de ce concept a permis de déterminer une architecture cognitive. En s'inspirant des systèmes de classeurs (Holland, 1976), une architecture cognitive minimale fut spécifiée et implémentée. L'expérimentation en environnement simulé et réel a pu montrer la présence de propriétés d'auto-organisation et d'auto-orientation, en exprimant les règles et les métarègles avec le même formalisme.
|
9 |
Apprentissage Interactif en Robotique Autonome : vers de nouveaux types d'IHM / Interactive Learning in Autonomous Robotics : towards new kinds of HMIRolland de Rengerve, Antoine 13 December 2013 (has links)
Un robot autonome collaborant avec des humains doit être capable d'apprendre à se déplacer et à manipuler des objets dans la même tâche. Dans une approche classique, on considère des modules fonctionnels indépendants gérant les différents aspects de la tâche (navigation, contrôle du bras...). A l'opposé, l'objectif de cette thèse est de montrer que l'apprentissage de tâches de natures différentes peut être abordé comme un problème d'apprentissage d'attracteurs sensorimoteurs à partir d'un petit nombre de structures non spécifiques à une tâche donnée. Nous avons donc proposé une architecture qui permet l'apprentissage et l'encodage d'attracteurs pour réaliser aussi bien des tâches de navigation que de contrôle d'un bras.Comme point de départ, nous nous sommes appuyés sur un modèle inspiré des cellules de lieu pour la navigation d'un robot autonome. Des apprentissages en ligne et interactifs de couples lieu/action sont suffisants pour faire émerger des bassins d'attraction permettant à un robot autonome de suivre une trajectoire. En interagissant avec le robot, on peut corriger ou orienter son comportement. Les corrections successives et leur encodage sensorimoteur permettent de définir le bassin d'attraction de la trajectoire. Ma première contribution a été d'étendre ce principe de construction d'attracteurs sensorimoteurs à un contrôle en impédance pour un bras robotique. Lors du maintien d'une posture proprioceptive, les mouvements du bras peuvent être corrigés par une modification en-ligne des commandes motrices exprimées sous la forme d'activations musculaires. Les attracteurs moteurs résultent alors des associations simples entre l'information proprioceptive du bras et ces commandes motrices. Dans un second temps, j'ai montré que le robot pouvait apprendre des attracteursvisuo-moteurs en combinant les informations proprioceptives et visuelles. Le contrôle visuo-moteur correspond à un homéostat qui essaie de maintenir un équilibre entre ces deux informations. Dans le cas d'une information visuelle ambiguë, le robot peut percevoir un stimulus externe (e.g. la main d'un humain) comme étant sa propre pince. Suivant le principe d'homéostasie, le robot agira pour réduire l'incohérence entre cette information externe et son information proprioceptive. Il exhibera alors un comportement d'imitation immédiate des gestes observés. Ce mécanisme d'homéostasie, complété par une mémoire des séquences observées et l'inhibition des actions durant l'observation, permet au robot de réaliser des imitations différées et d'apprendre par observation. Pour des tâches plus complexes, nous avons aussi montré que l'apprentissage de transitions peut servir de support pour l'apprentissage de séquences de gestes, comme c'était le cas pour l'apprentissage de cartes cognitives en navigation. L'utilisation de contextes motivationnels permet alors le choix entre les différentes séquences apprises.Nous avons ensuite abordé le problème de l'intégration dans une même architecture de comportements impliquant une navigation visuomotrice et le contrôle d'un bras robotique pour la préhension d'objets. La difficulté est de pouvoir synchroniser les différentes actions afin que le robot agisse de manière cohérente. Les comportements erronés du robot sont détectés grâce à l'évaluation des actions proposées par le modèle vis à vis des corrections imposées par le professeur humain. Un apprentissage de ces situations sous la forme de contextes multimodaux modulant la sélection d'action permet alors d'adapter le comportement afin que le robot reproduise la tâche désirée.Pour finir, nous présentons les perspectives de ce travail en terme de contrôle sensorimoteur, pour la navigation comme pour le contrôle d'un bras robotique, et son extension aux questions d'interface homme/robot. Nous insistons sur le fait que différents types d'imitation peuvent être le fruit des propriétés émergentes d'une architecture de contrôle sensorimotrice. / An autonomous robot collaborating with humans should be able to learn how to navigate and manipulate objects in the same task. In a classical approach, independent functional modules are considered to manage the different aspects of the task (navigation, arm control,...) . To the contrary, the goal of this thesis is to show that learning tasks of different kinds can be tackled by learning sensorimotor attractors from a few task nonspecific structures. We thus proposed an architecture which can learn and encode attractors to perform navigation tasks as well as arm control.We started by considering a model inspired from place-cells for navigation of autonomous robots. On-line and interactive learning of place-action couples can let attraction basins emerge, allowing an autonomous robot to follow a trajectory. The robot behavior can be corrected and guided by interacting with it. The successive corrections and their sensorimotor coding enables to define the attraction basin of the trajectory. My first contribution was to adapt this principle of sensorimotor attractor building for the impedance control of a robot arm. While a proprioceptive posture is maintained, the arm movements can be corrected by modifying on-line the motor command expressed as muscular activations. The resulting motor attractors are simple associations between the proprioceptive information of the arm and these motor commands. I then showed that the robot could learn visuomotor attractors by combining the proprioceptive and visual information with the motor attractors. The visuomotor control corresponds to a homeostatic system trying to maintain an equilibrium between the two kinds of information. In the case of ambiguous visual information, the robot may perceive an external stimulus (e.g. a human hand) as its own hand. According to the principle of homeostasis, the robot will act to reduce the incoherence between this external information and its proprioceptive information. It then displays a behavior of immediately observed gestures imitation. This mechanism of homeostasis, completed by a memory of the observed sequences and action inhibition capability during the observation phase, enables a robot to perform deferred imitation and learn by observation. In the case of more complex tasks, we also showed that learning transitions can be the basis for learning sequences of gestures, like in the case of cognitive map learning in navigation. The use of motivational contexts then enables to choose between different learned sequences.We then addressed the issue of integrating in the same architecture behaviors involving visuomotor navigation and robotic arm control to grab objects. The difficulty is to be able to synchronize the different actions so the robot act coherently. Erroneous behaviors of the robot are detected by evaluating the actions predicted by the model with respect to corrections forced by the human teacher. These situations can be learned as multimodal contexts modulating the action selection process in order to adapt the behavior so the robot reproduces the desired task.Finally, we will present the perspectives of this work in terms of sensorimotor control, for both navigation and robotic arm control, and its link to human robot interface issues. We will also insist on the fact that different kinds of imitation behavior can result from the emergent properties of a sensorimotor control architecture.
|
10 |
Méthodes probabilistes basées sur les mots visuels pour la reconnaissance de lieux sémantiques par un robot mobile / Visual words based probalistic methods for semantic places recognitionDubois, Mathieu 20 February 2012 (has links)
Les êtres humains définissent naturellement leur espace quotidien en unités discrètes. Par exemple, nous sommes capables d'identifier le lieu où nous sommes (e.g. le bureau 205) et sa catégorie (i.e. un bureau), sur la base de leur seule apparence visuelle. Les travaux récents en reconnaissance de lieux sémantiques, visent à doter les robots de capacités similaires. Ces unités, appelées "lieux sémantiques", sont caractérisées par une extension spatiale et une unité fonctionnelle, ce qui distingue ce domaine des travaux habituels en cartographie. Nous présentons nos travaux dans le domaine de la reconnaissance de lieux sémantiques. Ces derniers ont plusieurs originalités par rapport à l'état de l'art. Premièrement, ils combinent la caractérisation globale d'une image, intéressante car elle permet de s'affranchir des variations locales de l'apparence des lieux, et les méthodes basées sur les mots visuels, qui reposent sur la classification non-supervisée de descripteurs locaux. Deuxièmement, et de manière intimement reliée, ils tirent parti du flux d'images fourni par le robot en utilisant des méthodes bayésiennes d'intégration temporelle. Dans un premier modèle, nous ne tenons pas compte de l'ordre des images. Le mécanisme d'intégration est donc particulièrement simple mais montre des difficultés à repérer les changements de lieux. Nous élaborons donc plusieurs mécanismes de détection des transitions entre lieux qui ne nécessitent pas d'apprentissage supplémentaire. Une deuxième version enrichit le formalisme classique du filtrage bayésien en utilisant l'ordre local d'apparition des images. Nous comparons nos méthodes à l'état de l'art sur des tâches de reconnaissance d'instances et de catégorisation, en utilisant plusieurs bases de données. Nous étudions l'influence des paramètres sur les performances et comparons les différents types de codage employés sur une même base.Ces expériences montrent que nos méthodes sont supérieures à l'état de l'art, en particulier sur les tâches de catégorisation. / Human beings naturally organize their space as composed of discrete units. Those units, called "semantic places", are characterized by their spatial extend and their functional unity. Moreover, we are able to quickly recognize a given place (e.g. office 205) and its category (i.e. an office), solely on their visual appearance. Recent works in semantic place recognition seek to endow the robot with similar capabilities. Contrary to classical localization and mapping work, this problem is usually tackled as a supervised learning problem. Our contributions are two fold. First, we combine global image characterization, which captures the global organization of the image, and visual words methods which are usually based unsupervised classification of local signatures. Our second but closely related, contribution is to use several images for recognition by using Bayesian methods for temporal integration. Our first model don't use the natural temporal ordering of images. Temporal integration is very simple but has difficulties when the robot moves from one place to another.We thus develop several mechanisms to detect place transitions. Those mechanisms are simple and don't require additional learning. A second model augment the classical Bayesian filtering approach by using the local order among images. We compare our methods to state-of-the-art algorithms on place recognition and place categorization tasks.We study the influence of system parameters and compare the different global characterization methods on the same dataset. These experiments show that our approach while being simple leads to better results especially on the place categorization task.
|
Page generated in 0.0423 seconds