Cette thèse s’inscrit dans le domaine de la navigation robotique bio-inspirée en environnement réel et implique la capacité pour un robot mobile à se déplacer de manière autonome dans un monde a priori dynamique et inconnu. Les travaux décrits au cours de ce manuscrit s’attacheront à montrer comment, en partant des travaux académiques réalisés par l’équipe Neurocybernétique du laboratoire ETIS, il a été possible de concevoir le robot mobile Diya One capable de naviguer de manière autonome dans de grands environnements intérieurs. Depuis une vingtaine d’année, l’équipe Neurocybernétique élabore des modèles de navigation bio-inspirée. De précédents travaux ont montré qu’un modèle de cellules de lieu, enregistrées chez le rat, permet à un robot mobile d’apprendre des comportements de navigation robustes, tels qu’une ronde ou un retour au nid, à partir d’associations entre lieu et action. L’apprentissage et la reconnaissance d’un lieu ne reposent alors que sur des informations visuelles. Cependant, trois problèmes critiques ne permettent pas de naviguer dans de grands environnements : 1- l’ambiguïté de certaines situations visuelles (ou alias perceptif), 2- l’apprentissage sur le long terme et 3- la sensibilité aux conditions environnementales. L’ajout d’autres modalités constitue une solution efficace pour augmenter la robustesse de la localisation. L’équipe a développé plusieurs modèles basés sur la proprioception du robot afin desuppléer, dans les cas limites, les modèles purement visuels. La principale limitation des approches proprioceptives est qu’elles sont soumisesà l’accumulation d’erreurs. Il est donc nécessaire de recalibrer périodiquement les modèles. Fusionner des modalités allothétiques et idiothétiques semblent être une bonne stratégie pour obtenir une estimation fiable de la localisation du robot. Les champs de neurones dynamiques (DNF) ou continous attractor neural network (CANN) constituent un puissant candidat pour mettre en œuvre le type de mémoire requis pour la construction de cellules de lieu. Nous présenterons un premier modèle de fusion utilisant les champs de neurones dynamiques pour maintenir l’orientation du robot puis un second généralisant le principe du modèle de fusion pour la construction de cellules de lieux multimodales.Être capable de produire et commercialiser rapidement un produit est un enjeu majeur pour la survie de Partnering. En plus des capacités de navigation et de localisation, un robot commercialisable requiert un ensemble de comportements indispensables à la mobilité, à la sécurité (loi de contrôle, évitement des obstacles et des trous) et à son autonomie (gestion d’énergie et retour à la station de recharge). Pour aboutir à cette première solution, nous avons suivit une démarche ascendante (bottom-up) défendue par la robotique comportementale. Nous avons développé progressivement la complexité du robot au travers de comportements élémentaires intégrés dans une architecture de contrôle régissant à chaque instant l’expression de ces comportements et la sélection des actions à exécuter.Ce mémoire est découpée en deux parties. Une première partie industrielle relevant d’objectifs à court terme, consistant à mettre en place, à partir des modèles existants développés par l’équipe Neurocybernétique, l’architecture comportementale de la première version du robot Diya One. Puis, une seconde partie plus fondamentale dans laquelle nous traiterons de la réalisation demodèles de fusion multimodale. Ces modèles seront ajoutés incrémentalement au robot afin d’améliorer progressivement ses capacités de navigation. / This thesis falls into the field of navigation in bio-inspired robotics in real environment and implies the ability for a mobile robot to move autonomously in a world a priori dynamic and unknown. The work described in this manuscript will show how, starting from the academic work carried out by the Neurocybernetics team of the ETIS laboratory, it was possible to design the mobile robot Diya One able to navigate autonomously in large indoor environments. For the past 20 years, the Neurocybernetics team has been developing bio-inspired navigation models. Previous work has shown that a model of place cells, recorded in the rat, allows a mobile robot to learn robust navigation behaviors, such as a round or a homing, from associations between place and action. Learning and the recognition of a place are based only on visual information. However, three critical problems do not allow to navigate in large environments: 1- the ambiguity of certain visual situations (or perceptual alia), 2- long-term learning, and 3-sensitivity to environmental conditions. The addition of other modalities is an effective solution for increasing the robustness of the location. The team has developed several models based on the proprioception of the robot in order to compensate, in limiting cases, for purely visual models. The main limitation of proprioceptive approaches is that, based on the proprioception of the robot, they are subject to the accumulation of errors. It is therefore necessary to periodically recalibrate the models. Merging allothetic and idiothetic modalities seems to be a good strategy for obtaining a reliable estimate of the robot’s location. Dynamic neural network (DNF) or continous attractor neural network (CANN) constitute a powerful candidate to implement the type of memory required for the construction of place cells. We present a first fusion model using dynamic neuron fields to maintain the orientation of the robot and then a second one generalizing the principle of fusion model for the construction of cells of multimodal places. Being able to produce and market quickly a product is a major challenge for Partnering’s survival. In addition to navigation and location capabilities, a marketable robot requires a set of behaviors that are essential to mobility, security (control law, avoidance of obstacles and holes) and its autonomy (energy management and return to the charging station). To arrive at this first solution, we followed a bottom-up approach defended by behavioral robotics. We have progressively developed the complexity of the robot through elementary behaviors integratedin a control architecture governing at each moment the expression of these behaviors and the selection of the actions to be executed. This manuscript is divided into two parts. A first industrial part with short-term objectives, consisting of implementing the behavioral architecture of the first version of the Diya One robot, based on the existing models developed by the Neurocybernetics team. Then, a second more theoretical part in which we will deal with the realization of multimodal fusion models. These models will be added incrementally to the robot in order to gradually improve its navigationcapabilities.
Identifer | oai:union.ndltd.org:theses.fr/2017CERG0898 |
Date | 20 December 2017 |
Creators | Delarboulas, Pierre |
Contributors | Cergy-Pontoise, Quoy, Mathias |
Source Sets | Dépôt national des thèses électroniques françaises |
Language | French |
Detected Language | French |
Type | Electronic Thesis or Dissertation, Text |
Page generated in 0.0022 seconds