Le toucher est considéré comme l’un des sens primordiaux à modéliser chez un robot afin de lui permettre de générer des comportements plus souples et plus agiles comme attraper un objet, toucher (ou être touché par) une personne. Même si les capteurs tactiles actuels sont encore très limités en comparaison à la peau humaine, combinés à la vision et à la proprioception, le développement de nouveaux capteurs proches de la peau humaine pourrait démultiplier les capacités d’interactions d’un robot afin d’interagir directement avec une personne en toute sécurité et de partager avec lui son environnement physique et social. A la différence de la peau humaine, les principaux capteurs tactiles utilisés en robotique actuellement ne sont capables de détecter des variations de pression et de poids que sur de petites surfaces uniquement. De plus, ceux-ci sont souvent très rigides et n’ont pas les propriétés élastiques de déformation de la peau humaine. Les travaux de cette thèse se basent sur le développement d’une interface tactile proche d’une "peau artificielle" en terme de surface de recouvrement (qui peuvent atteindre plusieurs dizaines de centimètres carrés) et de localisation des points de contact de quelques dizaines de millinewtons. Deux aspects principaux sont développés : (i) aspect d’ingénierie comprenant le développement d’un prototype de peau artificielle conçue pour un robot humanoïde afin de lui conférer une perception tactile, et (ii) aspect cognitifs qui s’appuient sur l’intégration de multiples rétroactions sensorielles (tactile, visuelle, proprioceptive) dans le but d’avoir un robot qui puisse interagir physiquement avec des personnes.Le prototype tactile développé est basé sur la reconstruction du champ électrique à la surface d’un matériau conducteur, suivant le principe de la Tomographie par Impédance Électrique (TIE). Notre innovation principale a été d’implémenter des techniques d’apprentissage par réseau de neurones artificiels afin de reconstruire l’information sans utiliser les techniques analytiques d’inversion de matrice coûteuse en temps de calcul. De plus, nous montrons que l’utilisation de réseaux de neurones artificiels permet d’avoir un système beaucoup plus biomimétique, indispensable pour comprendre la perception du toucher chez l’être humain.Nous avons ensuite abordé le problème de l’intégration des informations tactiles et motrices. Après avoir recouvert un bras manipulateur avec la peau artificielle, nous avons fait apprendre un réseau de neurones son schéma corporel et adapter sa compliance par retour tactile. Le fonctionnement du moteur est basé sur le contrôle par admittance du bras robotique. Des expériences montrent que les réseaux de neurones peuvent contrôler l’interaction adaptative entre le bras du robot avec une personne grâce à l’estimation du couple appris selon la position où la force tactile avait été appliquée lors de la phase d’apprentissage.Enfin, nous nous sommes intéressées à la problématique de la représentation du corps au niveau neuronal, comment les êtres humains perçoivent leur propre corps à travers tous les sens (visuel, tactile et proprioceptif). Nous avons proposé un modèle biologique au niveau du cortex pariétal qui s’appuie sur l’intégration de multiples rétroactions sensorielles du corps du robot (son bras) et sur la synchronisation des rétroactions visuelles et proprioceptives. Nos résultats montrent l’apprentissage d’une image corporelle et l’espace péri-personnel avec l’émergence de neurones qui codent une information spatiale visuo-tactile relative au déplacement du bras et centrée soit sur le bras robotique soit centrée sur l’objet. / The touch perception is considered as one of the crucial senses to be recreated in a robot so that it could generate a more flexible and agile behavior. For instance, grasping an object, as well as touch or be touched by a person. Although modern touch sensors are still very limited compared to the human skin, combined with vision and proprioception, the development of new sensors similar to human skin could multiply the robot’s capacity to interact directly and safely with a person, as well as to share his or her physical and social environment.Unlike human skin, the main touch sensors used in modern robotics are only capable of detecting the pressure and weight variations on small batches of surface. Moreover, they are often quite stiff and do not have the elastic deformation capacity intrinsic to the human skin. The purpose of this thesis is to develop a touch interface close to "artificial skin" in terms of the covered area (which can reach several square decimeters) and localization of the contact points (several dozen millinewtons). Two main aspects have been developed: (i) the engineering aspect including the development of an artificial skin prototype for a humanoid robot designed to impart a tactile perception, and (ii) the cognitive aspect that is based on the integration of multiple sensory feedbacks (tactile, visual, proprioceptive) in order to conceive a robot that can physically interact with people.The developed tactile prototype is based on the reconstruction of the electric field on the surface of a conductive material, following the principle of Electrical Impedance Tomography (EIT). Our main innovation was to implement the neural network learning techniques to reconstruct the information without using the inverse matrix analytical techniques which imply time consuming computation. Moreover, we show that the application of artificial neural networks allows to obtain a much more biomimetic system, essential to understand the perception of the human touch.Then, we addressed the issue of integrating tactile and motor information. After having covered a manipulator arm with artificial skin, we have learn a neural network its body schema and enables it to adjust its compliance with tactile feedback. The functioning of the motor is based on the admittance control of the robot arm. Experiments show that neural networks can control the adaptive interaction between the robot arm and a human being by estimating the torque perceived according to the position where the touch force had been applied during the learning phase.Finally, we turned our attention to the issue of the body representation at the neuronal level, namely, how human beings perceive their own body through all their senses (visual, tactile, and proprioceptive). We have proposed a biological model in the parietal cortex, which is based on the integration of multiple sensory feedbacks from the robot’s body (its arm) and on the synchronization of visual and proprioceptive feedback. Our results show the capacity to perceive the body image with the emergence of neurons that encode a spatial visual-tactile information of the arm movement and is centered on either the robotic arm or on the object.
Identifer | oai:union.ndltd.org:theses.fr/2017CERG0906 |
Date | 15 September 2017 |
Creators | Pugach, Ganna |
Contributors | Cergy-Pontoise, Donecʹkij nacíonalʹnij uníversitet (Ukraine), Gaussier, Philippe, Tolochko, Olga |
Source Sets | Dépôt national des thèses électroniques françaises |
Language | French |
Detected Language | French |
Type | Electronic Thesis or Dissertation, Text |
Page generated in 0.0028 seconds