• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1
  • 1
  • Tagged with
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Développement d'une peau artificielle pour l'apprentissage d'interactions physiques et sociales sur un robot humanoïde / Development of an artificial skin for learning physical and social interactions of a humanoid robot

Pugach, Ganna 15 September 2017 (has links)
Le toucher est considéré comme l’un des sens primordiaux à modéliser chez un robot afin de lui permettre de générer des comportements plus souples et plus agiles comme attraper un objet, toucher (ou être touché par) une personne. Même si les capteurs tactiles actuels sont encore très limités en comparaison à la peau humaine, combinés à la vision et à la proprioception, le développement de nouveaux capteurs proches de la peau humaine pourrait démultiplier les capacités d’interactions d’un robot afin d’interagir directement avec une personne en toute sécurité et de partager avec lui son environnement physique et social. A la différence de la peau humaine, les principaux capteurs tactiles utilisés en robotique actuellement ne sont capables de détecter des variations de pression et de poids que sur de petites surfaces uniquement. De plus, ceux-ci sont souvent très rigides et n’ont pas les propriétés élastiques de déformation de la peau humaine. Les travaux de cette thèse se basent sur le développement d’une interface tactile proche d’une "peau artificielle" en terme de surface de recouvrement (qui peuvent atteindre plusieurs dizaines de centimètres carrés) et de localisation des points de contact de quelques dizaines de millinewtons. Deux aspects principaux sont développés : (i) aspect d’ingénierie comprenant le développement d’un prototype de peau artificielle conçue pour un robot humanoïde afin de lui conférer une perception tactile, et (ii) aspect cognitifs qui s’appuient sur l’intégration de multiples rétroactions sensorielles (tactile, visuelle, proprioceptive) dans le but d’avoir un robot qui puisse interagir physiquement avec des personnes.Le prototype tactile développé est basé sur la reconstruction du champ électrique à la surface d’un matériau conducteur, suivant le principe de la Tomographie par Impédance Électrique (TIE). Notre innovation principale a été d’implémenter des techniques d’apprentissage par réseau de neurones artificiels afin de reconstruire l’information sans utiliser les techniques analytiques d’inversion de matrice coûteuse en temps de calcul. De plus, nous montrons que l’utilisation de réseaux de neurones artificiels permet d’avoir un système beaucoup plus biomimétique, indispensable pour comprendre la perception du toucher chez l’être humain.Nous avons ensuite abordé le problème de l’intégration des informations tactiles et motrices. Après avoir recouvert un bras manipulateur avec la peau artificielle, nous avons fait apprendre un réseau de neurones son schéma corporel et adapter sa compliance par retour tactile. Le fonctionnement du moteur est basé sur le contrôle par admittance du bras robotique. Des expériences montrent que les réseaux de neurones peuvent contrôler l’interaction adaptative entre le bras du robot avec une personne grâce à l’estimation du couple appris selon la position où la force tactile avait été appliquée lors de la phase d’apprentissage.Enfin, nous nous sommes intéressées à la problématique de la représentation du corps au niveau neuronal, comment les êtres humains perçoivent leur propre corps à travers tous les sens (visuel, tactile et proprioceptif). Nous avons proposé un modèle biologique au niveau du cortex pariétal qui s’appuie sur l’intégration de multiples rétroactions sensorielles du corps du robot (son bras) et sur la synchronisation des rétroactions visuelles et proprioceptives. Nos résultats montrent l’apprentissage d’une image corporelle et l’espace péri-personnel avec l’émergence de neurones qui codent une information spatiale visuo-tactile relative au déplacement du bras et centrée soit sur le bras robotique soit centrée sur l’objet. / The touch perception is considered as one of the crucial senses to be recreated in a robot so that it could generate a more flexible and agile behavior. For instance, grasping an object, as well as touch or be touched by a person. Although modern touch sensors are still very limited compared to the human skin, combined with vision and proprioception, the development of new sensors similar to human skin could multiply the robot’s capacity to interact directly and safely with a person, as well as to share his or her physical and social environment.Unlike human skin, the main touch sensors used in modern robotics are only capable of detecting the pressure and weight variations on small batches of surface. Moreover, they are often quite stiff and do not have the elastic deformation capacity intrinsic to the human skin. The purpose of this thesis is to develop a touch interface close to "artificial skin" in terms of the covered area (which can reach several square decimeters) and localization of the contact points (several dozen millinewtons). Two main aspects have been developed: (i) the engineering aspect including the development of an artificial skin prototype for a humanoid robot designed to impart a tactile perception, and (ii) the cognitive aspect that is based on the integration of multiple sensory feedbacks (tactile, visual, proprioceptive) in order to conceive a robot that can physically interact with people.The developed tactile prototype is based on the reconstruction of the electric field on the surface of a conductive material, following the principle of Electrical Impedance Tomography (EIT). Our main innovation was to implement the neural network learning techniques to reconstruct the information without using the inverse matrix analytical techniques which imply time consuming computation. Moreover, we show that the application of artificial neural networks allows to obtain a much more biomimetic system, essential to understand the perception of the human touch.Then, we addressed the issue of integrating tactile and motor information. After having covered a manipulator arm with artificial skin, we have learn a neural network its body schema and enables it to adjust its compliance with tactile feedback. The functioning of the motor is based on the admittance control of the robot arm. Experiments show that neural networks can control the adaptive interaction between the robot arm and a human being by estimating the torque perceived according to the position where the touch force had been applied during the learning phase.Finally, we turned our attention to the issue of the body representation at the neuronal level, namely, how human beings perceive their own body through all their senses (visual, tactile, and proprioceptive). We have proposed a biological model in the parietal cortex, which is based on the integration of multiple sensory feedbacks from the robot’s body (its arm) and on the synchronization of visual and proprioceptive feedback. Our results show the capacity to perceive the body image with the emergence of neurons that encode a spatial visual-tactile information of the arm movement and is centered on either the robotic arm or on the object.
2

Shape sensing of deformable objects for robot manipulation / Mesure et suivi de la forme d'objets déformables pour la manipulation robotisée

Sanchez Loza, Jose Manuel 24 May 2019 (has links)
Les objets déformables sont omniprésents dans notre vie quotidienne. Chaque jour, nous manipulons des vêtements dans des configurations innombrables pour nous habiller, nouons les lacets de nos chaussures, cueillons des fruits et des légumes sans les endommager pour notre consommation et plions les reçus dans nos portefeuilles. Toutes ces tâches impliquent de manipuler des objets déformables et peuvent être exécutées sans problème par une personne. Toutefois, les robots n'ont pas encore atteint le même niveau de dextérité. Contrairement aux objets rigides, que les robots sont maintenant capables de manipuler avec des performances proches de celles des humains; les objets déformables doivent être contrôlés non seulement pour les positionner, mais aussi pour définir leur forme. Cette contrainte supplémentaire, relative au contrôle de la forme d’un objet, rend les techniques utilisées pour les objets rigides inapplicables aux objets déformables. En outre, le comportement des objets déformables diffère largement entre eux, par exemple: la forme d’un câble et des vêtements est considérablement affectée par la gravité, alors que celle-ci n’affecte pas la configuration d’autres objets déformables tels que des produits alimentaires. Ainsi, différentes approches ont été proposées pour des classes spécifiques d’objets déformables.Dans cette thèse, nous cherchons à remédier à ces lacunes en proposant une approche modulaire pour détecter la forme d'un objet pendant qu'il est manipulé par un robot. La modularité de cette approche s’inspire d’un paradigme de programmation qui s’applique de plus en plus au développement de logiciels en robotique et vise à apporter des solutions plus générales en séparant les fonctionnalités en composants. Ces composants peuvent ensuite être interchangés en fonction de la tâche ou de l'objet concerné. Cette stratégie est un moyen modulaire de suivre la forme d'objets déformables.Pour valider la stratégie proposée, nous avons implémenté trois applications différentes. Deux applications portaient exclusivement sur l'estimation de la déformation de l'objet à l'aide de données tactiles ou de données issues d’un capteur d’effort. La troisième application consistait à contrôler la déformation d'un objet. Une évaluation de la stratégie proposée, réalisée sur un ensemble d'objets élastiques pour les trois applications, montre des résultats prometteurs pour une approche qui n'utilise pas d'informations visuelles et qui pourrait donc être améliorée de manière significative par l'ajout de cette modalité. / Deformable objects are ubiquitous in our daily lives. On a given day, we manipulate clothes into uncountable configurations to dress ourselves, tie the shoelaces on our shoes, pick up fruits and vegetables without damaging them for our consumption and fold receipts into our wallets. All these tasks involve manipulating deformable objects and can be performed by an able person without any trouble, however robots have yet to reach the same level of dexterity. Unlike rigid objects, where robots are now capable of handling objects with close to human performance in some tasks; deformable objects must be controlled not only to account for their pose but also their shape. This extra constraint, to control an object's shape, renders techniques used for rigid objects mainly inapplicable to deformable objects. Furthermore, the behavior of deformable objects widely differs among them, e.g. the shape of a cable and clothes are significantly affected by gravity while it might not affect the configuration of other deformable objects such as food products. Thus, different approaches have been designed for specific classes of deformable objects.In this thesis we seek to address these shortcomings by proposing a modular approach to sense the shape of an object while it is manipulated by a robot. The modularity of the approach is inspired by a programming paradigm that has been increasingly been applied to software development in robotics and aims to achieve more general solutions by separating functionalities into components. These components can then be interchanged based on the specific task or object at hand. This provides a modular way to sense the shape of deformable objects.To validate the proposed pipeline, we implemented three different applications. Two applications focused exclusively on estimating the object's deformation using either tactile or force data, and the third application consisted in controlling the deformation of an object. An evaluation of the pipeline, performed on a set of elastic objects for all three applications, shows promising results for an approach that makes no use of visual information and hence, it could greatly be improved by the addition of this modality.

Page generated in 0.1731 seconds