Spelling suggestions: "subject:"comportement interactif""
1 |
CONTRIBUTION A LA CONCEPTION D'INTERFACES ET DE COMPORTEMENTS INTERACTIFS POUR DES ROBOTS PERSONNELSGranata, Consuelo 30 March 2012 (has links) (PDF)
Ce travail de thèse s'inscrit dans le contexte d'un certain nombre de projets qui visent la conception, le développement et l'évaluation de systèmes robotiques mobiles pour l'autonomie des personnes à domicile. Deux aspects complémentaires mais néanmoins distincts sont considérés dans ce travail de thèse: 1. La définition d'une interface graphique qui permet aux utilisateurs d'accéder aisément aux fonctionnalités du robot ; 2. La mobilité du système, portant cette interface, dans des environnements intérieurs encombrés, relativement à la personne et dans un certain contexte. Le type d'interface proposée pour l'interaction est un aspect très important notamment en raison de la population cible : des séniors, non experts, souffrants souvent de troubles cognitifs. Les règles générales pour la conception d'une interface sont indépendantes de la technologie et doivent s'inspirées des principes relevant de la psychologie cognitive et des sciences sociales. Afin de rendre l'interface du robot parfaitement adaptée à chaque utilisateur, une méthode de sélection d'icônes a été proposée et expérimentée avec les patients de l'hôpital gériatrique Broca. Les problèmes relatifs à la mobilité autonome du support de l'interface sont particulièrement complexes. Ils reposent sur deux questions centrales qui sont d'une part la localisation de la personne dans l'espace d'évolution du robot et d'autre part la définition de comportements d'interaction. Pour la détection et la localisation de la personne, un détecteur des jambes par laser 2D a été implémenté. La vitesse de la personne et sa trajectoire sont calculées en appliquant un filtre de Kalman étendu sur les données issues du laser. Pour répondre au besoin de donner au robot un comportement flexible par rapport à l'utilisateur, au contexte et aux événements qui se produisent de façon imprévisible, nous avons implémenté un moteur de décision exploitant le logiciel SpirOps. Les entrées de ce moteur décisionnel sont des informations extraites des différents capteurs. Ces informations sont exploitées avec des méthodes de logique floue utilisant une base des règles que nous avons définie et paramétrée pour produire en sortie du moteur des valeurs d'intérêt associés à chaque action que le robot peut exécuter. Le robot peut alors décider dynamiquement quelle est l'action la plus logique et adéquate à réaliser dans les différentes situations.
|
2 |
Learning socio-communicative behaviors of a humanoid robot by demonstration / Apprendre les comportements socio-communicatifs d'un robot humanoïde par la démonstrationNguyen, Duc-Canh 22 October 2018 (has links)
Un robot d'assistance sociale (SAR) est destiné à engager les gens dans une interaction située comme la surveillance de l'exercice physique, la réadaptation neuropsychologique ou l'entraînement cognitif. Alors que les comportements interactifs de ces systèmes sont généralement scriptés, nous discutons ici du cadre d’apprentissage de comportements interactifs multimodaux qui est proposé par le projet SOMBRERO.Dans notre travail, nous avons utilisé l'apprentissage par démonstration afin de fournir au robot des compétences nécessaires pour effectuer des tâches collaboratives avec des partenaires humains. Il y a trois étapes principales d'apprentissage de l'interaction par démonstration: (1) recueillir des comportements interactifs représentatifs démontrés par des tuteurs humains; (2) construire des modèles des comportements observés tout en tenant compte des connaissances a priori (modèle de tâche et d'utilisateur, etc.); et ensuite (3) fournir au robot-cible des contrôleurs de gestes appropriés pour exécuter les comportements souhaités.Les modèles multimodaux HRI (Human-Robot Interaction) sont fortement inspirés des interactions humain-humain (HHI). Le transfert des comportements HHI aux modèles HRI se heurte à plusieurs problèmes: (1) adapter les comportements humains aux capacités interactives du robot en ce qui concerne ses limitations physiques et ses capacités de perception, d'action et de raisonnement limitées; (2) les changements drastiques des comportements des partenaires humains face aux robots ou aux agents virtuels; (3) la modélisation des comportements interactifs conjoints; (4) la validation des comportements robotiques par les partenaires humains jusqu'à ce qu'ils soient perçus comme adéquats et significatifs.Dans cette thèse, nous étudions et faisons des progrès sur ces quatre défis. En particulier, nous traitons les deux premiers problèmes (transfert de HHI vers HRI) en adaptant le scénario et en utilisant la téléopération immersive. En outre, nous utilisons des réseaux neuronaux récurrents pour modéliser les comportements interactifs multimodaux (tels que le discours, le regard, les mouvements de bras, les mouvements de la tête, les canaux). Ces techniques récentes surpassent les méthodes traditionnelles (Hidden Markov Model, Dynamic Bayesian Network, etc.) en termes de précision et de coordination inter-modalités. A la fin de cette thèse, nous évaluons une première version de robot autonome équipé des modèles construits par apprentissage. / A socially assistive robot (SAR) is meant to engage people into situated interaction such as monitoring physical exercise, neuropsychological rehabilitation or cognitive training. While the interactive behavioral policies of such systems are mainly hand-scripted, we discuss here key features of the training of multimodal interactive behaviors in the framework of the SOMBRERO project.In our work, we used learning by demonstration in order to provide the robot with adequate skills for performing collaborative tasks in human centered environments. There are three main steps of learning interaction by demonstration: we should (1) collect representative interactive behaviors from human coaches; (2) build comprehensive models of these overt behaviors while taking into account a priori knowledge (task and user model, etc.); and then (3) provide the target robot with appropriate gesture controllers to execute the desired behaviors.Multimodal HRI (Human-Robot Interaction) models are mostly inspired by Human-Human interaction (HHI) behaviors. Transferring HHI behaviors to HRI models faces several issues: (1) adapting the human behaviors to the robot’s interactive capabilities with regards to its physical limitations and impoverished perception, action and reasoning capabilities; (2) the drastic changes of human partner behaviors in front of robots or virtual agents; (3) the modeling of joint interactive behaviors; (4) the validation of the robotic behaviors by human partners until they are perceived as adequate and meaningful.In this thesis, we study and make progress over those four challenges. In particular, we solve the two first issues (transfer from HHI to HRI) by adapting the scenario and using immersive teleoperation. In addition, we use Recurrent Neural Networks to model multimodal interactive behaviors (such as speech, gaze, arm movements, head motion, backchannels) that surpass traditional methods (Hidden Markov Model, Dynamic Bayesian Network, etc.) in both accuracy and coordination between the modalities. We also build and evaluate a proof-of-concept autonomous robot to perform the tasks.
|
Page generated in 0.1432 seconds