Spelling suggestions: "subject:"1interaction humanrobot"" "subject:"1interaction humanoidrobot""
1 |
Interaction humain-robot par la voix avec traitement des émotions du locuteurBrodeur, David January 2016 (has links)
Un robot social doit être capable d'interagir avec des humains. Pour cela, il est essentiel de savoir communiquer de façon naturelle. L'audition artificielle appliquée en robotique est une approche intéressante puisque la voix est le principal mécanisme de communication des humains entre eux. Au-delà des mots prononcés, il est aussi important de savoir y décoder le contenu paralinguistique qui donne beaucoup de renseignements sur le locuteur. Entre autres, les émotions véhiculées dans la voix du locuteur peuvent aider un robot à comprendre une situation, à savoir si une personne est satisfaite ou non de son travail, si une personne a peur, etc.
Pour qu'une interaction par la voix avec un robot soit fonctionnelle et intéressante pour le locuteur, plusieurs éléments matériels et logiciels sont nécessaires. L'interaction doit aussi tenir compte de certaines règles de conduite qui facilitent les échanges d'information et la compréhension lors d'un dialogue.
Ce mémoire présente donc un système d'interaction humain-robot par la voix qui intègre ces éléments dans une même plateforme. Il utilise 8SoundsUSB et le système ManyEars pour faire l'acquisition et le prétraitement du signal audio. Un détecteur d'activité vocale vient ensuite distinguer le bruit stationnaire ambiant des sources sonores représentant la voix. Une fois le signal de la voix récupéré, il est analysé pour en décoder les mots prononcés et l'émotion. La reconnaissance de la parole est effectuée à partir de l'outil Google Speech API. La reconnaissance des émotions par la voix est basée sur l'algorithme de [Attabi et Dumouchel, 2013] qui utilise les Anchor Models, et caractérise les émotions perçues en trois catégories : neutre, négatif ou positif. Une nouvelle implémentation de cet algorithme a été validée en simulation, puis dans des essais en temps-réel. Le logiciel Palaver [McClain, 2013] permet ensuite d'interpréter les mots et les émotions en les associant à une réponse que le robot peut prononcer à l'aide d'un module de synthèse vocale. Enfin, le gestionnaire de dialogues Disco [Rich et Sidner, 2012] est utilisé afin de réaliser des interactions plus soutenues sur un même sujet.
L'objectif final du projet est de vérifier si l'ajout de la capacité à percevoir les émotions dans la voix améliore l'interaction humain-robot. Pour cela, une interface graphique utilisant des concepts de la bande-dessinée a été développée afin d'illustrer de manière intégrée le contenu linguistique et le contenu paralinguistique détecté. Les résultats d'une étude réalisée auprès de 30 participants suggèrent que l'interaction humain-robot est plus appréciée lorsque le système reconnaît les émotions que lorsqu'il ne les reconnaît pas. Le projet a aussi permis d'identifier des éléments qui permettraient une meilleure intégration des différents éléments du système. Entre autres, l'amélioration du modèle des émotions doit passer par une base de données de voix locales plus grande et annotée par un plus grand nombre de personnes.
|
2 |
Intégration et évaluation de capacités interactives d'un robot humanoïdeRousseau, Vincent January 2011 (has links)
Le domaine de l'Interaction Humain-Robot (HRI) est en pleine expansion. En effet, de plus en plus de plateformes robotiques sont mises en oeuvre pour faire évoluer ce domaine. Sur ces plateformes, toujours plus de modalités d'interaction sont mises en place telles que les mouvements corporels, la reconnaissance de gestes ou d'objets, la reconnaissance et la synthèse vocale ou encore la mobilité, pour pouvoir effectuer l'interaction la plus complète et la plus naturelle pour l'humain. Mais ceci amène aussi une complexité croissante de l'intégration de ces modalités sur une seule et même plateforme. Aussi, le domaine HRI étant à ses débuts, la méthodologie expérimentale des travaux se limite le plus souvent à des preuves de concept éprouvées en laboratoire ou en milieux ouverts non contrôlés. Il se trouve que peu de chercheurs présentent une démarche structurée et rigoureuse pour l'évaluation expérimentale d'interaction humain-robot en milieux ouverts, et il en résulte des recherches de types exploratoires qui examinent principalement la complexité technologique des modalités interactives à mettre en oeuvre, et non l'impact de ces modalités sur la qualité des interactions. Le but de l'étude présentée dans ce document est d'étudier l'intégration de plusieurs modalités interactives sur un robot mobile humanoïde telles que la parole, les gestes et la mobilité sur la qualité des interactions humain-robot. Plus spécifiquement, le contexte de l'étude consiste à examiner l'impact de modalités interactives sur la capacité du robot à attirer l'attention d'une personne et à engager une interaction avec elle. Le scénario expérimental consiste à permettre au robot, à partir de la parole, d'expressions faciales, de mouvement de la tête, de gestes avec son bras et de sa mobilité, de demander de l'assistance à une personne à proximité de lui remettre un objet se trouvant au sol. L'hypothèse sous-jacente est que l'intégration de l'ensemble de ces modalités devrait améliorer la capacité du robot à engager des personnes à interagir avec lui. Des expérimentations ont été faites en milieu contrôlé et non-contrôlé selon deux protocoles expérimentaux : une étude des modalités à l'intérieur d'une population, et une étude de variation entre individus. D'une manière générale, il en ressort que l'ajout de modalités améliore la qualité de l'engagement de l'interaction par le robot, mais qu'il faut porter une attention particulière à l'approche de la personne par le robot, principalement pour les personnes non familières avec ce dernier. De plus, les observations indiquent qu'il est plus facile d'obtenir des résultats significatifs en environnement contrôlé, elles permettent d'identifier des pistes d'amélioration pour éventuellement arriver à en obtenir en milieu non-contrôlé. Enfin, ce premier projet d'intégration et d'évaluation de capacités interactives d'un robot mobile servira à alimenter une prochaine itération avec un robot plus sophistiqué présentement en conception.
|
3 |
Développement et contrôle d'un bras robotique basé sur l'actionneur différentiel élastiqueLavoie, Marc-André January 2009 (has links)
Les forces et faiblesses des robots différant grandement de celles des humains, les robots chirurgicaux ont plusieurs avantages qui expliquent leur utilisation croissante en salle d'opération. Cependant, la robotique chirurgicale demeure un domaine qui comporte de nombreux défis. Plutôt que de travailler directement au niveau de l'application sur un robot spécifique, il a été décidé de concentrer les efforts sur une des composantes mécaniques qui impose des limitations aux interactions humain-robot : l'actionneur. Dans cette optique, un prototype de bras interactif a été réalisé en utilisant la technologie de l'Actionneur Différentiel Élastique (ADE), un actionneur élastique haute-performance de faible impédance mécanique intrinsèque. Le bras à trois degrés de liberté, dont les actionneurs sont contrôlés en impédance, pourra servir à étudier la façon dont les interactions humain/robot permettent d'augmenter les capacités humaines de manipulation. Le contrôle d'impédance de l'ADE a été utilisé en tant que noyau central lors du développement du contrôle du bras interactif. L'analyse des performances dans la plage de fréquence d'intérêt suggère un bon comportement de l'actionneur lorsque l'impédance mécanique demandée est faible.Les premiers essais d'interaction humain-robot avec le bras interactif suggèrent que l'ADE est tout indiqué pour une telle application. Le contrôle d'impédance développé a pu être utilisé dans le cadre d'une autre application robotique : le contrôle des axes de direction du robot mobile omnidirectionnel AZIMUT[indice inférieur 3].
|
4 |
Électronique embarquée pour un actionneur adapté au contrôle d'interactionHeintz, Benoît January 2010 (has links)
Afin de répondre à la problématique de la sécurité lors des interactions humain-robot, le Laboratoire IntRoLab de la Faculté de génie à l'Université de Sherbrooke a développé un actionneur basé sur l'agencement d'un système mécanique à double différentiel et de deux freins magnétorhéologiques. Ce nouvel actionneur a été baptisé ADDR pour Actionneur Double Différentiel Rhéologique. Contrairement aux actionneurs classiques, l'ADDR n'est pas conçu pour être simplement contrôlé en position, mais il offre la possibilité d'être contrôlé en couple indépendamment de sa vitesse de rotation. Cela, ainsi que sa faible inertie de sortie, lui confère une grande sécurité lors de ses déplacements, même dans des environnements inconnus ou dynamiques. Ce mémoire présente la mise au point de l'électronique embarquée de contrôle de l'ADDR lui permettant d'interagir de façon sécuritaire avec des humains. Une première carte électronique est réalisée pour démontrer la faisabilité de contrôle de ce nouvel actionneur et caractériser ses performances. Le contrôle d'interaction étudié est le contrôle d'impédance par lequel un actionneur cherche à reproduire la réponse dynamique d'un système mécanique réel connu. Par la suite, l'électronique de contrôle est revue et miniaturisée afin d'être intégrée à l'intérieur même de l'ADDR. La large bande passante en couple mesurée permet de conclure que l'ADDR est tout à fait approprié pour être utilisé pour des interactions humain-robot par le biais du contrôle d'impédance. De plus, la réalisation d'une interface haptique qui ajoute un retour d'informations visuelles à l'utilisateur améliore la sensation de toucher de la dynamique du système mécanique simulé. Dans l'avenir, il serait intéressant d'utiliser plusieurs ADDR et leur contrôle d'impédance pour la conception d'un système mécanique tel qu'un bras robotique. Ainsi, les interactions humain-robot pourraient être plus complexes tout en apportant une très grande sécurité par rapport au même bras robotique réalisé à partir d'actionneurs classiques.
|
5 |
Développement et validation expérimentale d'un système d'embrayages magnétorhéologiques pour le contrôle de robot à tendonsViau, Joël January 2015 (has links)
La grande majorité des robots actuels sont utilisés dans le domaine industriel. Ils doivent
travailler à l’intérieur d’un environnement contrôlé afin de ne pas blesser les gens qui les
entourent. Les robots industriels sont habituellement rigides et ne sont pas adaptés pour
travailler dans des environnements non contrôlés. Afin de pallier à ce problème, une nouvelle
branche de la robotique est en émergence. Qualifiée de robotique sécuritaire avec
les humains, elle permet à des robots de travailler à proximité des humains et par le
fait même, d’être utilisés dans plusieurs autres domaines dont l’environnement n’est pas
contrôlé. L’utilisation d’actionneurs compliants est une approche utilisée pour la conception
de robot souple. La majorité de ces types d’actionneurs possèdent une bande passante
limitée en force ce qui est problématique pour plusieurs tâches nécessitant un contrôle à
la fois précis en position et en force.
Ce projet de maîtrise traite de l’élaboration et du contrôle d’un nouveau concept d’actionneur
à grande densité de force utilisant la technologie magnétorhéologique (MR), et ce,
dans un embrayage combiné à l’enroulement de tendons. Les embrayages MR permettent
d’avoir de larges bandes passantes en force, d’isoler l’inertie du moteur avec le joint externe,
de distribuer la puissance d’une seule source d’énergie cinétique et possède une
grande densité de force. En combinant les embrayages MR à l’enroulement de tendons, il
est possible de repousser la masse du robot à sa base, ce qui réduit grandement l’inertie
de la structure du système. En utilisant le fluide MR dans un embrayage, le contrôle du
couple est plus simple à implémenter. Par exemple, il est possible d’effectuer des mouvements
qui requièrent beaucoup de force dans un court intervalle de temps, tout en étant
capable d’effectuer une tâche qui requiert une grande précision de mouvement. Cette combinaison,
inexistante actuellement, pourrait mener à des changements importants dans
le secteur de la robotique sécuritaire avec les humains et de la robotique mobile. En plus
de combiner ces dernières technologies mécaniques, les techniques de contrôle doivent
être adaptées afin d’exploiter le plein potentiel de ce type de système.
Dans ce mémoire, la conception et la réalisation de prototypes et de techniques de contrôle
sont présentés. Pour valider les performances du nouveau type d’actionneur, les performances
de bande passante en couple de l’embrayage MR et en force en ajoutant le système
de transmission par câble sont illustrées et discutées. Par la suite, un prototype complet
utilisant quatre embrayages MR est présenté et caractérisé au niveau de la bande passante
en force et en position. En plus de l’aspect mécanique, une technique de contrôle
adaptée au nouveau système d’actionnement est présentée. Pour valider et développer
l’algorithme de contrôle en position, un prototype utilisant des moteurs électriques est développé.
La capacité à s’adapter au changement de configuration du système d’actionneur
est illustrée et discutée. Les algorithmes de contrôle sont ensuite validés sur le prototype
utilisant les embrayages MR.
|
6 |
Modélisation du profil émotionnel de l’utilisateur dans les interactions parlées Humain-Machine / User’s emotional profile modelling in spoken Human-Machine interactionsDelaborde, Agnès 19 December 2013 (has links)
Les travaux de recherche de la thèse portent sur l'étude et la formalisation des interactions émotionnelles Humain-Machine. Au delà d’une détection d'informations paralinguistiques (émotions, disfluences,...) ponctuelles, il s'agit de fournir au système un profil interactionnel et émotionnel de l'utilisateur dynamique, enrichi pendant l’interaction. Ce profil permet d’adapter les stratégies de réponses de la machine au locuteur, et il peut également servir pour mieux gérer des relations à long terme. Le profil est fondé sur une représentation multi-niveau du traitement des indices émotionnels et interactionnels extraits à partir de l'audio via les outils de détection des émotions du LIMSI. Ainsi, des indices bas niveau (variations de la F0, d'énergie, etc.), fournissent des informations sur le type d'émotion exprimée, la force de l'émotion, le degré de loquacité, etc. Ces éléments à moyen niveau sont exploités dans le système afin de déterminer, au fil des interactions, le profil émotionnel et interactionnel de l'utilisateur. Ce profil est composé de six dimensions : optimisme, extraversion, stabilité émotionnelle, confiance en soi, affinité et domination (basé sur le modèle de personnalité OCEAN et les théories de l’interpersonal circumplex). Le comportement social du système est adapté en fonction de ce profil, de l'état de la tâche en cours, et du comportement courant du robot. Les règles de création et de mise à jour du profil émotionnel et interactionnel, ainsi que de sélection automatique du comportement du robot, ont été implémentées en logique floue à l'aide du moteur de décision développé par un partenaire du projet ROMEO. L’implémentation du système a été réalisée sur le robot NAO. Afin d’étudier les différents éléments de la boucle d’interaction émotionnelle entre l’utilisateur et le système, nous avons participé à la conception de plusieurs systèmes : système en Magicien d’Oz pré-scripté, système semi-automatisé, et système d’interaction émotionnelle autonome. Ces systèmes ont permis de recueillir des données en contrôlant plusieurs paramètres d’élicitation des émotions au sein d’une interaction ; nous présentons les résultats de ces expérimentations, et des protocoles d’évaluation de l’Interaction Humain-Robot via l’utilisation de systèmes à différents degrés d’autonomie. / Analysing and formalising the emotional aspect of the Human-Machine Interaction is the key to a successful relation. Beyond and isolated paralinguistic detection (emotion, disfluences…), our aim consists in providing the system with a dynamic emotional and interactional profile of the user, which can evolve throughout the interaction. This profile allows for an adaptation of the machine’s response strategy, and can deal with long term relationships. A multi-level processing of the emotional and interactional cues extracted from speech (LIMSI emotion detection tools) leads to the constitution of the profile. Low level cues ( F0, energy, etc.), are then interpreted in terms of expressed emotion, strength, or talkativeness of the speaker. These mid-level cues are processed in the system so as to determine, over the interaction sessions, the emotional and interactional profile of the user. The profile is made up of six dimensions: optimism, extroversion, emotional stability, self-confidence, affinity and dominance (based on the OCEAN personality model and the interpersonal circumplex theories). The information derived from this profile could allow for a measurement of the engagement of the speaker. The social behaviour of the system is adapted according to the profile, and the current task state and robot behaviour. Fuzzy logic rules drive the constitution of the profile and the automatic selection of the robotic behaviour. These determinist rules are implemented on a decision engine designed by a partner in the project ROMEO. We implemented the system on the humanoid robot NAO. The overriding issue dealt with in this thesis is the viable interpretation of the paralinguistic cues extracted from speech into a relevant emotional representation of the user. We deem it noteworthy to point out that multimodal cues could reinforce the profile’s robustness. So as to analyse the different parts of the emotional interaction loop between the user and the system, we collaborated in the design of several systems with different autonomy degrees: a pre-scripted Wizard-of-Oz system, a semi-automated system, and a fully autonomous system. Using these systems allowed us to collect emotional data in robotic interaction contexts, by controlling several emotion elicitation parameters. This thesis presents the results of these data collections, and offers an evaluation protocol for Human-Robot Interaction through systems with various degrees of autonomy.
|
7 |
Analyse acoustique de la voix émotionnelle de locuteurs lors d'une interaction humain-robotTahon, Marie 15 November 2012 (has links) (PDF)
Mes travaux de thèse s'intéressent à la voix émotionnelle dans un contexte d'interaction humain-robot. Dans une interaction réaliste, nous définissons au moins quatre grands types de variabilités : l'environnement (salle, microphone); le locuteur, ses caractéristiques physiques (genre, âge, type de voix) et sa personnalité; ses états émotionnels; et enfin le type d'interaction (jeu, situation d'urgence ou de vie quotidienne). A partir de signaux audio collectés dans différentes conditions, nous avons cherché, grâce à des descripteurs acoustiques, à imbriquer la caractérisation d'un locuteur et de son état émotionnel en prenant en compte ces variabilités.Déterminer quels descripteurs sont essentiels et quels sont ceux à éviter est un défi complexe puisqu'il nécessite de travailler sur un grand nombre de variabilités et donc d'avoir à sa disposition des corpus riches et variés. Les principaux résultats portent à la fois sur la collecte et l'annotation de corpus émotionnels réalistes avec des locuteurs variés (enfants, adultes, personnes âgées), dans plusieurs environnements, et sur la robustesse de descripteurs acoustiques suivant ces quatre variabilités. Deux résultats intéressants découlent de cette analyse acoustique: la caractérisation sonore d'un corpus et l'établissement d'une liste "noire" de descripteurs très variables. Les émotions ne sont qu'une partie des indices paralinguistiques supportés par le signal audio, la personnalité et le stress dans la voix ont également été étudiés. Nous avons également mis en oeuvre un module de reconnaissance automatique des émotions et de caractérisation du locuteur qui a été testé au cours d'interactions humain-robot réalistes. Une réflexion éthique a été menée sur ces travaux.
|
8 |
Modélisation du profil émotionnel de l'utilisateur dans les interactions parlées Humain-MachineDelaborde, Agnès 19 December 2013 (has links) (PDF)
Les travaux de recherche de la thèse portent sur l'étude et la formalisation des interactions émotionnelles Humain-Machine. Au delà d'une détection d'informations paralinguistiques (émotions, disfluences,...) ponctuelles, il s'agit de fournir au système un profil interactionnel et émotionnel de l'utilisateur dynamique, enrichi pendant l'interaction. Ce profil permet d'adapter les stratégies de réponses de la machine au locuteur, et il peut également servir pour mieux gérer des relations à long terme. Le profil est fondé sur une représentation multi-niveau du traitement des indices émotionnels et interactionnels extraits à partir de l'audio via les outils de détection des émotions du LIMSI. Ainsi, des indices bas niveau (variations de la F0, d'énergie, etc.), fournissent des informations sur le type d'émotion exprimée, la force de l'émotion, le degré de loquacité, etc. Ces éléments à moyen niveau sont exploités dans le système afin de déterminer, au fil des interactions, le profil émotionnel et interactionnel de l'utilisateur. Ce profil est composé de six dimensions : optimisme, extraversion, stabilité émotionnelle, confiance en soi, affinité et domination (basé sur le modèle de personnalité OCEAN et les théories de l'interpersonal circumplex). Le comportement social du système est adapté en fonction de ce profil, de l'état de la tâche en cours, et du comportement courant du robot. Les règles de création et de mise à jour du profil émotionnel et interactionnel, ainsi que de sélection automatique du comportement du robot, ont été implémentées en logique floue à l'aide du moteur de décision développé par un partenaire du projet ROMEO. L'implémentation du système a été réalisée sur le robot NAO. Afin d'étudier les différents éléments de la boucle d'interaction émotionnelle entre l'utilisateur et le système, nous avons participé à la conception de plusieurs systèmes : système en Magicien d'Oz pré-scripté, système semi-automatisé, et système d'interaction émotionnelle autonome. Ces systèmes ont permis de recueillir des données en contrôlant plusieurs paramètres d'élicitation des émotions au sein d'une interaction ; nous présentons les résultats de ces expérimentations, et des protocoles d'évaluation de l'Interaction Humain-Robot via l'utilisation de systèmes à différents degrés d'autonomie.
|
9 |
Interfaces graphiques tridimentionnelles de téléopération de plateformes robotiques mobilesFerland, François January 2009 (has links)
Les besoins grandissant en santé rendent des technologies comme la téléprésence à domicile de plus en plus intéressantes. Cependant, dans le domaine des interfaces humains-machines, il est souvent noté que négliger la façon dont est présentée l'information provenant du robot peut nuire à l'opérateur dans sa compréhension de la situation, ce qui entraîne une efficacité réduite. C'est en considérant la façon dont est traitée l'information chez l'opérateur que nous arriverons à développer une interface permettant d'allouer le maximum des capacités cognitives de l'opérateur à la tâche. De plus, les développements récents de matériel à haute performance et à coûts réduits nous permettent de mettre en oeuvre des techniques modernes de traitement d'images en temps réel. Nous proposons donc de développer un système flexible pour étudier les différentes façons de présenter l'information pertinente à la navigation efficace d'une plateforme robotique mobile. Ce système est basé sur une reconstruction en trois dimensions de l'environnement parcouru à partir des lectures de capteurs retrouvés couramment sur ces plateformes. De plus, l'utilisation d'une caméra vidéo stéréoscopique permet de reproduire l'effet de perspective tel qu'une personne sur place le percevrait. La présence d'un flux vidéo est souvent appréciée par les opérateurs et nous croyons que d'ajouter la profondeur dans notre reproduction de celui-ci est un avantage. Finalement, la caméra virtuelle de l'interface peut être continuellement réorientée de façon à fournir une perspective soit égocentrique, soit exocentrique, selon les préférences de l'opérateur. Nous validons l'utilisation de ce système en évaluant selon différentes métriques les performances d'opérateurs, autant néophytes qu'experts en robotique mobile, de façon à bien cibler les besoins fonctionnels de ce genre d'interfaces et leurs évaluations avec des populations-cibles. Nous croyons que la flexibilité quant au positionnement de la caméra virtuelle de l'interface demeure l'aspect le plus important du système. En effet, nous nous attendons â ce que cela permette à chaque opérateur d'adapter l'interface à ses préférences et les tâches en cours pour qu'il effectue son travail le plus efficacement possible. Bien que nous n'incluons pas de tâches spécifiques au domaine de la télésanté dans nos expérimentations, nous croyons que les observations de ce travail quant à la téléopération en général pourront s'appliquer éventuellement à ce domaine en particulier.
|
10 |
Apprendre à un robot à reconnaître des objets visuels nouveaux et à les associer à des mots nouveaux : le rôle de l’interfaceRouanet, Pierre 04 April 2012 (has links)
Cette thèse s’intéresse au rôle de l’interface dans l’interaction humain-robot pour l’apprentissage. Elle étudie comment une interface bien conçue peut aider les utilisateurs non-experts à guider l’apprentissage social d’un robot, notamment en facilitant les situations d’attention partagée. Nous étudierons comment l’interface peut rendre l’interaction plus robuste, plus intuitive, mais aussi peut pousser les humains à fournir les bons exemples d’apprentissage qui amélioreront les performances de l’ensemble du système. Nous examinerons cette question dans le cadre de la robotique personnelle où l’apprentissage social peut jouer un rôle clé dans la découverte et l’adaptation d’un robot à son environnement immédiat. Nous avons choisi d’étudier le rôle de l’interface sur une instance particulière d’apprentissage social : l’apprentissage conjoint d’objets visuels et de mots nouveaux par un robot en interaction avec un humain non-expert. Ce défi représente en effet un levier important du développement de la robotique personnelle, l’acquisition du langage chez les robots et la communication entre un humain et un robot. Nous avons particulièrement étudié les défis d’interaction tels que le pointage et l’attention partagée.Nous présenterons au chapitre 1 une description de notre contexte applicatif : la robotique personnelle. Nous décrirons ensuite au chapitre 2 les problématiques liées au développement de robots sociaux et aux interactions avec l’homme. Enfin, au chapitre 3 nous présenterons la question de l’interface dans l’acquisition des premiers mots du langage chez les robots. La démarche centrée utilisateur suivie tout au long du travail de cette thèse sera décrite au chapitre 4. Dans les chapitres suivants, nous présenterons les différentes contributions de cette thèse. Au chapitre 5, nous montrerons comment des interfaces basées sur des objets médiateurs peuvent permettre de guider un robot dans un environnement du quotidien encombré. Au chapitre 6, nous présenterons un système complet basé sur des interfaces humain-robot, des algorithmes de perception visuelle et des mécanismes d’apprentissage, afin d’étudier l’impact des interfaces sur la qualité des exemples d’apprentissage d’objets visuels collectés. Une évaluation à grande échelle de ces interfaces, conçue sous forme de jeu robotique afin de reproduire des conditions réalistes d’utilisation hors-laboratoire, sera décrite au chapitre 7. Au chapitre 8, nous présenterons une extension de ce système permettant la collecte semi-automatique d’exemples d’apprentissage d’objets visuels. Nous étudierons ensuite la question de l’acquisition conjointe de mots vocaux nouveaux associés aux objets visuels dans le chapitre 9. Nous montrerons comment l’interface peut permettre d’améliorer les performances du système de reconnaissance vocale, et de faire directement catégoriser les exemples d’apprentissage à l’utilisateur à travers des interactions simples et transparentes. Enfin, les limites et extensions possibles de ces contributions seront présentées au chapitre 10. / This thesis is interested in the role of interfaces in human-robot interactions for learning. In particular it studies how a well conceived interface can aid users, and more specifically non-expert users, to guide social learning of a robotic student, notably by facilitating situations of joint attention. We study how the interface can make the interaction more robust, more intuitive, but can also push the humans to provide good learning examples which permits the improvement of performance of the system as a whole. We examine this question in the realm of personal robotics where social learning can play a key role in the discovery and adaptation of a robot in its immediate environment. We have chosen to study this question of the role of the interface in social learning within a particular instance of learning : the combined learning of visual objects and new words by a robot in interactions with a non-expert human. Indeed this challenge represents an important an lever in the development of personal robotics, the acquisition of language for robots, and natural communication between a human and a robot. We have studied more particularly the challenge of human-robot interaction with respect to pointing and joint attention.We present first of all in Chapter 1 a description of our context : personal robotics. We then describe in Chapter 2 the problems which are more specifically linked to social robotic development and interactions with people. Finally, in Chapter 3, we present the question of interfaces in acquisition of the first words of language for a robot. The user centered approach followed throughout the work of this thesis will be described in Chapter 4. In the following chapters, we present the different contributions of this thesis. In Chapter 5, we show how some interfaces based on mediator objects can permit the guiding of a personal robot in a cluttered home environment. In Chapter 6, we present a complete system based on human-robot interfaces, the algorithms of visual perception and machine learning in order to study the impact of interfaces, and more specifically the role of different feedback of what the robot perceives, on the quality of collected learning examples of visual objects. A large scale user-study of these interfaces, designed in the form of a robotic game that reproduces realistic conditions of use outside of a laboratory, will be described in details in Chapter 7. In Chapter 8, we present an extension of the system which allows the collection of semi-automatic learning examples of visual objects. We then study the question of combined acquisition of new vocal words associated with visual objects in Chapter 9. We show that the interface can permit both the improvement of the performance of the speech recognition and direct categorization of the different learning examples through simple and transparent user’s interactions. Finally, a discussion of the limits and possible extensions of these contributions will be presented in Chapter 10.
|
Page generated in 0.1174 seconds