Les psychologues (comme A. Damasio, K. R. Scherer, P. Ekman) ont montré que l’émotion est un élément essentiel dans la prise de décision, dans l’évolution des capacités d’apprentissage et de création, dans l’interaction sociale. Il est donc naturel de s'intéresser à l'expression d'émotions dans le cadre de l'interaction homme-machine. Nous avons proposé dans un premier temps le modèle GRACE, modèle générique des émotions pour les applications computationnelles. Nous nous sommes basés en particulier sur la théorie psychologique de K. R. Scherer, qui cherche à produire une théorie des processus émotionnels qui soit modélisable et calculable. La pertinence de notre modèle a été vérifiée et validée via une comparaison avec différents modèles computationnels existants. Si le modèle GRACE est générique, nous nous sommes attachés à montrer qu’il pouvait s’instancier dans un contexte particulier, en l’occurrence l’interaction homme-robot utilisant la modalité musicale. Nous nous sommes intéressés pour cela d’une part à la conception d’un module d’analyse du contenu émotionnel d’une séquence musicale, d’autre part à la conception de mouvements émotionnellement expressifs pour un robot mobile. Du point de vue de l’analyse musicale, la contribution principale de la thèse porte sur la proposition d’un ensemble réduit d’indicateurs musicaux et sur la validation du module d’analyse sur une base de données de grande taille conçue par un expert en musicologie. Du point de vue de la robotique, nous avons pu montrer expérimentalement qu’un robot avec des capacités expressives très limitées (déplacements, mouvements de caméra) pouvait néanmoins exprimer de manière satisfaisante un ensemble réduit d’émotions simples (joie, colère, tristesse, sérénité). / Emotion, as psychologists argue (like A. Damasio, K. R. Scherer, P. Ekman), is an essential factor for human beings in making decision, learning, inventing things, and interacting with others. Based on this statement, researchers in Human-Machine Interaction have been interested in adding emotional abilities to their applications. With the same goal of studying emotional abilities, we propose, in our work, a model of emotions named GRACE, which helps in modelling emotions in computational applications. We based our model on the work of psychologist Klaus R. Scherer, who intensively searches to form a generic model of emotion applicable to computational domain (like informatics, robotics, etc.). We demonstrate the pertinence of our model by comparing it to other existing models of emotions in the field of informatics and robotics. In this thesis, we also worked on the instantiation of GRACE, in particular the components Cognitive Interpretation and Expression. These two components have been developed to be applied in the context of interacting with users using music. To develop Cognitive Interpretation, we worked on the extraction of emotional content in musical excerpts. Our contribution consists in proposing a reduced number of musical features to efficiently extract the emotional content in music, and in validating them via a learning system with a large database designed by a musicologist. For Expression, we have worked on the design of emotional moves of a mobile robot. Through very limited moves (moves in space, camera moves), we have shown that with dance-inspired motions, the robot could efficiently convey basic emotions (i.e. happiness, sadness, anger, serenity) to people.
Identifer | oai:union.ndltd.org:theses.fr/2011EVRY0023 |
Date | 13 January 2012 |
Creators | Dang, Thi-Hai-Ha |
Contributors | Evry-Val d'Essonne, Hoppenot, Philippe |
Source Sets | Dépôt national des thèses électroniques françaises |
Language | French |
Detected Language | French |
Type | Electronic Thesis or Dissertation, Text, Image, StillImage |
Page generated in 0.0019 seconds