Return to search

Interaction affective et expressive. Compagnon artificiel-humain / Affective and expressive human - artificial compagnon interaction

Le but de ce travail de thèse est de rendre sincère un Agent Conversationnel Animé (ACA) pour, d'une part, améliorer sa crédibilité du point de vue de l'humain, et d'autre part contribuer à le rendre acceptable dans une relation privilégiée compagnon artificiel - humain. La première partie de ce travail consiste en la création d'un Langage de Conversation Multimodal (LCM) pour ACA, constitué d'Actes de Conversation Multimodaux (ACM) tels que promettre, s'excuser ou exiger : ces ACM permettent à l'agent d'être crédible dans sa sincérité, en exprimant multimodalement ses états mentaux de façon appropriée. Les états mentaux portés par les ACM sont formalisés en logique : la volonté de représenter des états mentaux issus de raisonnements complexes (basés d'une part sur le raisonnement contrefactuel et d'autre part sur les normes et les buts de l'agent), dont l'expression se fait avant tout par le langage (Oatley 1987), a amené à mettre en place le modèle BIGRE (Beliefs, Ideals, Goals, Responsibility, Emotions). Ce modèle, basé sur une logique de type BDI (Belief, Desire, Intention), permet de représenter également des émotions que nous appelons complexes, telles que la réjouissance, la gratitude ou le regret. La catégorie expressive des ACM contient les actes exprimant ces émotions complexes (e.g. remercier, regretter) : l'expression se fait par le langage, conjointement aux autres expressions multimodales appropriées. Le LCM est implémenté dans l'ACA Greta, ce qui permet une évaluation de ce langage en termes de crédibilité et de sincérité perçues par l'humain. La deuxième partie de ce travail porte sur les capacités de raisonnement de l'ACA : dans le but de permettre à l'agent de raisonner dans le dialogue, c'est-à-dire mettre à jour ses états mentaux et ses émotions et sélectionner son intention communicative, un moteur de raisonnement a été mis en place. Ce moteur de raisonnement est basé sur le cycle de comportement BDI - Perception, Décision, Action - et les opérateurs du modèle BIGRE, permettant ainsi la manipulation d'états mentaux issus de raisonnements complexes (dont les émotions complexes). Les ACM qui composent notre langage sont intégrés dans le moteur, et sont utilisés pour atteindre l'intention communicative de l'ACA : par exemple, si l'agent a l'intention d'exprimer sa gratitude, il construit un plan pour satisfaire son intention, formé des ACM remercier ou féliciter, selon le degré de l'émotion. Un type d'intention communicative, déclenché par des règles d'obligation du discours, participe à la régulation locale du dialogue. L'ACA étant de plus affectif, sa sincérité l'amène à exprimer toutes ses émotions. La généricité de ce moteur de raisonnement permet de l'implémenter dans l'ACA Greta (où il est en lien avec le LCM) et dans l'agent MARC. L'expression multimodale des ACM avec l'agent MARC a été rendue possible par l'intégration des checks de Scherer dans le moteur de raisonnement que nous avons adapté au contexte du dialogue. Une évaluation du moteur de raisonnement avec l'agent MARC montre que les états mentaux déduits par le moteur sont appropriés à la situation, et que leur expression (l'expression de la sincérité de l'agent) est également appropriée. / The aim of this thesis is to make an Embodied Conversational Agent (ECA) sincere in order to, on one hand, improve its believability from the human's point of view, and on the other hand make it acceptable in an affective relationship between an artificial companion and a human. The first part of this work consists in creating a Multimodal Conversation Language (MCL) for an ECA, made up of Multimodal Conversation Acts (MCA) such as promise, apologise or demand. These MCA allow the agent to appear believable in its sincerity, by multimodally expressing its mental states in an appropriate way. The mental states carried by the MCA are formalised in logics: our will to represent mental states stemming from complex forms of reasoning (based on counterfactual reasoning or on the agent's norms and goals) that are mainly expressed via language (Oatley 1987) led us to design the BIGRE model (Beliefs, Ideals, Goals, Responsibility, Emotions). This model, based on a BDI-like logic (Belief, Desire, Intention), allows us to also represent some particular emotions that we call complex emotions, such as rejoicing, gratitude or regret. The expressive category of MCA contains acts that express these complex emotions (e.g. thank, regret): they are expressed by the language, along with the other appropriate multimodal expressions. We implemented the MCL in the ECA Greta, which enabled an evaluation of this language in terms of believability and sincerity perceived by the human. The second part of this work is about the ECA's reasoning capabilities: in order to allow the agent to reason in the dialogue, that is to update its mental states and its emotions and select its communicative intention, we designed a reasoning engine. This reasoning engine is based on the BDI behaviour cycle of Perception - Decision - Action and on the operators from the BIGRE model, thus enabling the manipulation of mental states resulting from complex reasoning (including complex emotions). The MCA in our language are part of our reasoning engine, and are used to achieve the ECA's communicative intention: for example if the ECA intends to express its gratitude, it builds a plan to achieve this intention, that consists of the MCA thank or congratulate, depending on the intensity of the emotion. One type of communicative intention, triggered by discourse obligations rules, participates in the local regulation of dialogue. Further, since the ECA is emotional, its sincerity brings it to express all its emotions. The generic character of this reasoning engine allowed us to implement it in the ECA Greta (where it is linked with the MCL) as well as in the agent MARC. The multimodal expression of MCA by the agent MARC was made possible by integrating Scherer's checks in the reasoning engine that we adapted to the context of dialogue. An evaluation of the reasoning engine with the agent MARC shows that the mental states deduced by the engine are appropriate to the situation, and that their expression (the expression of the agent's sincerity) is also appropriate.

Identiferoai:union.ndltd.org:theses.fr/2012GRENM045
Date10 October 2012
CreatorsRiviere, Jérémy
ContributorsGrenoble, Pesty, Sylvie
Source SetsDépôt national des thèses électroniques françaises
LanguageFrench
Detected LanguageFrench
TypeElectronic Thesis or Dissertation, Text

Page generated in 0.0034 seconds