Lorsqu’ils travaillent en équipe, les humains ont rarement des comportements optimaux : ils peuvent faire des erreurs, manquer de motivation ou de compétence. Dans les domaines des environnements virtuels ou des systèmes multi-agents, de nombreux travaux ont cherché à reproduire les comportements d’équipes humaines : un agent représente alors un membre de l’équipe. Cependant, ces travaux ont très souvent pour objectif la performance de l’équipe, et non la fidélité des comportements produits. Pour former un apprenant en environnement virtuel à prêter attention et à s’adapter aux autres, nous avons cherché dans cette thèse à reproduire des comportements humains réalistes et non-optimaux de travail d’équipe. Plus particulièrement, nous nous sommes intéressés aux équipes auto-organisées, c’est-à-dire aux équipes dans lesquelles le pouvoir de décision est réparti entre les membres, et dans lesquelles l’organisation est implicite. Dans de telles équipes, l’organisation se fait non pas au travers des communications mais par l’observation et l’anticipation des comportements des autres. Pour s’organiser, chaque agent doit se demander ce qu’il est préférable de faire en fonction de ce que pourraient faire les autres, et donc se poser des questions telles que Ai-je confiance en la compétence de mon coéquipier pour faire cette tâche ? Les relations de confiance permettent donc à chacun de prendre en compte les autres. Pour générer de tels comportements, nous proposons un système permettant aux agents de raisonner d’une part sur un modèle de l’activité à effectuer et d’autre part sur les relations de confiance qui les lient aux autres agents de l’environnement. Dans ce cadre, notre première contribution porte sur l’augmentation du langage de description de l’activité Activity-DL de manière à permettre la description d’activités collectives. Nous proposons également des mécanismes de propagation de contraintes et d’informations qui faciliteront le raisonnement des agents. Ces contraintes et informations permettront par exemple aux agents de répondre à la question Avons-nous les compétences nécessaires pour faire la tâche qui permettra de réaliser notre but collectif ? Notre seconde contribution porte sur la proposition d’un modèle d’agent opérationnalisant le modèle de confiance de Mayer et al. (1995), sélectionné après une étude de la littérature en sciences humaines et sociales sur la confiance. La confiance d’un agent en un autre est décrite selon trois dimensions : l’intégrité, la bienveillance et les compétences. Chaque agent est donc défini par ces trois dimensions et a des croyances sur l’intégrité, la bienveillance et la compétence des autres agents. De plus chaque agent possède des buts qui lui sont personnels ainsi que des buts collectifs et devra donc choisir quel but privilégier. Finalement nous proposons un moteur décisionnel qui permet à chaque agent de calculer l’importance qu’il accorde à ses buts afin de sélectionner une tâche. Nous avons défini les mécanismes de calcul de l’importance des buts de manière à modéliser l’influence sur l’agent de ses croyances sur les autres, et pour sélectionner une tâche, l’agent raisonne à la fois sur les modèles d’activité et sur ses attentes à propos du comportement des autres, également générées à partir des croyances de l’agent sur les autres. Nous avons implémenté notre système et constaté qu’il répond à nos objectifs de génération de comportements d’équipe réalistes et non optimaux. Nous avons également conduit une évaluation perceptive préliminaire au cours de laquelle les participants ont notamment été capables de percevoir la confiance ou le manque de confiance d’un agent en un autre grâce à son comportement. / When working in teams, humans rarely display optimal behaviors: they sometimes make mistakes, lack motivation or competence. In virtual environments or in multi-agent systems, many studies have tried to reproduce human teamwork: each agent acts as a team member. However, the main objective in those studies is the performance of the team: each agent should display optimal behavior, and the realism of those simulated behaviors is not a concern. To train someone in a virtual environment to pay attention to and to adapt to their teammates, we built a decision-making system for agents to display realistic and non-optimal behaviors. More specifically, we are interested in self-organized teams (i.e. teams where the decision power is decentralized among its members) and in implicit organization (i.e. when team members do not interact through communications but rather through the observation of others’ behaviors). In such a team, each agent has to think about what it should do given what others could do. Agents then have to ask themselves questions such as Do I trust my teammate’s competence to perform this task? Trust relationships therefore allow agents to take others into account. We propose a system that allows agents to reason, on the first hand, on models of the activity they have to do, and on the other hand, on trust relationships they share with others. In that context, we first augmented the Activity-Description Language so that it supports the description of collective activities. We also defined mechanisms for constraint generation that facilitates agent reasoning, by giving them the answer to questions like Do we have the required abilities to perform the task which will achieve our goal? We then proposed an agent model based on the model of interpersonal trust of Mayer et al. (1995) that we selected after a study of trust in social science. This model describes trust relationship with three dimensions: the trustor trusts the trustee’s integrity, benevolence and abilities. An agent is therefore defined through those three dimensions, and has a mental model of each other agent; i.e. has trust beliefs about others’ integrity, benevolence and abilities. Moreover each agent has both personal and collective goals (i.e. goals that are shared with other members of the team), and thus will have to decide which goal to focus on. Finally we proposed a decision-making system that allows an agent to compute the importance it gives to its goals and then to select a task. When computing goal importance, the agent is influenced by its trust beliefs about others, and to select a task, it reasons on the activity models and on its expectations about what others could do. Those expectations are generated from the agents’ trust beliefs. We implemented our system and observed that it produces realistic and non-optimal behaviors. We also conducted a preliminary perceptive evaluation which showed that participants were able to recognize one agent’s trust or lack of trust in another through the behaviors of the first one.
Identifer | oai:union.ndltd.org:theses.fr/2016COMP2299 |
Date | 18 October 2016 |
Creators | Callebert, Lucile |
Contributors | Compiègne, Barthès, Jean-Paul, Lourdeaux, Domitile |
Source Sets | Dépôt national des thèses électroniques françaises |
Language | French |
Detected Language | French |
Type | Electronic Thesis or Dissertation, Text |
Page generated in 0.0019 seconds