• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 4
  • 3
  • Tagged with
  • 7
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

KIMONO: une méthode de modélisation descriptive centrée agent pour l'explication des systèmes complexes, une application en épidémiologie

Amouroux, Edouard 30 September 2011 (has links) (PDF)
Depuis plusieurs années, on peut observer une tendance, dans de nombreux domaines (Sociologie, Ecologie, Economie, etc.), à construire des modèles vers l'exploration des systèmes qu'ils représentent que vers la prédiction ou l'explication. S'inscrivant dans le paradigme des "systèmes complexes", ces modèles exploratoires utilisent généralement une représentation explicite et détaillée des composants du système étudié. Ils offrent aussi aux utilisateurs finaux (chercheurs, décideurs, parties prenantes) une grande liberté d'adaptation en termes de paramètres et de structure du modèle. Ces modèles servent de support à des expériences "as-if" en permettant, au travers de ces ajustements, la formulation d'hypothèses détaillées et ce à différents niveaux de descriptions du système. A partir de ces hypothèses, des scénarios sont construits, dont les résultats sont explorés et analysés grâce à des simulations répétées. L'épidémiologie est exemplaire de cette situation. Elle a une longue histoire de modélisation qui peut être caractérisée comme la recherche de modèles essentiellement prédictifs. Cependant, certaines situations, comme l'émergence de foyers épidémiques de grippe aviaire en Asie du Sud Est, montre la limite d'une telle approche: sans une prise en compte adéquate des interactions entre les dynamiques sociales, écologiques et biologiques, l'utilisation de modèles prédictifs est sans fondement. De plus, dès lors que l'on tente de prendre en compte ces dynamiques, les modèles deviennent dépendants de données incomplètes ou qualitatives (le processus de décision des acteurs sociaux ou bien le comportement des oiseaux, par exemple). En conséquence, on assiste actuellement à un changement d'orientation de la communauté épidémiologique vers la conception de modèles plus exploratoires, mieux adaptés à la génération et à l'étude d'hypothèses variées, et mieux à même d'aider à mesurer, par rapport à ces hypothèses, l'impact des politiques locales et globales de lutte contre les épidémies dans le cadre de scénarios complexes. Cependant, concevoir et utiliser de tels modèles souligne les sérieux problèmes méthodologiques auxquels ne peuvent réellement répondre les méthodologies de modélisation et simulation existantes. Et quand celles-ci ont été adaptées pour prendre ces spécificités en compte, il en résulte des solutions ad hoc qui ne peuvent être réutilisées ni dans le domaine en général, ni dans d'autres domaines. L'objectif de cette thèse est de proposer une méthodologie (KIMONO) qui, sans être spécifique à un domaine particulier, facilite la conception et l'utilisation de ces modèles exploratoires. En partant d'une série d'exemples tirés de différents domaines (trafic routier, ségrégation sociale, dynamique du sol, mais aussi, et de façon plus extensive, épidémiologie), je commence par une caractérisation des besoins de conception (prise en compte d'hypothèses contradictoires et évolutives lors du processus de modélisation, génération de modèles extrêmement modulaires, rendant possible un cycle de modélisation itératif, permettant la collaboration entre différents experts et la combinaison de différents formalismes, etc.) pour aboutir à une proposition concrète impliquant un outil informatique dédié et un formalisme commun et accessible, orienté aussi bien vers la facilitation de la collaboration, la communication et l'implémentation de "modèles monde" (le nom donné dans ce document à ces modèles exploratoires ouverts). La méthodologie que je propose se concentre sur deux éléments: l'implication des experts et la représentation détaillée du système. Les experts sont au coeur de processus de modélisation. Celui-ci s'appuie sur une description étendue de leurs connaissances, potentiellement exprimées dans leurs propres formalismes, description qui est ensuite amendée de façon itérative (soit pour la complexifier, soit pour la simplifier) dans un dialogue continu avec les modélisateurs et en utilisant le modèle pour support. Ce processus itératif s'arrête quand les experts estiment qu'ils ont obtenu suffisamment de précisions sur le système ou lorsque la poursuite de ces itérations nécessite des expériences ou données de terrain. Concernant les types de représentations qui soient adaptées à un tel processus, je propose une combinaison modulaire et adaptable de deux systèmes d'implémentation: les modèles à base d'agent (MBA) et les Systèmes d'Information Géo-référencées (SIG). Je montre que cette combinaison offre une très grande souplesse de description des composants d'un système (réel), qu'elle permet de représenter de façon équivalente les 5 DRAFT 26/09/11 connaissances qualitatives et quantitatives des experts, et qu'elle supporte un haut niveau d'évolution des hypothèses au cours du processus de modélisation. Les protocoles d'interaction proposés entre modélisateurs et experts se basent sur deux abstractions de cette implémentation: ODD (Overview, Design concepts, Details, un protocole de communication de modèle) et GAML (un langage de modélisation pour la programmation collaborative du modèle). La méthodologie proposée a été appliquée et validée dans le contexte d'une étude détaillée située en Asie du Sud Est (essentiellement au Nord Vietnam) par des épidémiologistes et des vétérinaires. Ceux-ci voulaient pouvoir évaluer, en l'absence de données de terrain ou de résultats d'expérimentation, l'effet de différentes hypothèses expliquant la réapparition récurrente de foyers épidémiques de grippe aviaire parmi la population domestique de volailles. Au cours de cette coopération interdisciplinaire, qui a duré quatre ans, plusieurs "modèles monde" ont été co-conçus et implémentés au sein de la plate-forme GAMA, et utilisés comme "laboratoires virtuels" par les experts. Cette collaboration, et ces résultats, ont permis de tester un large champ d'hypothèses (en particulier sur les conditions locales de persistance), d'avoir une meilleure compréhension du rôle de l'environnement spatial, des facteurs écologiques et sociaux dans la survie et la propagation du virus et ont également permis de réorienter certaines des études de terrains.
2

Formalisation logique de préférences qualitatives pour la sélection de la réaction d'un agent rationnel dialoguant

Meyer, Gautier 07 July 2006 (has links) (PDF)
La formalisation du principe de rationalité dans la plupart des modèles d'agent permet rarement de spécifier complètement les réactions du système. C'est pourquoi nous considérons dans cette thèse l'introduction d'une phase de décision explicite au sein de ces modèles. Plus précisément, nous proposons une nouvelle façon entièrement qualitative de représenter les informations sur la désirabilité des alternatives nécessaires à cette phase : les préférences. Cette dernière est formalisée en logique des prédicats du premier ordre.<br /><br />Afin d'autoriser une spécification intuitive des préférences, nous supposons que les informations "initiales" sont des comparaisons entres des propriétés que peuvent vérifier les différentes alternatives. Ces comparaisons vérifient les principes d'expansion, de transitivité, et de Ceteris Paribus. De plus, elles sont spécifiées par points de vue éventuellement contradictoires et telles que deux propriétés quelconques sont jugées indifférentes par défaut.<br />Afin de départager un grand nombre d'alternatives et en particulier pour dépasser une limite de l'hypothèse Ceteris Paribus, nous proposons d'étendre ces informations via une phase dite "d'extension" en considérant chaque préférence (dite "primitive") comme un argument pour départager les alternatives.<br />Afin de gérer les contradictions entre points de vue, nous formalisons l'introduction d'une étape dite "d'agrégation". Cette dernière permet, via un mécanisme d'élection, de générer une unique préférence "globale".<br /><br />Enfin, nous proposons une voie pour intégrer notre travail au modèle logique d'agent rationnel proposée par Sadek ainsi qu'une manière pour utiliser nos préférences conjointement avec d'autres types d'informations sur la désirabilité.
3

Modélisation cognitive d'interactions humaines<br />dans un cadre de planification multi-agents

Pauchet, Alexandre 22 September 2006 (has links) (PDF)
Cette thèse vise à améliorer la conception des systèmes multi-agents, par l'étude et la modélisation des capacités humaines de planification et d'interaction. Elle s'appuie sur une expérimentation psychologique durant laquelle des sujets humains avaient à résoudre un problème de planification en connaissances incomplètes.<br /><br />Les protocoles collectés au cours de cette expérimentation ont été analysés du point de vue de la planification et du point de vue des interactions. Ainsi, un modèle de la planification humaine et un modèle de l'interaction humaine ont pu être conçus.<br /><br />Ces deux modèles sont intégrés de façon homogène à une nouvelle architecture d'agent appelée BDIGGY. Parmi les modèles d'agents existants, le modèle BDI (Belief, Desire, Intention) offre un cadre intéressant pour la conception d'agents délibératifs capables de planifier et<br />d'interagir selon leurs états mentaux. Ainsi, l'architecture BDIGGY est née d'une fusion entre le système IGGY (un système pré-existant de planification humaine) et une architecture BDI étendue à la résolution coopérative de problèmes.<br /><br />Le modèle de l'interaction humaine introduit dans BDIGGY est sur deux niveaux :<br />1. il s'appuie sur la théorie des actes de langage pour modéliser les énoncés, à l'aide d'un ensemble de performatives (comme c'est le cas dans les ACL classiques) appliquées à des états mentaux ;<br />2. il utilise un modèle du discours, représenté par des automates temporisés, pour décrire la dynamique des conversations humaines, en remplacement des protocoles de communication jugés trop rigides.<br /><br />Les niveaux de l'énoncé et du discours sont liés par une sémantique des performatives. Cette sémantique décrit les pré-conditions et les post-conditions portant sur les états mentaux des agents, à la réception et à l'envoi de messages.<br /><br />Dans BDIGGY, l'interaction, la planification et les connaissances s'entrelacent grâce auxconcepts BDI.<br />L'architecture BDIGGY est validée en comparant au cours d'un test "à la Turing", les protocoles expérimentaux provenant de l'expérimentation psychologique et les protocoles générés par des agents BDIGGY, durant une simulation de la résolution du problème.
4

Évaluation de la qualité des comportements des agents en simulation : application à un simulateur de conduite en environnement virtuel / Evaluation of the agents' behavior quality in simulation : application to a driving simulator in virtual environment

Darty, Kevin 07 July 2015 (has links)
Cette thèse se situe dans le contexte de la Simulation Multi-Agent et s'intéresse à l'évaluation de la capacité des agents à reproduire des comportements humains. Cette problématique se retrouve dans de nombreux domaines comme la Réalité Virtuelle et les Agents Conversationnels Animés. L'approche dominante s'appuie sur l'utilisation de questionnaires de Sciences Humaines et Sociales (SHS). Il existe peu d'approches exploitant l'analyse automatique de données utilisée en Intelligence Artificielle (IA) à l'échelle microscopique. Nous montrons dans cette thèse que l'évaluation gagne à exploiter conjointement ces deux approches. Nous exposons une méthode d'évaluation de la qualité des comportements des agents qui combine l'approche d'IA et celle de SHS. La première est basée sur la classification de traces de simulation. La seconde évalue les utilisateurs par une annotation des comportements. Nous présentons ensuite un algorithme de comparaison des agents par rapport aux humains afin d'évaluer les capacités, les manques et les erreurs du modèle d'agent et fournissons des métriques. Puis nous explicitons ces comportements en nous appuyant sur les catégories d'utilisateur. Enfin, nous exposons un cycle de calibration automatique des agents et une exploration de l'espace des paramètres. Notre méthode d'évaluation est utilisable dans le but d'analyser un modèle d'agent et de comparer plusieurs modèles d'agent. Nous avons appliqué cette méthodologie sur plusieurs études du comportement de conduite en vue d'analyser la simulation de trafic routier ARCHISIM et nous présentons les résultats obtenus. / This thesis is in the context of the Multi-Agents Simulation and is interested in evaluating the ability of agents to reproduce human behaviors. This problem appears in many domains such as Virtual Reality and Embodied Conversational Agents. The dominant approach to evaluate these behaviors uses Social Sciences questionnaires. There are only few approaches based on Artificial Intelligence and automatic data analysis at the microscopic scale. We show in this thesis that the evaluation of behavior can benefit from both approaches when used jointly. First, we present a method for evaluating the agents' behavior quality. It combines the Artificial Intelligence approach and the Social Science approach. The first one is based on simulation logs clustering. The second one evaluates the users by an annotation of the behaviors. We then present an algorithm that compare agents to humans in order to assess the capacities, the lacks, and the errors in the agent model, and provide metrics. We then make these behaviors explicite based on user categories. Finally, we present a cycle for automatic calibration of the agents and an exploration of the parameter space. Our evaluation method is usable for the analysis of an agent model, and for comparing several agent models. We applied this methodology on several driver behavior studies to analyse the road traffic simulation ARCHISIM, and we present the obtained results.
5

Integrating cognitive models of human decision-making in agent-based models : an application to land use planning under climate change in the Mekong river delta / Intégration de modèles cognitifs de la prise de décision humaine dans les modèles à base d'agent : application à la planification de l'utilisation du sol dans le Delta du Mékong en tenant compte du changement climatique

Truong, Chi Quang 05 December 2016 (has links)
L'objectif initial de cette thèse est d'apporter une solution à ce problème en proposant, premièrement, une approche cognitive basée sur le paradigme appelé Belief-Desire-Intention (BDI) pour représenter les processus de prise de décision des acteurs humains, et deuxièmement, une validation de cette approche dans le contexte d'un modèle complet de changement d'usage des sols dans lequel la plupart des facteurs cités ci-dessus sont également simulés. Le résultat de ce travail est une approche générique qui a été validée sur un modèle intégrant le changement d'usage des sols d'une région située dans le Delta du Mékong au Vietnam. Nos contributions principales sont les suivantes : Intégration d’une architecture BDI au sein d'une plateforme de modélisation à base d'agents (GAMA) ;Conception d’un cadre générique baptisé « Multi-Agent Based Land-Use Change » (MAB-LUC) permettant de modéliser et de simuler les changements d’usage des sols en prenant en compte les décisions des agriculteurs ;Proposition d’une solution permettant d’intégrer et d’évaluer les facteurs socio-économiques et environnementaux dans le cadre de la planification agraire et d’intégrer MAB-LUC dans le processus existant proposé par la FAO.Ce travail, au-delà du cas d’étude concernant le Delta du Mékong, a enfin été conçu de façon générique afin que la méthodologie utilisée puisse être généralisée à la modélisation de systèmes socio-écologiques où les facteurs humains doivent être représentés avec précision. / The initial goal of this thesis has been then to address this problem by proposing, on one hand, a cognitive approach based on the Belief-Desire-Intention (BDI) paradigm to represent the decision-making processes of human actors in agent-based models and, on the second hand, a validation of this approach in a complete land-use change model in which most of the factors cited above have also been simulated.The outcome of this work is a generic approach, which has been validated in a complex integrated land-use change model of a small region of the Vietnamese Mekong Delta. Our main contributions have been:The integration of the BDI architecture within an agent-based modeling platform (GAMA); The design of the Multi-Agent Based Land-Use Change (MAB-LUC) framework that can take into account the farmers’ decision-making in the land-use change processes;The proposal of a solution to assess the socio-economic and environmental factors in land-use planning and to integrate the MAB-LUC framework into the land-use planning process of. I conclude by showing that this work, designed in a generic fashion, can be reused and generalized for the modeling of complex socio-ecological systems where individual human factors need to be represented accurately.
6

Agent abstraction in multi-agent reinforcement learning

Memarian, Amin 06 1900 (has links)
Cette thèse est organisée en deux chapitres. Le premier chapitre sert d’introduction aux concepts et idées utilisés dans le deuxième chapitre (l’article). Le premier chapitre est divisé en trois sections. Dans la première section, nous introduisons l’apprentissage par renforcement en tant que paradigme d’apprentissage automatique et montrons comment ses problèmes sont formalisés à l’aide de processus décisionnels de Markov. Nous formalisons les buts sous forme de rendements attendus et montrons comment les équations de Bellman utilisent la formulation récursive du rendement pour établir une relation entre les valeurs de deux états successifs sous la politique de l’agent. Après cela, nous soutenons que la résolution des équations d’optimalité de Bellman est insoluble et introduisons des algorithmes basés sur des valeurs tels que la programmation dynamique, les méthodes de Monte Carlo et les méthodes de différence temporelle qui se rapprochent de la solution optimale à l’aide de l’itération de politique généralisée. L’approximation de fonctions est ensuite proposée comme moyen de traiter les grands espaces d’états. Nous discutons également de la manière dont les méthodes basées sur les politiques optimisent directement la politique sans optimiser la fonction de valeur. Dans la deuxième section, nous introduisons les jeux de Markov comme une extension des processus décisionnels de Markov pour plusieurs agents. Nous couvrons les différents cadres formés par les différentes structures de récompense et donnons les dilemmes sociaux séquentiels comme exemple du cadre d’incitation mixte. En fin de compte, nous introduisons différentes structures d’information telles que l’apprentissage centralisé qui peuvent aider à faire face à la non-stationnarité in- duite par l’adversaire. Enfin, dans la troisième section, nous donnons un bref aperçu des types d’abstraction d’état et introduisons les métriques de bisimulation comme un concept inspiré de l’abstraction de non-pertinence du modèle qui mesure la similarité entre les états. Dans le deuxième chapitre (l’article), nous approfondissons finalement l’abstraction d’agent en tant que métrique de bisimulation et dérivons un facteur de compression que nous pouvons appliquer à la diplomatie pour révéler l’agence supérieure sur les unités de joueur. / This thesis is organized into two chapters. The first chapter serves as an introduction to the concepts and ideas used in the second chapter (the article). The first chapter is divided into three sections. In the first section, we introduce Reinforcement Learning as a Machine Learning paradigm and show how its problems are formalized using Markov Decision Processes. We formalize goals as expected returns and show how the Bellman equations use the recursive formulation of return to establish a relation between the values of two successive states under the agent’s policy. After that, we argue that solving the Bellman optimality equations is intractable and introduce value-based algorithms such as Dynamic Programming, Monte Carlo methods, and Temporal Difference methods that approximate the optimal solution using Generalized Policy Iteration. Function approximation is then proposed as a way of dealing with large state spaces. We also discuss how policy-based methods optimize the policy directly without optimizing the value function. In the second section, we introduce Markov Games as an extension of Markov Decision Processes for multiple agents. We cover the different settings formed by the different reward structures and give Sequential Social Dilemmas as an example of the mixed-incentive setting. In the end, we introduce different information structures such as centralized learning that can help deal with the opponent-induced non-stationarity. Finally, in the third section, we give a brief overview of state abstraction types and introduce bisimulation metrics as a concept inspired by model-irrelevance abstraction that measures the similarity between states. In the second chapter (the article), we ultimately delve into agent abstraction as a bisimulation metric and derive a compression factor that we can apply to Diplomacy to reveal the higher agency over the player units.
7

Les systèmes complexes et la digitalisation des sciences. Histoire et sociologie des instituts de la complexité aux États-Unis et en France / Complex systems and the digitalization of sciences. History and sociology of complexity institutes in the United States and in France

Li Vigni, Guido Fabrizio 26 November 2018 (has links)
Comment penser la relation entre les cultures scientifiques contemporaines et l’usage grandissant de l’ordinateur dans la production des savoirs ? Cette thèse se propose de donner une réponse à telle question à partir de l’analyse historique et sociologique d’un domaine scientifique fondé par le Santa Fe Institute (SFI) dans les années 1980 aux États-Unis : les « sciences des systèmes complexes » (SSC). Rendues célèbres par des publications grand-public, les SSC se répandent au cours des années 1990 et 2000 en Europe et dans d’autres pays du monde. Ce travail propose une histoire de la fondation de ce domaine en se concentrant sur le SFI et sur le Réseau National des Systèmes Complexes français. Avec un regard sociologique ancré dans les Science & Technology Studies et dans le courant pragmatiste, elle pose ensuite des questions sur le statut socio-épistémique de ce domaine, sur les modalités de l’administration de la preuve dans des savoirs fondés sur la simulation numérique et enfin sur les engagements épistémiques tenus par les spécialistes des systèmes complexes. Le matériau empirique – composé d’environ 200 entretiens, plusieurs milliers de pages d’archives et quelques visites de laboratoire – nous amène non seulement à mieux connaître ce champ de recherche – dont le langage est très répandu aujourd’hui, mais peu étudié par les historiens et les sociologues ; il nous porte aussi à questionner trois opinions courantes dans la littérature humaniste à propos des sciences numériques. À savoir : 1) l’ordinateur produit des connaissances de plus en plus interdisciplinaires, 2) il donne vie à des savoirs de type nouveau qui nécessitent une toute autre épistémologie pour être pensés et 3) il fait inévitablement advenir des visions du monde néolibérales. Or, cette thèse déconstruit ces trois formes de déterminisme technologique concernant les effets de l’ordinateur sur les pratiques scientifiques, en montrant d’abord que, dans les sciences computationnelles, les rapports interdisciplinaires ne se font pas sans effort ni pacifiquement ou sur pied d’égalité ; ensuite que les chercheurs et les chercheuses des SSC mobilisent des formes d’administration de la preuve déjà mises au point dans d’autres disciplines ; et enfin que les engagements épistémiques des scientifiques peuvent prendre une forme proche de la vision (néo)libérale, mais aussi des formes qui s’en éloignent ou qui s’y opposent. / How to think the relationship between contemporary scientific cultures and the rising usage of computer in the production of knowledge ? This thesis offers to give an answer to such a question, by analyzing historically and sociologically a scientific domain founded by the Santa Fe Institute (SFI) in the 1980s in the United States : the « complex systems sciences » (CSS). Become well-known thanks to popular books and articles, CSS have spread in Europe and in other countries of the world in the course of the 1990s and the 2000s. This work proposes a history of the foundation of this domain, by focussing on the SFI and on the French Complex Systems National Network. With a sociological take rooted into Science & Technology Studies and into pragmatism, it then asks some questions about the socio-epistemic status of such a domain, about the modalities of production of evidence as they are employed in the context of digital simulation and, finally, about the epistemic engagements hold by complexity specialists. Empirical material – composed by circa 200 interviews, several thousands archival pages and a small number of laboratory visits – allows us not only to improve knowledge about this field – whose language is very common today, but little studied by historians and sociologists ; it also brings us to question three current opinions in the human and social sciences literature regarding digital sciences. That is : 1) that the computer produces more and more interdisciplinary knowledge, 2) that it gives birth to a new type of knowledge which needs an entirely new epistemology to be well understood and 3) that it inevitably brings about neoliberal visions of the world. Now, this thesis deconstructs these three forms of technological determinism concerning the effects of computer on scientific practices, by showing firstly that, in digital sciences, the interdisciplinary collaborations are not made without any effort and in a symetrical and pacific way ; secondly, that CSS’ researchers mobilize a kind of evidence production techniques which are well known in other disciplines ; and, thirdly, that scientists’ epistemic engagements can take (neo)liberal forms, but also other forms that depart from neoliberalism or that stand against it.

Page generated in 0.0486 seconds