Return to search

Adaptive Dynamics Learning and Q-initialization in the Context of Multiagent Learning

L’apprentissage multiagent est une direction prometteuse de la recherche récente et à
venir dans le contexte des systèmes intelligents. Si le cas mono-agent a été beaucoup
étudié pendant les deux dernières décennies, le cas multiagent a été peu étudié vu sa
complexité. Lorsque plusieurs agents autonomes apprennent et agissent simultanément,
l’environnement devient strictement imprévisible et toutes les suppositions qui sont
faites dans le cas mono-agent, telles que la stationnarité et la propriété markovienne,
s’avèrent souvent inapplicables dans le contexte multiagent. Dans ce travail de maîtrise
nous étudions ce qui a été fait dans ce domaine de recherches jusqu’ici, et proposons une
approche originale à l’apprentissage multiagent en présence d’agents adaptatifs. Nous
expliquons pourquoi une telle approche donne les résultats prometteurs lorsqu’on la
compare aux différentes autres approches existantes. Il convient de noter que l’un des
problèmes les plus ardus des algorithmes modernes d’apprentissage multiagent réside
dans leur complexité computationnelle qui est fort élevée. Ceci est dû au fait que la taille
de l’espace d’états du problème multiagent est exponentiel en le nombre d’agents qui
agissent dans cet environnement. Dans ce travail, nous proposons une nouvelle approche
de la réduction de la complexité de l’apprentissage par renforcement multiagent. Une
telle approche permet de réduire de manière significative la partie de l’espace d’états
visitée par les agents pour apprendre une solution efficace. Nous évaluons ensuite nos
algorithmes sur un ensemble d’essais empiriques et présentons des résultats théoriques
préliminaires qui ne sont qu’une première étape pour former une base de la validité de
nos approches de l’apprentissage multiagent. / Multiagent learning is a promising direction of the modern and future research in the
context of intelligent systems. While the single-agent case has been well studied in the
last two decades, the multiagent case has not been broadly studied due to its complex-
ity. When several autonomous agents learn and act simultaneously, the environment
becomes strictly unpredictable and all assumptions that are made in single-agent case,
such as stationarity and the Markovian property, often do not hold in the multiagent
context. In this Master’s work we study what has been done in this research field,
and propose an original approach to multiagent learning in presence of adaptive agents.
We explain why such an approach gives promising results by comparing it with other
different existing approaches. It is important to note that one of the most challenging
problems of all multiagent learning algorithms is their high computational complexity.
This is due to the fact that the state space size of multiagent problem is exponential
in the number of agents acting in the environment. In this work we propose a novel
approach to the complexity reduction of the multiagent reinforcement learning. Such
an approach permits to significantly reduce the part of the state space needed to be
visited by the agents to learn an efficient solution. Then we evaluate our algorithms on
a set of empirical tests and give a preliminary theoretical result, which is first step in
forming the basis of validity of our approaches to multiagent learning.

Identiferoai:union.ndltd.org:LACETR/oai:collectionscanada.gc.ca:QQLA.2007/24476
Date05 1900
CreatorsBurkov, Andriy
ContributorsChaib-draa, Brahim
PublisherUniversité Laval
Source SetsLibrary and Archives Canada ETDs Repository / Centre d'archives des thèses électroniques de Bibliothèque et Archives Canada
LanguageFrench
Detected LanguageFrench
TypeElectronic Thesis or Dissertation
Formattext/html, application/pdf
Rights© Andriy Burkov, 2007

Page generated in 0.0015 seconds