• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2
  • Tagged with
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Simplifying multi-agent games with imperfect information against nature using predetermined strategies : Reducing the complexity of strategy synthesis for games by treating things in our control as if they were out of our control / Förenklande av spel på grafer med hjälp av förutbestämda strategier : Förenkla skapandet av strategier för spel genom att hantera saker under kontroll som om de vore ur kontroll

Malmström, Oskar January 2023 (has links)
We study games on graphs, where a coalition of agents work against an adversarial nature to achieve an objective. The agents have to collaborate while making their moves simultaneously, while receiving differing information about the state of the game and without a means of agent-to-agent communication. Before the game starts the coalition agrees on a strategy profile, where each agent is provided with a strategy which it acts in accordance to. The challenge of finding a winning strategy profile, wherein the coalition achieves their objective regardless of any influence from the adversarial nature, is called the strategy synthesis problem. For games with coalitions consisting of more than one agent, the general case of the synthesis problem is undecidable. We formalize an abstraction construction of a game where a subset of agents with predetermined strategies are abstracted into the adversarial nature of another game, for the purpose of reducing the size of the coalition of agents and in turn reduce the complexity of the strategy synthesis problem. We then prove that any winning strategy profile in the new game with fewer agents is also winning in the original game when combined with the predetermined strategies. The most interesting case is reducing a game with a coalition of two agents into a game with a single agent, since the strategy synthesis problem is decidable for games with a single agent. This allows us to test the predetermined strategy of the abstracted agent to see if it is possible to create a winning strategy profile using it. If it is not possible then we can try a different strategy. This enables an iterative approach for solving the strategy synthesis problem instead of a deductive one. / I rapporten studeras spel på grafer där ett lag av agenter samarbetar mot en fientlig omvärld för att uppnå ett mål. Agenterna måste samarbeta och göra sina drag på samma gång trots att de inte kan kommunicera med varandra och att de har olika perspektiv på lagets situation. För att lyckas med detta kommer laget överens om en gemensam strategi som består av en specifik strategi för varje individuell agent. Utmaningen att hitta en vinnande gemensam strategi för laget kallas strategisyntesproblemet och är oavgörbart i det allmänna fallet, det finns bevisat ingen algoritm som löser problemet. Vi formaliserar en abstraktionskonstruktion som tar ett spel där en delmängd av agenterna har blivit tilldelade en strategi för att sedan abstrahera de agenterna in i omvärlden i ett annat spel. Tanken är att i-och-med att agenterna redan har strategier vet vi hur de kommer agera och därmed kan vi se dem som en förutsägbar variabel i det nya spelet vi konstruerar. I det nya spelet har vi då färre agenter att skapa strategier för vilket minskar komplexiteten av strategisyntesproblemet. Vi bevisar också att en vinnande gemensam strategi i det nya spelet kan användas tillsammans med de förbestämda strategierna för att vinna det originella spelet. Det mest intressanta fallet för rapporten är om det originella spelet har två agenter i laget, då det finns algoritmer för att lösa strategisyntesproblemet för ensamma agenter. När en agent abstraheras bort och ett spel med en agent kvarstår betyder det att dessa algoritmer kan appliceras. Om en vinnande strategi hittas har problemet lösts, om inte kan man utesluta de förbestämda strategin som den abstraherade agenten använde. Det möjliggör en iterativ testning och uteslutning av strategier som inte funnits tidigare.
2

AI for an Imperfect-Information Wargame with Self-Play Reinforcement Learning / AI med självspelande förstärkningsinlärning för ett krigsspel med imperfekt information

Ryblad, Filip January 2021 (has links)
The task of training AIs for imperfect-information games has long been difficult. However, recently the algorithm ReBeL, a general framework for self-play reinforcement learning, has been shown to excel at heads-up no-limit Texas hold 'em, among other imperfect-information games. In this report the ability to adapt ReBeL to a downscaled version of the strategy wargame \say{Game of the Generals} is explored. It is shown that an implementation of ReBeL that uses no domain-specific knowledge is able to beat all benchmark bots, which indicates that ReBeL can be a useful framework when training AIs for imperfect-information wargames. / Det har länge varit en utmaning att träna AI:n för spel med imperfekt information. Nyligen har dock algoritmen ReBeL, ett generellt ramverk för självspelande förstärkningsinlärning, visat lovande prestanda i heads-up no-limit Texas hold 'em och andra spel med imperfekt information. I denna rapport undersöks ReBeLs förmåga att anpassas till en nedskalad version av spelet \say{Game of the Generals}, vilket är ett strategiskt krigsspel. Det visas att en implementation av ReBeL som inte använder någon domänspecifik kunskap klarar av att besegra alla bottar som användes vid jämförelse, vilket indikerar att ReBeL kan vara ett användbart ramverk för att träna AI:n för krigsspel med imperfekt information.

Page generated in 0.1115 seconds