Artificiell intelligens är ett område inom datavetenskap som försöker skapa intelligenta system eller system som simulerar intelligens. Sådana system är intressanta för konsumenter eftersom de kan utföra uppgifter som annars krävt mänsklig inblandning.Spelindustrin hjälper till att driva utvecklingen av AI framåt när spelare fortsätter att förvänta sig mer engagerande och verklighetstrogna upplevelser.Akademiskt är spel användbara för studier av artificiell intelligens på grund av att de är relativt simpla. Men även om spel är enklare än verkligheten är det fortfarande en svår uppgift att skapa en artificiell intelligens som kan matcha en mänsklig motståndare.En populär genre av spel är strategispel, exempel på dessa är Age of Empires och Starcraft. I denna rapport undersöks en annorlunda ansats för att lösa problemet med resurshantering för denna typ av spel med hjälp av ett artificiellt neuralt nätverk som klassificerar spelets tillstånd. Detta har inte utforskats tidigare och målet är att ta reda på hurvida det är möjligt. För att träna nätverket används backpropagation i samband med Q- learning vilket gör inlärningen unsupervised. Så författarnas frågeställning är följande: Kan ett Q- nätverk användas för att hantera resursallokeringen för en bot i Starcraft Broodwar?För att kunna se hur väl Q- nätverket löser problemet utförs ett experiment med två olika botar där den ena spelar starcraft med samma möjligheter som en spelare och den andra en förenklad version. Experimentet går ut på att samla data från botarnas träning för att se om de förbättras eller inte. Som kontroll används två extra botar som slumpmässigt väljer handlingar.Resultatet av experimentet var flera grafer som visade botarnas prestanda på olika sätt och hur många spel de vunnit och sannolikheten för vinst. Med stöd av resultatet är det inte möjligt att se någon verklig förbättring i botarnas spelande med 0.7% respektive 0.4% chans för vinst mot standard AI:n. Resultatet visar dessutom att en av botarna är mycket sämre än en som slumpat fram handlingar.Dessutom visade det sig att träningen tog alldeles för lång tid. Om experimentet får mer tid kanske det skulle visat att tekniken är möjlig men först efter orimligt lång tid vilket skulle göra den oanvändbar i praktiken. Om detta hade lyckas hade det inneburit att man skulle kunna skapa bättre AI för strategispel som anpassar sig efter spelaren och kan generalisera när den ställs inför en situation som inte var planerad av utvecklarna.Men i denna studie förblev botarnas beteende mer eller mindre stokastiskt så svaret på frågeställningen är att det inte är möjligt. / Artificial intelligence is a field of computer science that tries to create intelligent systems or systems that simulate intelligence. Such systems are attractive to consumers because they can perform tasks that would otherwise have required human intervention.The gaming industry is helping to drive the development of AI forward as players continue to expect more immersive and lifelike experiences.Academically games are useful for the study of artificial intelligence because they are relatively simple. But even if the game is simpler than the reality, it is still a difficult task to create an artificial intelligence that can match a human opponent.A popular genre of games is strategy, examples of which are Age of Empire and StarCraft. This report examines a different approach to solve the problem of resource management for this type of game with the help of an artificial neural network to classify the game state. This has not been explored previously, and the goal is to find out whether this approach is feasible or not. To train the networks back-propagation is used in conjunction with Q-learning which makes learning unsupervised. So the authors’ research-question is: Can a Q network be used to manage the resource allocation for a cure in StarCraft Broodwar?To see how well the Q networks solve the problem an experiment was conducted with two different bots where one play StarCraft with the same opportunities a player would have and the other a simplified version. The experiment consists of collecting data from the bots training to see if they improve or not. As a control, two additional bots are used with a completely random policy.The results of the experiment were several graphs showing the bots performance in different ways but most importantly, the number of games won and the probability of winning. With the support of the result, it is not possible to see any real improvement in bot gameplay with 0.7% and 0.4% chance to win against the default AI. The results also show that one of the neural net bots performed much worse than the one with random actions.Moreover, the training turned out to be far too long. If the experiment had more time maybe it would have shown that the technology is possible, but still, only after an unreasonably long time, which would make it useless in practice. If this had been successful it would have meant that we might create better AI for the strategy games that adapts to the player and can generalize when faced with a situation that was not planned by the developers.But in this study the bots behavior remained more or less stochastic so the answer to the research- question is that it is not possible.
Identifer | oai:union.ndltd.org:UPSALLA1/oai:DiVA.org:hb-10455 |
Date | January 2016 |
Creators | Miranda Cortes, Luis, Karlsson, Mathias |
Publisher | Högskolan i Borås, Akademin för bibliotek, information, pedagogik och IT, Högskolan i Borås, Akademin för bibliotek, information, pedagogik och IT |
Source Sets | DiVA Archive at Upsalla University |
Language | Swedish |
Detected Language | Swedish |
Type | Student thesis, info:eu-repo/semantics/bachelorThesis, text |
Format | application/pdf |
Rights | info:eu-repo/semantics/openAccess |
Page generated in 0.0025 seconds