I detta arbete jämfördes ett LSTM-nätverk med ett feedforward-nätverk för generellt Atari 2600 spelande. Prestandan definierades som poängen agenten får för ett visst spel. Hypotesen var att LSTM skulle prestera minst lika bra som feedforward och förhoppningsvis mycket bättre. För att svara på frågeställningen skapades två olika agenter, en med ett LSTM-nätverk och en med ett feedforward-nätverk. Experimenten utfördes på Stella emulatorn med hjälp av ramverket the Arcade Learning Environment (ALE). Hänsyn togs till Machado råd om inställningar för användning av ALE och hur agenter borde tränas och evalueras samtidigt. Agenterna utvecklades med hjälp av en genetisk algoritm. Resultaten visade att LSTM var minst lika bra som feedforward men båda metoderna blev slagna av Machados metoder. Toppoängen i varje spel jämfördes med Granfelts arbete som har varit en utgångspunkt för detta arbete.
Identifer | oai:union.ndltd.org:UPSALLA1/oai:DiVA.org:his-17174 |
Date | January 2019 |
Creators | Nilson, Erik, Renström, Arvid |
Publisher | Högskolan i Skövde, Institutionen för informationsteknologi, Högskolan i Skövde, Institutionen för informationsteknologi |
Source Sets | DiVA Archive at Upsalla University |
Language | Swedish |
Detected Language | Swedish |
Type | Student thesis, info:eu-repo/semantics/bachelorThesis, text |
Format | application/pdf |
Rights | info:eu-repo/semantics/openAccess |
Page generated in 0.0021 seconds