• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3
  • 1
  • Tagged with
  • 4
  • 4
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Procedurell generering av nivåer till pusselspel med evolutionära algoritmer : Att formulera en evalueringsmetod / Procedural generation of levels for puzzle games with evolutionary algorithms : To formulate an evaluation method

Karlsson, Alexander January 2015 (has links)
Det krävs mycket resurser för att skapa innehåll till spel. Detta arbete ämnar skapa en nivågenerator till ett specifikt pusselspel för att korta ned utvecklingstiden för spelet. Nivågeneratorn använder en evolutionär algoritm och dess metod för att evaluera nivåer är baserad på publicerade teorier om vad som gör spel roliga och vad som gör pusselspel utmanande. Hypotesen är att nivågeneratorn som skapas ska kunna rangordna de nivåer den genererar efter deras grad av utmaning. För att testa detta så har ett speltest utförts där testpersoner får spela nio nivåer och ju längre dit det tar i snitt att klara en nivå ju svårare anses den vara. Resultatet från speltestet visar tydligt att nivågeneratorn har lyckats rangordna nivåerna. De lättaste tog kortast tid och de svåraste tog längst tid att klara. För att utveckla generatorn vidare så finns det ett antal idéer som tros förbättra nivågeneratorns förmåga att skilja på nivåer baserat på deras grad av utmaning.
2

Tillämpbarheten av Learning Backtracking Search Optimization Algoritmen vid Lösning av Sudoku-problemet / The Application of the Learning Backtracking Search Optimization Algorithm when Applied to the Sudoku Problem

Sävhammar, Simon January 2017 (has links)
Den här rapporten undersöker egenskaper hos en algoritm som är baserad på Learning Backtracking Search Optimization Algorithm (LBSA) som introducerades av Chen et. al. (2017). Undersökningen genomfördes genom att tillämpa algoritmen på Sudokuproblemet och jämföra lösningsgraden och diversiteten i den sista populationen med en algoritm som är baserad på Hybrid Genetic Algorithm (HGA) som introducerades av Deng och Li (2011). Resultaten visar att implementationen av den LBSA-baserade algoritmen har en lägre lösningsgrad än den HGA-baserade algoritmen för alla genomförda experiment, men att algoritmen håller en högre diversitet i den sista populationen för tre av de fem gjorda experimenten. Slutsatsen är att den LBSA-baserade algoritmen inte är lämplig för att lösa Sudokuproblemet på grund av en låg lösningsgrad och att implementationen har en hög komplexitet. / This report examines the properties of an algorithm based on the Learning Backtracking Optimization Algorithm (LBSA) introduced by Chen et. al. (2017). The examination was performed by applying the algorithm on the Sudoku problem and then comparing the solution rate and the diversity in the final population with an algorithm based on the Hybrid Genetic Algorithm introduced by Deng and Li (2011). The results show the implementation of the LBSA based algorithm have a lower solution rate than the HGA based algorithm for all executed experiments. But the LBSA based algorithm manage to keep a higher diversity in the final population in three of the five performed experiments. The conclusion is that the LBSA based algorithm is not suitable for solving the Sudoku problem since the algorithm has a lower solution rate and the implementation have a high complexity.
3

Olika arkitekturer för artificiella neurala nätverk i bilspel : En jämförelse av arkitekturerna feedforward, Elman och ESCN / Different architectures for artificial neural networks in racing video games : A comparison of the architectures feedforward, Elman and ESCN

Hedenström, Patrik January 2015 (has links)
Detta arbete utvärderar ANN-arkitekturerna feedforward, Elman och ESCN då de används för att styra en bil i en enkel 2D-simulering. Nätverken tränas av en evolutionär algoritm som använder nätverkens vikter som genom för dess individer. Syftet med arbetet är att se om arkitekturerna presterar olika bra. Simuleringens komplexitet, i form av halka och sladd, samt banans svårighetsgrad varieras för att se vilka arkitekturer som klarar vilka komplexa problem bäst och var de eventuellt brister. Ett program utvecklades som testade de olika fallen och resultatet visade att Elman presterade sämst, speciellt då komplexiteten ökade, och ESCN presterade lite bättre än feedforward. Varför Elman presterade sämre fick inget svar i detta arbete, och ESCN använde sitt minne på ett sätt som skulle kunna vara värt att titta vidare på. Framtida arbete skulle kunna vara att ta reda på orsakerna till de ovanliga beteendena som uppstod samt att genomföra mer utförliga tester.
4

Training Neural Networks with Evolutionary Algorithms for Flash Call Verification / Att träna artificiella neuronnätverk med evolutionära algoritmer för telefonnummerverifiering

Yang, Yini January 2020 (has links)
Evolutionary algorithms have achieved great performance among a wide range of optimization problems. In this degree project, the network optimization problem has been reformulated and solved in an evolved way. A feasible evolutionary framework has been designed and implemented to train neural networks in supervised learning scenarios. Under the structure of evolutionary algorithms, a well-defined fitness function is applied to evaluate network parameters, and a carefully derived form of approximate gradients is used for updating parameters. Performance of the framework has been tested by training two different types of networks, linear affine networks and convolutional networks, for a flash call verification task.Under this application scenario, whether a flash call verification will be successful or not will be predicted by a network, which is inherently a binary classification problem. Furthermore, its performance has also been compared with traditional backpropagation optimizers from two aspects: accuracy and time consuming. The results show that this framework is able to push a network training process to converge into a certain level. During the training process, despite of noises and fluctuations, both accuracies and losses converge roughly under the same pattern as in backpropagation. Besides, the evolutionary algorithm seems to have higher updating efficiency per epoch at the first training stage before converging. While with respect to fine tuning, it doesn’t work as good as backpropagation in the final convergence period. / Evolutionära algoritmer uppnår bra prestanda för ett stort antal olika typer av optimeringsproblem. I detta examensprojekt har ett nätverksoptimeringsproblem lösts genom omformulering och vidareutveckling av angreppssättet. Ett förslag till ramverk har utformats och implementerats för att träna neuronnätverk i övervakade inlärningsscenarier. För evolutionära algoritmer används en väldefinierad träningsfunktion för att utvärdera nätverksparametrar, och en noggrant härledd form av approximerade gradienter används för att uppdatera parametrarna. Ramverkets prestanda har testats genom att träna två olika typer av linjära affina respektive konvolutionära neuronnätverk, för optimering av telefonnummerverifiering. I detta applikationsscenario förutses om en telefonnummerverifiering kommer att lyckas eller inte med hjälp av ett neuronnätverk som i sig är ett binärt klassificeringsproblem. Dessutom har dess prestanda också jämförts med traditionella backpropagationsoptimerare från två aspekter: noggrannhet och hastighet. Resultaten visar att detta ramverk kan driva en nätverksträningsprocess för att konvergera till en viss nivå. Trots brus och fluktuationer konvergerar både noggrannhet och förlust till ungefär under samma mönster som i backpropagation. Dessutom verkar den evolutionära algoritmen ha högre uppdateringseffektivitet per tidsenhet i det första träningsskedet innan den konvergerar. När det gäller finjustering fungerar det inte lika bra som backpropagation under den sista konvergensperioden.

Page generated in 0.0788 seconds