• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 553
  • 32
  • Tagged with
  • 585
  • 585
  • 585
  • 45
  • 37
  • 36
  • 33
  • 31
  • 30
  • 29
  • 29
  • 29
  • 25
  • 25
  • 25
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Validation of market commodity forward curves / Validering av marknadskurvan för råvaruterminer

Kaas, Susanna January 2015 (has links)
In this thesis the aim was to propose a method that could be used to validate the market commodity forward curve and analyse if the method is possible to apply. The thesis is limited to forward curves with equally spaced maturities up to one year and seasonal price patterns. The method suggested is to construct a reference curve by simulating futures prices with the seasonal cost-of-carry model and perform linear interpolation between these simulated values.   The validation method was applied to UK natural gas futures traded on the Intercontinental Exchange for every trading day in December 2013. Estimates were based on settlement prices for the period 2011- 01-01 to 2013-11-30. Resulting reference curves appeared to capture the seasonal behaviour of UK natural gas in a correct way and the shape of the curve seemed to follow the market curve. However the majority of observed time series representing the state variables did not fulfil model assumptions. Therefore the observation period was shortened to 2012-07-01-2013-11-30 but the result was only slightly improved. It was still the case that some of the state variable processes did not follow model assumptions. By performing likelihood ratio test it was found that for some state variables the speed of mean reversion could be set to zero.  The conclusion was that the proposed method is not appropriate to use for validating the market curve for the considered contracts. This is because model assumptions for state variables were not always fulfilled and some of the state variable process could be reduced to random walks. Perhaps model assumptions are fulfilled if the method is applied to another time period. However it is difficult to use a method for validation if historical data sometimes suggests that times series are not stationary and do not fulfil model assumptions. Finally the conclusion was drawn that for the chosen commodity the validation method is not applicable. / I detta examensarbete var målet att föreslå en metod för att validera marknadskurvan för råvaruterminer och utvärdera den föreslagna metoden. Examensarbetet är begränsat till marknadskurvor för råvaruterminer med säsongsberoende och likafördelade förfallodagar upp till ett år. Valideringsmetoden som föreslås är att med en teoretisk modell skapa en referenskurva som kan jämföras med marknadskurvan. Metoden för att skapa referenskurvan är att simulera terminspriser med seasonal cost-of-carry model och sedan interpolera linjärt mellan de simulerade punkterna.  Valideringsmetoden appliceras på råvaruterminer med UK naturgas som underliggande tillgång och handlas på Intercontinental Exchange. Det historiska dataset som användes utgörs av observationsperioden 2011-01-01 till 2013-11-30. Referenskurvor skapades för varje handelsdag i december 2013 och verkade uppfylla det förväntade säsongsberoendet hos naturgas. Analyser visade dock att modellantagandena inte alltid var uppfyllda av de genererade processerna från historiskt data. Observationsperioden kortades ned men resultatet blev endast något bättre, dock uppfyllde fortfarande inte några av processerna de uppställda antagandena. Resultat visade också att vissa av processerna för båda observationsperioderna kunde reduceras till slumpvandringar.  Slutsatsen av arbetet är att den föreslagna metoden inte är lämplig för validering av marknadskurvan för den analyserade tidsperioden. Orsaken till detta var att modellantaganden inte var uppfyllda för alla tillståndsvariabler samt att några av processerna kunde reduceras till slumpvandringar. Dock är det möjligt att modellantaganden skulle kunna uppfyllas för en annan tidsperiod. Eftersom det är svårt att använda en metod för validering om historisk data inte alltid uppfyller modellantaganden och om processerna inte är stationära drogs slutsatsen att den föreslagna metoden inte är lämplig för den analyserade råvaran.
92

The role of pairwise and higher-order correlations in feedforward inputs to neural networks / Rollen av parvisa och högre ordningens korrelationer i indata för framåtkopplade neuronnät

Hübner, David January 2015 (has links)
When presented with a task or stimulus, the ongoing activity in the brain is perturbed in order to process the new information of the environment. Typical characteristics of this evoked activity are (1) an increase in firing rate of neurons, (2) a decrease in trial-by-trial variability and (3) an increase or decrease in spike count correlations. Considering the importance of variability and correlations within the rate coding paradigm, it is crucial to understand the origin of these modulations. Different networks in the brain are typically connected through divergent-convergent connections. In a recent work, the correlations in the convergent connections of the feed-forward input have been found to be able to reproduce the above characteristics. This thesis expands this work by also considering correlations in the divergent connections. Through large-scale network simulations, we can show that correlations in the divergent connections have a significant impact on the output correlation coefficient and a small impact on the output firing rate. Moreover, we investigate the question whether keeping the pairwise correlations constant and varying the higher-order correlation structure can influence the network dynamics. We find that this influence is very small suggesting that higher-order correlations in the divergence connections carry only a limited amount of information. These findings can significantly simplify the analysis of neural data. / När hjärnan presenteras med en uppgift eller stimulans, förändras den pågående aktiviteten för att bearbeta den nya informationen om miljön. Typiska egenskaper hos denna förändring av aktivitet är (1) en ökning av spikfrekvens hos nervceller, (2) en minskning i variabilitet mellan försök och (3) en ökning eller minskning av korrelationer räknat i antal spikar. Med tanke på vikten av variabilitet och korrelationer inom ”rate coding” (spikfrekvens-kodning) paradigmet, är det viktigt att förstå ursprunget till dessa aktivitetsförändringar. Olika nätverk i hjärnan är normalt kopplade via divergerande-konvergerande anslutningar. En nylig studie har visat att korrelationerna i ett framåt-kopplat nätverk med konvergerande anslutningar reproducerar de tidigare nämnda egenskaperna hos dessa nätverk. Denna avhandling utökar detta arbete genom att även studera korrelationer i nätverk med divergerande kopplingar. Genom storskaliga nätverkssimuleringar, kan vi visa att divergerande kopplingar har en stor effekt på korrelationskoefficienten men en mindre inverkan på den resulterande spikfrekvensen. Vidare undersöker vi om man kan påverka nätverksdynamiken genom att hålla parvisa korrelationer konstant och variera den högre ordningens korrelationsstruktur. Vi visar att detta inflytande är mycket litet vilket tyder på att högre ordningens korrelationer i divergerade kopplingar endast bär en begränsad mängd information. Dessa resultat kan därigenom avsevärt förenkla analysen av neural data.
93

Application of Machine Learning on a Genome-Wide Association Studies Dataset / Applicering av maskininlärning på ett genome-wide association study dataset

Nielsen, Agnes Martine January 2015 (has links)
The number of individuals affected by type 2 diabetes is rapidly increasing. The goal of this thesis is to investigate if type 2 diabetes can be predicted more accurately from genome-wide association data using machine learning methods opposed to traditional statistical methods. A variable selection process using random forest has been performed and the variables in the genome, called Single Nucleotide Polymorphisms (SNPs), showing the highest importance for the prediction of type 2 diabetes have been identified. It has then been considered if including these SNPs in the models over only using clinical variables or previously univariately identified SNPs will improve the performance. Furthermore, the possible improvement by using random forest over logistic regression has been considered. The analysis has resulted in identifying genes through the SNPs that are related to biological functions related to type 2 diabetes. This includes genes which have not been directly associated with the disease. These are interesting for future study. However, the results show little to no improvement in prediction performance over models using only clinical variables suggesting that the signal for type 2 diabetes in the genome-wide association dataset is weak. Similarly, there is no improvement from using random forest over logistic regression for the final models suggesting that the linear signal in the genome data is much stronger than any non-linear signal. / Antalet individer som lider av typ 2 diabetes ökar hastigt. Målet med denna uppsats är att undersöka huruvida förekomsten av typ 2 diabetes kan förutspås mer noggrant ur genome-wide association data med hjälp av maskininlärning jämfört med traditionella statistiska metoder. En variabel urvalsprocess med random forest har utförts, där variablerna i genomet, enbaspolymorfierna (SNPs), med störst betydelse för förutsägelsen av typ 2 diabetes identifierades. Det har undersökts om inkludering av dessa SNPs i modellerna jämfört med att enbart använda kliniska variabler eller tidigare identifierade SNPs förbättrar förutsägelsen. Vidare har den potentiella förbättringen av förutsägelsen genom användning av random forest jämfört med logistisk regression undersökts. Analysen av SNPs har resulterat i identifiering av gener som är relaterade till biologiska funktioner kopplade till typ 2 diabetes. Detta inkluderar gener som inte direkt har förknippats med sjukdomen tidigare, varför de är intressanta för fortsatta studier. Resultaten visar dock liten till ingen förbättring i förmåga att förutspåtyp 2 diabetes med hjälp av den använda metoden, jämfört med att enbart använda kliniska variabler vilket kan innebära att signalen för typ 2 diabetes i genome-wide association dataset är svag. På samma sätt kan ingen förbättring observeras vid användning av random forest jämfört med logistisk regression i de färdiga modellerna vilket kan innebära att signalen i datat är mycket starkare än någon ickelinjär signal.
94

Epitope Mapping using Local Alignment Features

Zhu, Yunyi January 2015 (has links)
Our immune system uses antibodies to neutralize pathogens such as bacteria and viruses. Antibodies bind to parts of foreign proteins with high efficiency and specificity. We call such parts epitopes. The identification of epitopes, namely epitope mapping, may contribute to various immunological applications such as vaccine design, antibody production and immunological diagnosis. Therefore, a fast and reliable method that can predict epitopes from the whole proteome is highly desirable.   In this work we have developed a computational method that predicts epitopes based on sequence information. We focus on using local alignment to extract features from peptides and classifying them using Support Vector Machine. We also propose two approaches to optimize the features. Results show that our method can reliably predict epitopes and significantly outperforms some most commonly used tools.
95

Collision Detection between Dynamic Rigid Objects and Static Displacement Mapped Surfaces in Computer Games / Kollisionsdetektering mellan dynamiska objekt och statiska terräng

Yang, Fangkai January 2015 (has links)
Collision detection often refers the detection of the intersection of two or more objects. Collision detection algorithms in Avalanche Studios’ game engine need not only to detect the collision, but to get the closest distance and handle penetration. Current algorithms perform well in most cases, but obtain poor accuracy or low efficiency in some cases. This paper will attempt to improve the performance in two ways. First, two new backward projection methods are derived and compared, achieving more accurate backwards projected points. The accurate backwards points are important in collision detection with the terrain surface. Second, multiresolution bounding volumes are constructed in the narrow phase collision detection. These bounding volumes improve the performance when performing collision detection between large complex objects and the terrain. These bounding volumes reduces the number of backward projections needed. / Kollisionsdetektering avser oftast att detektera skärning mellan två eller fler objekt. Kollisionsdetekteringsalgoritmerna i Avalanche Studios spelmotor behöver inte bara upptäcka skärningar, utan även det närmsta avståndet och hantera penetration. Aktuella algoritmer presterar bra i de flesta fall, men erhåller i vissa fall låg noggrannhet eller effektivitet. Detta dokument kommer att förbättra prestandan på två sätt. Först härleds och jämförs två nya bakåtprojektionsmetoder, vilka resulterander i mer exakta bakåtprojicerade punkter. Korrekt bakåtprojektion är viktig för kollisionsdetektering mot terrängytan. Sedan konstrueras och nyttjas flerupplösta begränsnings volymer under den detaljerade kollisionsfasen. Dessa avgränsande volymer förbättrar prestanda när kollisionsdetektering sker mellan stora komplexa objekt och terrängen då de minskar antalet bakåt projiceringar som behöver utföras.
96

Forecasting in contact centers : A step by step method to get an accurate forecast / Prognostisering i kontaktcenter : En steg-för-steg-metod för en exakt och noggrann prognos

Ekelius, Oskar January 2015 (has links)
Teleopti WFM Forecasts is a tool that can be used in order to predict future contact volumes in contact centers and staffing requirements, both in the short and the long term. This tool uses historical data of incoming contact volumes to perform a forecast on a given forecasting period. Today this tool uses a very simple algorithm which is not always very accurate. It also requires inputs from the customer in some of the steps, in order to generate the forecast. The task of this thesis is to improve this algorithm to get a more accurate forecast that can be generated automatically, without any input from the customer. Since Teleopti has more than 730 customers in more than 70 countries worldwide [3] the most challenging part of this project has been to find an algorithm that works for a lot of different historical data. Since different data contains different patterns there is not a single method that works best for all types of data. To investigate what method that is best to use for some specific data, and to perform a forecast according to this method, a step by step method was produced. A shortened version of this method is presented below.  Remove irrelevant data that differs too much from the latest data.  Use the autocorrelation function to find out what seasonal variations that are present in the data.  Estimate and remove the trend.  Split the data, with the estimated trend removed, into two parts. Use the first part of the data to _t different models. Compare the different models with the other part of the data. The one that fits the second part best in least square sense is the one that is going to be used.  Estimate the chosen model again, using all the data, and remove it from the full sample of data.  Forecast the trend with Holts method.  Combine the estimated trend with the estimated seasonal variations to perform the forecast. There are a lot of factors that affect the accuracy of the forecast generated by using this step by step method. By analysing a lot of data and the corresponding forecasts, the following three factors seem to have most impact on the forecasting result. First of all, if the data contains a lot of randomness it is difficult to forecast it, no matter how good the forecasting methods are. Also, if there are small volumes of historical data it will affect the forecasting result in a bad way, since estimating each seasonal variation requires a certain volume of data. And finally, if the trend tends to often change direction considerably in the data it is quite difficult to forecast it, since this means that it could probably change a lot in the future as well. This step by step method has been tested on plenty of data from a lot of different contact centers in order to get it as good as possible for as many customers as possible. However, even though it has exhibited a good forecast of these data there is no guarantee that it will perform a good forecast for all possible data amongst Teleopti's customers. Hence, in the future, if this step by step method will be used by Teleopti, it will probably be updated continuously in order to satisfy as many customers as possible. / Teleopti WFM Forecast är ett verktyg som kan användas för att förutsäga framtida kontaktvolymer och personalbehov, både på kort och lång sikt. Detta görs genom att använda historisk data för inkommande kontaktvolymer för att utföra en prognos av en given prognostiseringsperiod. Idag använder sig detta program av en ganska enkel algoritm som ibland kan ge en ganska dålig prognos. Den kräver också inputs från kunden i vissa steg för att prognosen ska kunna genomföras. Huvudmålet med detta examensarbete har varit att förbättra den nuvarande algoritmen för att få mer noggranna prognoser som kan fås fram automatiskt, utan några inputs från kunden. Eftersom Teleopti har fler än 730 kunder i fler än 70 länder [3], utspridda över hela världen, så har en av de mest utmanande delarna med det här projektet varit att hitta en algoritm som fungerar för många olika sorters data. För att undersöka vilken metod som är bäst lämpad för en specifik datamängd, och för att utföra en prognos med denna metod, togs en steg-för-steg-metod fram. En förkortad variant av denna visas här nedan.  Ta bort icke relevant data som skiljer sig för mycket från övrig data.  Använd autokorrelationsfunktionen för att identifiera vilka säsongsvariationer som finns.  Beräkna trenden och ta bort den.  Dela upp historisk data med borttagen trend i två delar. Använd den första delen till att bestämma parametrarna för olika modeller. Jämför sedan de olika modellerna, med de uppmätta parametrarna, med den andra delen. Den model som skiljer sig minst från den andra delen av data är den modellen som kommer att användas.  Beräkna parametrarna till den valda modellen igen, men använd nu all data.  Prognostisera hur trenden kommer att fortsätta genom att använda Holts metod.  Kombinera den beräknade trenden med de beräknade säsongsvariationerna för att få fram de prognostiserade värdena. Det finns många faktorer som avgör hur exakt prognosen blir genom att använda denna steg-försteg-metod. Genom att analysera mycket data och motsvarande prognos, har följande tre faktorer tagits fram som de som verkar ha mest påverkan på prognostiseringsresultatet. Till att börja med, om data innehåller en hög slumpfaktor är det svårt att utföra en bra prognos, oavsett vilka metoder som används. Om volymen data är väldigt begränsad påverkar det också prognostiseringsresultatet på ett negativt sätt, i och med att beräkningarna för de olika säsongsvariationerna kräver en viss mängd data. Och till sist, om trenden ofta ändrar riktning kraftigt i data är det ganska svårt att prognostisera trenden, i och med att detta betyder att den förmodligen kommer att ändra riktning ofta i framtiden också. Den här steg-för-steg-metoden har testats på mycket olika data, tillhörande många olika kontaktcenter, för att få den så bra som möjligt för så många kunder som möjligt. Men, även om den har uppvisat ett bra resultat på de flesta av dessa data så finns det inga garantier för att den kommer att uppvisa bra prognostiseringar hos alla Teleoptis kunder. Därför, om Teleopti väljer att använda denna steg-för-steg-metod i framtiden, så kommer den förmodligen att uppdateras kontinuerligt för att tillfredsställa så många av kunderna som möjligt.
97

Assessment of Profitability of Electric Vehicle-to-Grid Considering Battery Degradation / Utvärdering av lönsamheten för Vehicle-to-Grid med beaktande av elbilsbatteriers åldrande

Czechowski, Karolina January 2015 (has links)
The electric vehicle (EV) fleet is expected to continue growing in the near future. The increasing electrification of the transportation sector is a promising solution to the global dependency on oil and is expected to drive investments in renewable and intermittent energy sources. In order to facilitate the integration, utilize the potential of a growing EV fleet and to avoid unwanted effects on the electric grid, smart charging strategies will be necessary. The aspect of smart EV charging investigated in this work is the profitability of bidirectional energy transfer, often referred to as vehicle-to-grid (V2G), i.e. the possibility of using aggregated EV batteries as storage for energy which can be injected back to the grid. A mixed integer linear problem (MILP) for minimizing energy costs and battery ageing costs for EV owners is formulated. The battery degradation due to charging and discharging is accounted for in the model used. A realistic case study of overnight charging of EVs in Sweden is constructed, and the results show that given current energy prices and battery costs, V2G is not profitable for EV owners. Further, a hypothetical case for lower battery costs is formulated to demonstrate the ability of our MILP model to treat a number of charging scenarios / Antalet elbilar väntas fortsätta öka de närmsta åren. Den tilltagande elektrifieringen av transportsektorn är en lovande lösning på det globala beroendet av olja och förväntas stimulera investeringar i förnybara intermittenta energikällor. För att främja denna utveckling, och för att till fullo utnyttja potentialen hos en växande elbilsflotta, samt för att undvika oönskade negativa effekter på elnätet kommer smarta strategier för laddning behövas.  I detta arbete undersöks lönsamheten av den aspekt av smart laddning som brukar benämnas vehicle-to-grid (V2G), det vill säga möjligheten att använda aggregerade elbilsbatterier för att lagra energi som sedan kan återföras till elnätet. Hänsyn tas till att batteriet åldras för varje laddning och urladdning som sker. Heltalsoptimering används för att formulera ett problem som minimerar kostnaderna för energi samt för batteriets åldrande. Ett realistiskt scenario där elbilarna ska laddas över natten i svenska förhållanden konstrueras, och resultaten visar att V2G inte är lönsamt för bilägarna givet dagens batteripriser och energipriser. Vidare formuleras ett hypotetiskt fall med lägre batteripriser för att visa att modellen är lösbar för olika scenarion.
98

Dynamic treatment with Leksell Gamma Knife Perfexion - A relaxed path sector duration optimization / Planering och modellering av dynamisk gammaknivsbehandling

Karlander, Rikard January 2015 (has links)
Stereotactic radiosurgery is an increasingly popular method for treating brain tumours and lesions. The Leksell Gamma Knife Perfexion by Elekta is one of the leading instruments for stereotactic radiosurgery. Today the treatment with the Gamma Knife is performed in a static step-and-shoot manner, where several "shots" of gamma rays are delivered to specific regions within the tumour in order to cover it. The treatment generally requires many such shots and thus, in combination with the positioning between shots, the treatment becomes time consuming. There is an interest in a continuous dose delivery where the dose would be delivered through a continuous path through the tumour, i.e. a dynamic treatment. The notion is that this would shorten treatment times as well as increase plan quality and dose homogeneity within the tumour. A previous model for continuous dose delivery from 2014 poses the problem as path finding combined with an optimization of the speed along the path [1]. This thesis aims to improve that model by providing a new, smoothed path as well as allowing the path to be relaxed during the optimization. The findings show that treatment times can be significantly reduced and dose homogeneity as well as plan quality increased through dynamic treatment. The relaxation of the path during the optimization further improved all dynamic models. Furthermore, several interesting properties of dynamic treatment plans have been studied and presented including dose volume histograms, isodose curves and collimator settings. / Stereotaktisk radiokirurgi ar en allt vanligare behandling av hjärntumörer och andra hjärnskador. Leksell Gamma Knife Perfexion ar ett av de ledande instrumenten inom stereotaktisk radiokirurgi. Idag utförs behandlingar med gammakniven enligt en statisk, stegvis modell där en mängd så kallade skott av gammastrålar bestrålar olika områden i tumören för att täcka hela volymen. Generellt sett kräver behandlingar många skott, vilket, i kombination med den tid det tar att ompositionera patienten inför varje skott, gör behandlingen tidskrävande. Det finns därför ett intresse för kontinuerlig dosleverans över en bana genom tumören, en så kallad dynamisk plan. Detta skulle kunna förkorta behandlingstiden markant samt även förbättra plankvalitén och doshomogeniteten i tumören. En studie från 2014 föreslår att en dynamisk planering kan formuleras som en optimering av banan följt av en optimering av hastigheten längs banan [1]. Syftet med den här uppsatsen är att förbättra den modellen genom en förbättrad bana, vilket involverar att relaxera banans placering genom att inkludera den i hastighetsoptimeringen. Resultaten från studien visar att behandlingstiden för en tumör kan bli drastiskt minskad med dynamisk behandling samtidigt som plankvalitén och doshomogeniteten ökar. Den nya funktionen som tillåter att banan förändras under hastighetsoptimeringen ger ytterligare förbättringar till de dynamiska planerna. Slutligen så presenteras era intressanta aspekter och egenskaper hos dynamiska planer så som dos/volym-histogram, isodoskurvor och kollimatorinställningar.
99

A Modal PML for the 2D Shallow Water Equations in Conservative Variables / Ett modalt PML för de två-dimensionella ekvationerna för grunt vatten i konservativa variabler

Johansson, Simon January 2015 (has links)
A modal Perfectly Matched Layer (PML) is constructed for the two-dimensional, non-linear, Shallow Water Equations (SWEs) in conservative variables. The result is an analytical continuation of the original equations where absorption is applied to the outgoing wave modes which are damped exponentially fast in the direction of propagation. Numerical tests are performed using a variation of the Diagonally Implicit Runge-Kutta (DIRK) integration scheme in conjunction with Lax-Wendroff’s method for smooth so- lutions and some variation of Roe’s method for discontinuous solutions. Different absorption functions are used, i.e. the absorption function of the original PML constructed by Berenger for electromagnetic waves, and some variations of the hyperbola functions. The results clearly show that the PML is better than the characteristic boundary condition, but also that improvements through some sort of optimization should lead to better parameter choices, potentially decreasing the reflections further. / Ett modalt Perfekt Matchande Lager (PML) konstrueras för de två-dimensionella, icke-linjära, ekvationerna för grunt vatten (Shallow Water-ekvationerna (SWE)) i konservativa variabler. Resultatet är en analytisk fortsättning av de ursprungliga ekvationerna där absorption tillämpas på de utgående vågmoderna som dämpas med exponentiell hastighet i utbredningsriktningen. Numeriska tester genomförs med en version av det Diagonalt Implicita Runge-Kutta (DIRK) schemat tillsammans med Lax-Wendroffs metod för kontinuerliga lösningar och en variant av Roes metod för diskontinuerliga lösningar. Olika absorptionsfunktioner används, d.v.s. absorptionsfunktionen från det ursprungliga PML:et konstruerat av Berenger för elektromagnetiska vågor, samt olika versioner av hyperbola-funktionerna. Resultaten visar tydligt att PML:et är bättre än det karakteristiska randvillkoret, men också att förbättringar genom någon sorts optimering borde leda till bättre parameterval, och potentiellt minska reflektionerna ytterligare.
100

The Dilemma of Homo Moralis : Preference evolution in the prisoner's dilemma under assortative matching in finite populations without equilibrium assumptions

Nordström, Marcus January 2013 (has links)
Evolutionary game theory has made a big contribution to our understanding of evolutionary and economical processes. Recently, in the article Homo Moralis by Ingela Alger and Jörgen Weibull, a model extending classical evolutionary game theory in two ways is designed. Firstly the matching processes is allowed to be assortative and secondly the evolution is designed in such a way that it acts on preferences instead of strategies. They prove that an individual with a certain morality preference in such a setting can not be outperformed by an individual with another preference. To obtain the results, the authors model the population as a continuum and assume that equilibrium always is reached. In this thesis we design a model where these assumptions are relaxed and then test through computer simulations whether the results hold for the prisoner’s dilemma game. In our experiments we find no case where the results do not hold.

Page generated in 0.3667 seconds