• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 65
  • 62
  • 4
  • 3
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 139
  • 84
  • 43
  • 37
  • 31
  • 27
  • 25
  • 23
  • 20
  • 19
  • 19
  • 18
  • 17
  • 16
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Semi-Markov processes for calculating the safety of autonomous vehicles / Semi-Markov processer för beräkning av säkerheten hos autonoma fordon

Kaalen, Stefan January 2019 (has links)
Several manufacturers of road vehicles today are working on developing autonomous vehicles. One subject that is often up for discussion when it comes to integrating autonomous road vehicles into the infrastructure is the safety aspect. There is in the context no common view of how safety should be quantified. As a contribution to this discussion we propose describing each potential hazardous event of a vehicle as a Semi-Markov Process (SMP). A reliability-based method for using the semi-Markov representation to calculate the probability of a hazardous event to occur is presented. The method simplifies the expression for the reliability using the Laplace-Stieltjes transform and calculates the transform of the reliability exactly. Numerical inversion algorithms are then applied to approximate the reliability up to a desired error tolerance. The method is validated using alternative techniques and is thereafter applied to a system for automated steering based on a real example from the industry. A desired evolution of the method is to involve a framework for how to represent each hazardous event as a SMP. / Flertalet tillverkare av vägfordon jobbar idag på att utveckla autonoma fordon. Ett ämne ofta på agendan i diskussionen om att integrera autonoma fordon på vägarna är säkerhet. Det finns i sammanhanget ingen klar bild över hur säkerhet ska kvantifieras. Som ett bidrag till denna diskussion föreslås här att beskriva varje potentiellt farlig situation av ett fordon som en Semi-Markov process (SMP). En metod presenteras för att via beräkning av funktionssäkerheten nyttja semi-Markov representationen för att beräkna sannolikheten för att en farlig situation ska uppstå. Metoden nyttjar Laplace-Stieltjes transformen för att förenkla uttrycket för funktionssäkerheten och beräknar transformen av funktionssäkerheten exakt. Numeriska algoritmer för den inversa transformen appliceras sedan för att beräkna funktionssäkerheten upp till en viss feltolerans. Metoden valideras genom alternativa tekniker och appliceras sedan på ett system för autonom styrning baserat på ett riktigt exempel från industrin. En fördelaktig utveckling av metoden som presenteras här skulle vara att involvera ett ramverk för hur varje potentiellt farlig situation ska representeras som en SMP.
112

Input Calibration, Code Validation and Surrogate Model Development for Analysis of Two-phase Circulation Instability and Core Relocation Phenomena

Phung, Viet-Anh January 2017 (has links)
Code validation and uncertainty quantification are important tasks in nuclear reactor safety analysis. Code users have to deal with large number of uncertain parameters, complex multi-physics, multi-dimensional and multi-scale phenomena. In order to make results of analysis more robust, it is important to develop and employ procedures for guiding user choices in quantification of the uncertainties.   The work aims to further develop approaches and procedures for system analysis code validation and application to practical problems of safety analysis. The work is divided into two parts.   The first part presents validation of two reactor system thermal-hydraulic (STH) codes RELAP5 and TRACE for prediction of two-phase circulation flow instability.   The goals of the first part are to: (a) develop and apply efficient methods for input calibration and STH code validation against unsteady flow experiments with two-phase circulation flow instability, and (b) examine the codes capability to predict instantaneous thermal hydraulic parameters and flow regimes during the transients.   Two approaches have been developed: a non-automated procedure based on separate treatment of uncertain input parameters (UIPs) and an automated method using genetic algorithm. Multiple measured parameters and system response quantities (SRQs) are employed in both calibration of uncertain parameters in the code input deck and validation of RELAP5 and TRACE codes. The effect of improvement in RELAP5 flow regime identification on code prediction of thermal-hydraulic parameters has been studied.   Result of the code validations demonstrates that RELAP5 and TRACE can reproduce qualitative behaviour of two-phase flow instability. However, both codes misidentified instantaneous flow regimes, and it was not possible to predict simultaneously experimental values of oscillation period and maximum inlet flow rate. The outcome suggests importance of simultaneous consideration of multiple SRQs and different test regimes for quantitative code validation.   The second part of this work addresses core degradation and relocation to the lower head of a boiling water reactor (BWR). Properties of the debris in the lower head provide initial conditions for vessel failure, melt release and ex-vessel accident progression.   The goals of the second part are to: (a) obtain a representative database of MELCOR solutions for characteristics of debris in the reactor lower plenum for different accident scenarios, and (b) develop a computationally efficient surrogate model (SM) that can be used in extensive uncertainty analysis for prediction of the debris bed characteristics.   MELCOR code coupled with genetic algorithm, random and grid sampling methods was used to generate a database of the full model solutions and to investigate in-vessel corium debris relocation in a Nordic BWR. Artificial neural networks (ANNs) with classification (grouping) of scenarios have been used for development of the SM in order to address the issue of chaotic response of the full model especially in the transition region.   The core relocation analysis shows that there are two main groups of scenarios: with relatively small (&lt;20 tons) and large (&gt;100 tons) amounts of total relocated debris in the reactor lower plenum. The domains are separated by transition regions, in which small variation of the input can result in large changes in the final mass of debris.  SMs using multiple ANNs with/without weighting between different groups effectively filter out the noise and provide a better prediction of the output cumulative distribution function, but increase the mean squared error compared to a single ANN. / Validering av datorkoder och kvantifiering av osäkerhetsfaktorer är viktiga delar vid säkerhetsanalys av kärnkraftsreaktorer. Datorkodanvändaren måste hantera ett stort antal osäkra parametrar vid beskrivningen av fysikaliska fenomen i flera dimensioner från mikro- till makroskala. För att göra analysresultaten mer robusta, är det viktigt att utveckla och tillämpa rutiner för att vägleda användaren vid kvantifiering av osäkerheter.Detta arbete syftar till att vidareutveckla metoder och förfaranden för validering av systemkoder och deras tillämpning på praktiska problem i säkerhetsanalysen. Arbetet delas in i två delar.Första delen presenterar validering av de termohydrauliska systemkoderna (STH) RELAP5 och TRACE vid analys av tvåfasinstabilitet i cirkulationsflödet.Målen för den första delen är att: (a) utveckla och tillämpa effektiva metoder för kalibrering av indatafiler och validering av STH mot flödesexperiment med tvåfas cirkulationsflödeinstabilitet och (b) granska datorkodernas förmåga att förutsäga momentana termohydrauliska parametrar och flödesregimer under transienta förlopp.Två metoder har utvecklats: en icke-automatisk procedur baserad på separat hantering av osäkra indataparametrar (UIPs) och en automatiserad metod som använder genetisk algoritm. Ett flertal uppmätta parametrar och systemresponser (SRQs) används i både kalibrering av osäkra parametrar i indatafilen och validering av RELAP5 och TRACE. Resultatet av modifikationer i hur RELAP5 identifierar olika flödesregimer, och särskilt hur detta påverkar datorkodens prediktioner av termohydrauliska parametrar, har studerats.Resultatet av valideringen visar att RELAP5 och TRACE kan återge det kvalitativa beteende av två-fas flödets instabilitet. Däremot kan ingen av koderna korrekt identifiera den momentana flödesregimen, det var därför ej möjligt att förutsäga experimentella värden på svängningsperiod och maximal inloppsflödeshastighet samtidigt. Resultatet belyser betydelsen av samtidig behandling av flera SRQs liksom olika experimentella flödesregimer för kvantitativ kodvalidering.Den andra delen av detta arbete behandlar härdnedbrytning och omfördelning till reaktortankens nedre plenumdel i en kokarvatten reaktor (BWR). Egenskaper hos härdrester i nedre plenum ger inledande förutsättningar för reaktortanksgenomsmältning, hur smältan rinner ut ur reaktortanken och händelseförloppet i reaktorinneslutningen.Målen i den andra delen är att: (a) erhålla en representativ databas över koden MELCOR:s analysresultat för egenskaperna hos härdrester i nedre plenum under olika händelseförlopp, och (b) utveckla en beräkningseffektiv surrogatsmodell som kan användas i omfattande osäkerhetsanalyser för att förutsäga partikelbäddsegenskaper.MELCOR, kopplad till en genetisk algoritm med slumpmässigt urval användes för att generera en databas av analysresultat med tillämpning på smältans omfördelning i reaktortanken i en Nordisk BWR.Analysen av hur härden omfördelas visar att det finns två huvudgrupper av scenarier: med relativt liten (&lt;20 ton) och stor (&gt; 100 ton) total mängd omfördelade härdrester i nedre plenum. Dessa domäner är åtskilda av övergångsregioner, där små variationer i indata kan resultera i stora ändringar i den slutliga partikelmassan. Flergrupps artificiella neurala nätverk med klassificering av händelseförloppet har använts för utvecklingen av en surrogatmodell för att hantera problemet med kaotiska resultat av den fullständiga modellen, särskilt i övergångsregionen. / <p>QC 20170309</p>
113

Optimization of Section Points Locations in Electric Power Distribution Systems : Development of a Method for Improving the Reliability / Optimal placering av sektioneringspunkter : Utveckling av metod för att förbättra tillförlitligheten

Johansson, Joakim January 2015 (has links)
The power distribution system is the final link to transfer the electrical energy to the individual customers. It is distributed in a complex technical grid but is associated with the majority of all outages occurring. Improving its reliability is an efficient way to reduce the effects of outages. A common way of improving the reliability is by designing loop structures containing two connected feeders separated by a section point. The location of the section point will decide how the system structure is connected and its level of reliability. By finding the optimal location, an improved reliability may be accomplished. This Master’s thesis has developed a method of finding optimized section points locations in a primary distribution system in order to improve its reliability. A case study has been conducted in a part of Mälarenergi Elnät’s distribution system with the objective of developing an algorithm in MATLAB able to generate the optimal section points in the area. An analytical technique together with a method called Failure Modes and Effect Analysis (FMEA) as preparatory step, was used to simulate the impact of outages in various components based on historical data and literature reviews. Quantifying the impact was made by calculating the System Average Interruption Duration Index (SAIDI) and the Expected Cost (ECOST) which represented the reliability from a customer- and a socio-economic perspective. Using an optimization routine based on a Greedy algorithm an improvement of the reliability was made possible. The result of the case study showed a possible improvement of 28% on SAIDI and 41% on ECOST if optimizing the location of section points. It also indicated that loop structures containing mostly industry-, trade- and service-sectors may improve ECOST considerably by having a relocated section point. The analysis concluded that based on the considerable improvement the case study showed, a distribution system could be highly benefitted by optimizing the location of section points. The created algorithm may provide a helpful tool well representative for such a process in a cost-effective way. Applying it into a full size system was considered being possible but it would first require some additional improvements of reliability inputs and to resolve some fundamental issues like rated current in lines and geographical distances to substations.
114

Avkodning av cykliska koder - baserad på Euklides algoritm / Decoding of cyclic codes - based on Euclidean algorithm

Dahlin, Mathilda January 2017 (has links)
Today’s society requires that transformation of information is done effectively and correctly. In other words, the received message must correspond to the message being sent. There are a lot of decoding methods to locate and correct errors. The main purpose in this degree project is to study one of these methods based on the Euclidean algorithm. Thereafter an example will be illustrated showing how the method is used when decoding a three - error correcting BCH code. To begin with, fundamental concepts about coding theory are introduced. Secondly, linear codes, cyclic codes and BCH codes - in that specific order - are explained before advancing to the decoding process. The results show that correcting one or two errors is relatively simple, but when three or more errors occur it becomes much more complicated. In that case, a specific method is required. / Dagens samhälle kräver att informationsöverföring sker på ett effektivt och korrekt sätt, det vill säga att den information som når mottagaren motsvarar den som skickades från början. Det finns många avkodningsmetoder för att lokalisera och rätta fel. Syftet i denna uppsats är att studera en av dessa, en som baseras på Euklides algoritm och därefter illustrera ett exempel på hur metoden används vid avkodning av en tre - rättande BCH - kod. Först ges en presentation av grunderna inom kodningsteorin. Sedan introduceras linjära koder, cykliska koder och BCH - koder i nämnd ordning, för att till sist presentera avkodningsprocessen. Det visar sig att det är relativt enkelt att rätta ett eller två fel, men när tre eller fler fel uppstår blir det betydligt mer komplicerat. Då krävs någon speciell metod.
115

Aplica?a? das t?cnicas Path-relinking e Vocabulary buiding na melhoria de performance do algoritmo mem?tico para o problema do caixeiro viajante assim?trico

Silva Neto, Jo?o Saturnino da 10 July 2009 (has links)
Made available in DSpace on 2014-12-17T15:26:37Z (GMT). No. of bitstreams: 1 JoaoSSN.pdf: 5224762 bytes, checksum: 4021177e0509af10223ad40751ece2f0 (MD5) Previous issue date: 2009-07-10 / The present essay shows strategies of improvement in a well succeded evolutionary metaheuristic to solve the Asymmetric Traveling Salesman Problem. Such steps consist in a Memetic Algorithm projected mainly to this problem. Basically this improvement applied optimizing techniques known as Path-Relinking and Vocabulary Building. Furthermore, this last one has being used in two different ways, in order to evaluate the effects of the improvement on the evolutionary metaheuristic. These methods were implemented in C++ code and the experiments were done under instances at TSPLIB library, being possible to observe that the procedures purposed reached success on the tests done / O presente trabalho prop?e estrat?gias de melhoria em uma bem sucedida metaheur ?stica evolucionaria para a resolu??o do Problema do Caixeiro Viajante Assim?trico. Tal procedimento consiste em um algoritmo mem?tico projetado especificamente para esse problema. Essas melhorias t?m por base a aplica??o de t?cnicas de otimiza??o conhecidas como Path-Relinking e Vocabulary Building, sendo essa ?ltima t?cnica utilizada de dois modos distintos, com o intuito de avaliar os efeitos de melhoria sobre a metaheur?stica evolucion?ria empregada. Os m?todos propostos foram implementados na linguagem de programa??o C++ e os experimentos computacionais foram realizados sobre inst?ncias disponibilizadas na biblioteca TSPLIB, tornando poss?vel observar que os procedimentos propostos alcan?aram ?xito nos testes realizados
116

Att täcka en obekant yta med Spanning Tree Covering, Topologisk Täckande Algoritm, Trilobite / Covering an unknown area with Spanning Tree Covering, Topologisk Täckande Algoritm, Trilobite

Carlsson, Josefin, Johansson, Madeleine January 2005 (has links)
Det har blivit mer och mer vanligt med ny, datoriserad teknik i hemmen. Fler människor har ett allt stressigare liv och inte längre samma tid att ta hand om det egna hemmet. Behovet av en hjälpande hand med hushållsarbete har blivit allt större. Tänk själv att komma hem från jobbet eller skolan och så har golvet blivit skinande rent utan att Ni knappt har behövt göra någonting! Det finns idag flera olika robotar på marknaden för detta ändamål. En av dessa är den autonoma dammsugaren, som är det vi inriktat vår uppsats på. I huvudsak är uppsatsen inriktad på mjukvaran, som kan användas i en autonom dammsugare. Vi har valt att titta närmare på två stycken sökalgoritmer, som kan användas av autonoma mobila robotar, exempelvis en autonom dammsugare, som har i uppdrag att täcka en hel obekant yta. Dessa algoritmer är Spanning Tree Covering (STC) och ”A Topological Coverage Algorithm”, också kallad ”Landmark-based World Model” (fritt översatt till Topologisk Täckande Algoritm, TTA). Vi har också undersökt hur ett av Sveriges största märken på marknaden för autonoma dammsugare, nämligen Electrolux Trilobite ZA1, klarar sig i test. Vi har även analyserat testet med Trilobiten och jämfört detta med antaget beteende hos Trilobiten ifall den hade varit implementerad med sökalgoritmerna STC eller TTA. Hur fungerar sökalgoritmerna? Hur kan en autonom dammsugare hitta på en hel obekant yta? Hur beter sig Electrolux Trilobite ZA1? Täcker de alla en obekant yta? Är de effektiva?
117

Perron-Frobenius' Theory and Applications

Eriksson, Karl January 2023 (has links)
This is a literature study, in linear algebra, about positive and nonnegative matrices and their special properties. We say that a matrix or a vector is positive/nonnegative if all of its entries are positive/nonnegative. First, we study some generalities and become acquainted with two types of nonnegative matrices; irreducible and reducible. After exploring their characteristics we investigate and prove the two main theorems of this subject, namely Perron's and Perron-Frobenius' theorem. In short Perron's theorem from 1907 tells us that the spectral radius of a positive matrix is a simple eigenvalue of the matrix and that its eigenvector can be taken to be positive. In 1912, Georg Frobenius generalized Perron's results also to irreducible nonnegative matrices. The two theorems have a wide range of applications in both pure mathematics and practical matters. In real world scenarios, many measurements are nonnegative (length, time, amount, etc.) and so their mathematical formulations often relate to Perron-Frobenius theory. The theory's importance to linear dynamical systems, such as Markov chains, cannot be overstated; it determines when, and to what, an iterative process will converge. This result is in turn the underlying theory for the page-ranking algorithm developed by Google in 1998. We will see examples of all these applications in chapters four and five where we will be particularly interested in different types of Markov chains.  The theory in this thesis can be found in many books. Here, most of the material is gathered from Horn-Johnson [5], Meyer [9] and Shapiro [10]. However, all of the theorems and proofs are formulated in my own way and the examples and illustrations are concocted by myself, unless otherwise noted. / Det här är en litteraturstudie, inom linjär algebra, om positiva och icke-negativa matriser och deras speciella egenskaper. Vi säger att en matris eller en vektor är positiv/icke-negativ om alla dess element är positiva/icke-negativa. Inledningsvis går vi igenom några grundläggande begrepp och bekanta oss med två typer av icke-negativa matriser; irreducibla och reducibla. Efter att vi utforskat deras egenskaper så studerar vi och bevisar ämnets två huvudsatser; Perrons och Perron-Frobenius sats. Kortfattat så säger Perrons sats, från 1907, att spektralradien för en positiv matris är ett simpelt egenvärde till matrisen och att dess egenvektor kan tas positiv. År 1912 så generaliserade Georg Frobenius Perrons resultat till att gälla också för irreducibla icke-negativa matriser.  De två satserna har både många teoretiska och praktiska tillämpningar. Många verkliga scenarios har icke-negativa mått (längd, tid, mängd o.s.v) och därför relaterar dess matematiska formulering till Perron-Frobenius teori. Teorin är betydande även för linjära dynamiska system, såsom Markov-kedjor, eftersom den avgör när, och till vad, en iterativ process konvergerar. Det resultatet är i sin tur den underliggande teorin bakom algoritmen PageRank som utvecklades av Google år 1998. Vi kommer se exempel på alla dessa tillämpningar i kapitel fyra och fem, där vi speciellt intresserar oss för olika typer av Markov-kedjor. Teorin i den här artikeln kan hittas i många böcker. Det mesta av materialet som presenteras här har hämtats från Horn-Johnson [5], Meyer [9] och Shapiro [10]. Däremot är alla satser och bevis formulerade på mitt eget sätt och alla exempel, samt illustrationer, har jag skapat själv, om inget annat sägs.
118

Future-proofing Video Game Agents with Reinforced Learning and Unity ML-Agents / Framtidssäkring av datorspelsagenter med förstärkningsinlärning och Unity ML-Agents

Andersson, Pontus January 2021 (has links)
In later years, a number of simulation platforms has utilized video games as training grounds for designing and experimenting with different Machine Learning algorithms. One issue for many is that video games usually do not provide any source code. The Unity ML-Agents toolkit provides both example environments and state-of-the-art Machine Learning algorithms in an attempt solve this. This has sparked curiosity in a local game company which wished to investigate the incorporation of machine-learned agents into their game using the toolkit. As such, the goal was to produce high performing, integrable agents capable of completing locomotive tasks. A pilot study was conducted which contributed with insight in training functionality and aspect which were important to producing a robust behavior model. With the use of Proximal Policy Optimization and different training configurations several neural network models were produced and evaluated on existing and new data. Several of the produced models displayed promising results but did not achieve the defined success rate of 80%. With some additional testing it is believed that the desired result could be reached. Alternatively, different aspect of the toolkit like Soft Actor Critic and Curriculum Learning could be investigated. / På senare tid har ett handfull simulationsplattformar använt datorspel som en träningsmiljö för att designa och experimentera med olika maskininlärningsalgoritmer. Ett problem för många är att dessa spel vanligtvis inte tillhandahåller någon källkod. Unity ML-Agents toolkit ämnar lösa behovet genom att erbjuda befintliga träningsmiljöer tillsammans med de senaste maskininlärningsalgoritmerna. Detta har väckt intresset hos ett lokalt spelföretag som vill undersöka möjligheten att integrera maskininlärda agenter i ett av deras spel. Som följd formulerades målet att skapa högpresterande och integrerbara agenter kapabla att utföra lokomotoriska uppgifter. En förstudie genomfördes och tillhandagav nyttig information om träningsfunktionalitet och kringliggande aspekter om att producera robusta beteendemodeller. Med hjälp av proximal policyoptimering och olika träningskonfigurationer skapades modeller av neurala nätverk som utvärderades på befintlig respektive ny data. Flertalet modeller visade lovande resultat men ingendera nådde det specificerade prestandamålet på 80%. Tron är att med ytterligare tester hade ett önskat resultat kunnat bli nått. Fortsättningsvis är det även möjligt att undersöka andra lärotekniker inkluderade i ML-Agent verktyget.
119

Particle-based Stochastic Volatility in Mean model / Partikel-baserad stokastisk volatilitet medelvärdes model

Kövamees, Gustav January 2019 (has links)
This thesis present a Stochastic Volatility in Mean (SVM) model which is estimated using sequential Monte Carlo methods. The SVM model was first introduced by Koopman and provides an opportunity to study the intertemporal relationship between stock returns and their volatility through inclusion of volatility itself as an explanatory variable in the mean-equation. Using sequential Monte Carlo methods allows us to consider a non-linear estimation procedure at cost of introducing extra computational complexity. The recently developed PaRIS-algorithm, introduced by Olsson and Westerborn, drastically decrease the computational complexity of smoothing relative to previous algorithms and allows for efficient estimation of parameters. The main purpose of this thesis is to investigate the volatility feedback effect, i.e. the relation between expected return and unexpected volatility in an empirical study. The results shows that unanticipated shocks to the return process do not explain expected returns. / Detta examensarbete presenterar en stokastisk volatilitets medelvärdes (SVM) modell som estimeras genom sekventiella Monte Carlo metoder. SVM-modellen introducerades av Koopman och ger en möjlighet att studera den samtida relationen mellan aktiers avkastning och deras volatilitet genom att inkludera volatilitet som en förklarande variabel i medelvärdes-ekvationen. Sekventiella Monte Carlo metoder tillåter oss att använda icke-linjära estimerings procedurer till en kostnad av extra beräkningskomplexitet. Den nyligen utvecklad PaRIS-algoritmen, introducerad av Olsson och Westerborn, minskar drastiskt beräkningskomplexiteten jämfört med tidigare algoritmer och tillåter en effektiv uppskattning av parametrar. Huvudsyftet med detta arbete är att undersöka volatilitets-återkopplings-teorin d.v.s. relationen mellan förväntad avkastning och oväntad volatilitet i en empirisk studie. Resultatet visar på att oväntade chockar i avkastningsprocessen inte har förklarande förmåga över förväntad avkastning.
120

Exploration Strategies for Robotic Vacuum Cleaners / Strategier för utforskning med robotdammsugare

Navarro Heredia, Sofia January 2018 (has links)
In this thesis, an exploration mode for the PUREi9 robotic vacuum cleaner is implemented. This exploration would provide information for optimizing the cleaning path beforehand, and would allow the robot to relocalize itself or the charger more easily in case it gets lost. Two elements are needed in order to implement an exploration mode; first, an exploration algo-rithm which will decide the next position of the robot in order to obtain useful information about the environment (unknown areas, empty spaces, obstacles...), and second, an exploration map which stores that information and is updated each time a new relevant position is reached. These elements are related and generally both are required for performing successfully the exploration of a specific environment. A frontier-based strategy is adopted for the exploration algorithm, together with occupancy grid maps. This strategy has long been regarded as a key method for autonomous robots working in unknown or changing environments. The idea of frontier-based algorithms is to divide the environ-ment into cells of regular size and drive the robot to the frontiers between cells with no obstacles and cells for which no information has been gathered. It plans one step ahead by choosing a lo-cation which provides new environment information, instead of planning in advance all locations where the robot needs to acquire new sensor information. Based on frontier strategy, two different exploration algorithms are implemented in the project. The first one is called "random frontier strategy", which chooses arbitrarily the frontier to go among the frontiers set. The second is called "closest frontier strategy", which chooses the closest frontier as the NBV (Next Best View) the robot should drive to. A path planning algorithm, based on Dijkstra’s algorithm and a node graph, has also been implemented in order to guide the robot towards the frontiers. The two methods have been compared by means of simulations in different environments. In addition, both exploration strategies have been tested on a real device. It is found that the closest frontier strategy is more efficient in terms of path length between scanning points, while both methods give a similar exploration ratio, or percentage of fully explored cells within the final map. Some additional work is required in order to improve the performance of the exploration method in the future, such as detecting unreachable frontiers, implementing a more robust path planning algorithm, or filtering the laser measurements more extensively. / I den här rapporten har vi implementerat en utforskningsmod för robotdammsugaren Pure i9. Sådan utforskning skulle ge underlag för att optimera städmönstret i förhand och låta roboten relokalisera sig själv eller laddaren om den tappar bort sig. För att implementera utforskning behövs två saker. För det första krävs en algoritm för utforsk-ning, som bestämmer nästa position för roboten, med målet att samla användbar information om omgivningen (okända eller fria områden, hinder etc.) För det andra krävs en karta som lagrar informationen och uppdateras varje gång roboten når en relevant ny position. Dessa två hänger ihop och i allmänhet krävs båda för att framgångsrikt utforska ett specifikt område. Vi har valt en front-baserad strategi för utforskningsalgoritmen, tillsammans med en rutnäts-karta med sannolikheten för hinder. Denna strategi har länge betraktats som en nyckelmetod för autonoma robotar som arbetar i okända eller föränderliga miljöer. Idén med front-baserade strate-gier är att köra roboten till fronterna mellan celler utan hinder och celler där information saknas. Den planerar ett steg framåt genom att välja en plats som ger ny information om miljön, istället för att i förväg planera alla platser där roboten behöver samla in ny sensorinformation. Baserat på front-strategi, har vi implementerat två utforskningsalgoritmer i projektet. Den första är en slumpmässig strategi, som godtyckligt väljer en front att åka till, ur hela mängden av fronter. Den andra är en närmaste fronten-strategi som väljer den närmaste fronten som den nästa bästa utsiktspunkt som roboten ska åka till. Vi har också implementerat en algoritm för banplanering, baserad på Dijkstras algoritm och en nod-graf, för att styra roboten mot fronterna. Vi har jämfört de två metoderna genom simulering i olika miljöer. Dessutom har båda utforsk-ningsstrategierna testats på en riktig enhet. Närmaste fronten-strategin är effektivare med avse-ende på banlängd mellan skanningspunkter, medan båda metoderna ger liknande utforsknings-grad, eller samma procentandel av fullt utforskade celler inom den slutliga kartan.

Page generated in 0.5086 seconds