• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 61
  • 51
  • 4
  • 2
  • 2
  • Tagged with
  • 120
  • 76
  • 40
  • 34
  • 30
  • 29
  • 25
  • 25
  • 21
  • 20
  • 19
  • 15
  • 14
  • 13
  • 13
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Environment Perception for Autonomous Driving : A 1/10 Scale Implementation Of Low Level Sensor Fusion Using Occupancy Grid Mapping

Rawat, Pallav January 2019 (has links)
Autonomous Driving has recently gained a lot of recognition and provides challenging research with an aim to make transportation safer, more convenient and efficient. This emerging technology also has widespread applications and implications beyond all current expectations in other fields of robotics. Environment perception is one of the big challenges for autonomous robots. Though a lot of methods have been developed to utilize single sensor based approaches, since different sensor types have different operational characteristics and failure modes, they compliment each other. Different sensors provide different sets of data, which creates difficulties combining information to form a unified picture. The proposed solution consists of low level sensor fusion of LIDAR and stereo camera data using an occupancy grid framework. Bayesian inference theory is utilized and a real time system has been implemented on a 1/10 scale robot vehicle. The result of the thesis shows that it is possible to use a 2D LIDAR and stereo camera to build a map of the environment. The implementation focuses on the practical issues like blind spots of individ sensors. Overall, the fused occupancy grid gives better result than occupancy grids from individual sensors. Sensor confidence is higher for the camera since frequency of mapping of a 2D LIDAR is low / Autonom körning har nyligen fått mycket erkännande och erbjuder utmanande forskningsmöjligheter med målen att göra transporter säkrare, bekvämare och effektivare. Den framväxande tekniken har också tillämpningar och konsekvenser inom andra områden av robotteknik i en omfattning som vida överträffat förväntningarna. Att uppfatta den omgivande miljön är en av de stora utmaningarna för autonoma robotar. Även om många metoder har utvecklats där en enda sensor används, har de bästa resultaten uppnåtts genom en kombination av sensorer. Olika sensorer ger olika uppsättningar data, vilket skapar svårigheter att kombinera information för att bilda en enhetlig bild. Den föreslagna lösningen består av lågfrekvent sensorfusion av LIDAR och stereokamera med användning av rutnätsramar. Bayesisk inferensteori har använts och ett realtidssystem har implementerats på robotfordon i skala 1/10. Resultatet av examensarbetet visar att det är möjligt att använda en 2D-LIDAR och en stereokamera för att bygga en omgivningskarta. Genomförandet fokuserar på praktiska problem såsom problem med döda vinkeln hos dessa sensorer. Generellt ger det kombinerade rutnätet bättre resultat än det från enskilda sensorer. Sensortillförlitligheten är högre för kameran då 2D-LIDAR kartlägger med mycket lägre frekvens
42

Localisation and mapping in smoke filled environments : A study of robot perception in harsh conditionsusing practical experiments

Zakardissnehf, Martin, Jernström, Agnes January 2017 (has links)
Det här examensarbetet är utfört i samarbete med Realisator Robotics, vilka förtillfället utvecklar en robot, FUMO, som ska hjälpa till vid brandbekämpning. Målet med examensarbetet är att implementera autonom navigering från en punkt till en annan samt SLAM (Simultaneous Localisation and Mapping, simultan lokaliseringoch kartläggning) funktionalitet. Dessa funktioners färmåga att hantera rök ska även testas. Efter en inledande litteraturstudie på olika sätt att lösa en robots perception i rök så blev det bestämt att använda en så kallad ”multi-echo LIDAR” som huvudsensor. Alla implementationer är gjorda i robotoperativsystemet ROS och öppenkällkod har använts för vissa funktioner. De första testerna av systemet gjordes i en simulerad miljö. I den så approximerades röken utav Gaussiskt brus. Det blev dock senare fastställt att detta inte lyckas representera alla effekter utav riktig rök. De delar dock vissa beteenden. De slutgiltiga testerna utfördes i en testanläggning för rökdykare, där algoritmerna testades i olika nivåer av rök. Dessa tester visade att multi-echo LIDAR:n klarade av att se igenom lätt till mediumtjock rök, det vill säga rök som kan ses igenom upp till ett par meter med blotta ögat. SLAMalgoritmen kunde i dessa fall generera användbara kartor. När det kontinuerligt lades till ny rök till testområdet så blev kartorna fragmenterade och oläsliga. Den autonoma navigeringen testades inte i rök på grund av säkerhetsrisker. Däremot så testades lokaliseringen som den bygger på genom att manuellt köra roboten genom röken. Resultaten från detta tyder på att det är möjligt att använda den autonoma navigeringen under rökfyllda förhållanden. / This thesis is carried out together with Realisator Robotics who is currently developinga fire-fighting assistant robot, FUMO. The aim of the thesis is to implementautonomous path planning and SLAM (Simultaneous Localisation and Mapping) functionality on the existing FUMO prototype as well as to test how robust these are to smoke. After an initial literature study on different ways of robot perception in smokeit was decided to use a multi-echo LIDAR as the main sensor for these tasks. All implementations were done in ROS (Robot Operating System) and open sourcecode was used for some functions. Testing of the system was first performed in asimulated environment. In this environment smoke was approximated using Gaussiannoise. However it was later concluded that this did not accurately portrayall effects of real smoke. It does however share some similarities. The final tests were performed at a testing facility for smoke divers where the algorithms were tested in different levels of smoke. The tests showed that the multi-echo LIDARmanaged to see through light to medium smoke, in other words smoke which you could see through with your bare eyes to up to a few meters. In those conditions the SLAM algorithm was able to create usable maps. When new smoke was continuously added to the already smoke filled environment the maps became fragmented and unreadable. The autonomous path planning was not tested in smoke due to safety concerns. However the localisation which the path planning is based onwas tested when driving the robot manually through the smoke. The result fromthis hints at a possibility of successfully using the path planning in these conditions.
43

Learning Model Predictive Control for Autonomous Racing : Improvements and Model Variation in Model Based Controller

Xu, Shuqi January 2018 (has links)
In this work, an improved Learning Model Predictive Control (LMPC)architecture for autonomous racing is presented. The controller is referencefree and is able to improve lap time by learning from history data of previouslaps. A terminal cost and a sampled safe set are learned from history data toguarantee recursive feasibility and non-decreasing performance at each lap.Improvements have been proposed to implement LMPC on autonomousracing in a more efficient and reliable way. Improvements have been doneon three aspects. Firstly, system identification has been improved to be runin a more efficient way by collecting feature data in subspace, so that thesize of feature data set is reduced and time needed to run sorting algorithmcan be reduced. Secondly, different strategies have been proposed toimprove model accuracy, such as least mean square with/without lifting andGaussian process regression. Thirdly, for reducing algorithm complexity,methods combining different model construction strategies were proposed.Also, running controller in a multi-rate way has also been proposed toreduced algorithm complexity when increment of controller frequency isnecessary. Besides, the performance of different system identificationstrategies have been compared, which include strategy from newton’s law,strategy from classical system identification and strategy from machinelearning. Factors that can possibly influence converged result of LMPCwere also investigated, such as prediction horizon, controller frequency.Experiment results on a 1:10 scaled RC car illustrates the effectiveness ofproposed improvements and the difference of different system identificationstrategies. / I detta arbete, presenteras en förbättrad inlärning baserad modell prediktivkontroll (LMPC) för autonom racing, styralgoritm är referens fritt och har visatsig att kunna förbättra varvtid genom att lära sig ifrån historiska data från tidigarevarv. En terminal kostnad och en samplad säker mängd är lärde ifrån historiskdata för att garantera rekursiv genomförbarhet och icke-avtagande prestanda vidvarje varv.förbättringar har presenterats för implementering av LMPC på autonom racingpå ett mer effektivt och pålitligt sätt. Förbättringar har gjorts på tre aspekter.Först, för system identifiering, föreslår vi att samlar feature data i delrummet,så att storlek på samlade datamängd reduceras och tiden som krävs för attköra sorteringsalgoritm minskas. För det andra, föreslår vi olika strategierför förbättrade modellnoggrannheten, såsom LMS med/utan lyft och Gaussianprocess regression. För det tredje, För att reducerar komplexitet för algoritm,metoder som kombinerar olika modellbygg strategier föreslogs. Att körastyrenhet på ett multi-rate sätt har också föreslagits till för att reduceraalgoritmkomplexitet då inkrementet av styrfrekvensen är nödvändigt.Prestanda av olika systemidentifiering har jämförts, bland annat, Newtonslag, klassisk systemidentifierings metoder och strategier från maskininlärning.Faktorer som eventuellt kan påverka konvergens av LMPC resultat har ocksåundersökts. Såsom, prediktions horisont, styrfrekvensen.Experimentresultat på en 1:10 skalad RC-bilen visar effektiviteten hos föreslagnaförbättringarna och skillnaderna i olika systemidentifierings strategier.
44

Data-Driven Motion Planning : With Application for Heavy Duty Vehicles / Datadriven rörelseplanering : Med tillämpning för tunga fordon

Palfelt, Oscar January 2022 (has links)
Motion planning consists of finding a feasible path of an object between an initial state and a goal state, and commonly constitutes a sub-system of a larger autonomous system. Motion planners that utilize sampling-based algorithms create an implicit representation of the search space via sampling said search space. Autonomous systems that rely on real-time motion planning benefit from the ability of these algorithms to quickly compute paths that are optimal or near optimal. For sampling-based motion planning algorithms, the sampling strategy greatly affects the convergence speed of finding these paths, i.e., how the sampling distribution is shaped within the search space. In baseline approaches, the samples may be drawn with uniform probability over this space. This thesis project explores a learning-based approach that can utilize experience from previous successful motion plans to provide useful information in novel planning scenarios, as a means of improvement over conventional motion planning methods. Specifically, the focus has been on learning the sampling distributions in both the state space and the control space of an autonomous ground vehicle. The innovatory parts of this work consist of (i) learning the control space sampling distributions, and (ii) learning said distributions for a tractor-trailer system. At the core of the method is an artificial neural network consisting of a conditional variational autoencoder. This artificial neural network is capable of learning suitable sampling distributions in both the state space and control space of a vehicle in different planning scenarios. The method is tested in four different environments and for two kinds of vehicles. Evaluation is partly done by comparison of results with a conventional motion planning algorithm. These evaluations indicates that the artificial neural network can produce valuable information in novel planning scenarios. Future work, primarily on how the artificial neural network may be applied to motion planning algorithms, is necessary to draw further conclusions. / Rörelseplanering består av att hitta en genomförbar bana för ett objekt mellan ett initialtillstånd och ett måltillstånd, och utgör vanligtvis ett delsystem av ett större autonomt system. Rörelseplanerare som använder provtagningssbaserade algoritmer skapar en implicit representation av sökutrymmet via provtagning av sökutrymmet. Autonoma system som förlitar sig på rörelseplanering i realtid drar nytta av dessa algoritmers förmåga att snabbt beräkna banor som är optimala eller nästan optimala. För provtagningssbaserade rörelseplaneringsalgoritmer påverkar provtagningsstrategin i hög grad konvergenshastigheten för att hitta dessa vägar, dvs. hur provtagningsfördelningen är formad inom sökutrymmet. I standardmetoder kan stickproven dras med jämn sannolikhet över detta utrymme. Detta examensarbete utforskar en lärande-baserat metod som kan utnyttja erfarenheter från tidigare lyckade rörelseplaner för att tillhandahålla användbar information i nya planeringsscenarier, som ett medel för förbättring jämfört med konventionella rörelseplaneringsmetoder. Specifikt har fokus legat på att lära sig provtagningssfördelningarna i både tillståndsrummet och styrsignals-rummet för ett autonomt markfordon. De nyskapande delarna av detta arbete består av att (i) lära sig kontrollutrymmessamplingsfördelningarna, och (ii) inlärning av nämnda provtagningsfördelningarna för ett traktor-släpsystem. Kärnan i metoden är ett artificiellt neuralt nätverk bestående av en conditional variational autoencoder. Detta artificiella neurala nätverk är kapabelt att lära sig lämpliga provtagningsfördelningar i både tillståndsrummet och kontrollrummet för ett fordon i olika planeringsscenarier. Metoden testas i fyra olika miljöer och för två olika av fordon. Utvärdering görs delvis genom jämförelse av resultat med en konventionell rörelseplaneringsalgoritm. Dessa utvärderingar tyder på att det artificiella neurala nätverket kan producera värdefull information i nya planeringsscenarier. Mer forskning, i första hand med hur det artificiella neurala nätverket kan tillämpas på rörelseplaneringsalgoritmer, är nödvändigt för att dra ytterligare slutsatser.
45

Handlungsempfehlungen zum autonomen Fahren: Arbeitsgruppe 3: Digitalisierung für den Mobilitätssektor: Zweiter Zwischenbericht

Bundesministerium für Verkehr und digitale Infrastruktur 24 March 2023 (has links)
Die Mobilitätswirtschaft in Deutschland und weltweit befindet sich in einem tiefgreifenden Strukturwandel. Digitalisierung, Vernetzung und Automatisierung verändern die automobilen Wertschöpfungsketten und die Mobilität der Zukunft grundlegend. Automatisierte und vernetzte Kraftfahrzeuge entlasten Fahrerinnen und Fahrer von Routine- Aufgaben, erhöhen die Verkehrssicherheit, bieten neue Möglichkeiten und Angebote im öffentlichen Personenverkehr und können sowohl zur Steigerung der Verkehrseffizienz als auch zur Reduzierung der Umweltbelastung beitragen. Neue Technologiefelder und Kompetenzen werden mit den klassischen Bereichen des Automobilbaus, des Maschinenbaus und der Elektrotechnik verknüpft. Autonome Fahrzeuge sind dabei wichtige Träger technolo gischer Anwendungen und Basisinnovationen (z. B. Technologien zur Umfelderkennung, Künstliche Intelligenz, Cloud Computing), von deren Entwicklung und Erprobung auch andere Industriezweige stark profitieren können. Automatisiertes und vernetztes Fahren sowie digitale Mobilität sind somit Treiber des Wandels und bieten erhebliche Chancen, um die Mobilität von morgen mit innovativen Produkten und neuen Dienstleistungen zu gestalten. Dieser Zwischenbericht legt den Schwerpunkt auf das Thema der autonomen Mobilität im Straßenverkehr, um die wesentlichen Voraussetzungen und Bedarfe zur Einführung von autonomer Mobilität zu identifizieren und damit eine wirksame Implementierung bis 2025 und 2030 zu erreichen. In diesen Zeiträumen müssen sich technische Möglichkeiten auf der Fahrzeugseite und infrastrukturelle Voraussetzungen ergänzen, um Nutzungseinschränkungen entgegenzuwirken. Für die Erreichung der Ziele hat die AG 3 zentrale Handlungsfelder identifiziert. Die zeitnahe Umsetzung der entsprechenden Handlungsempfehlungen ist Voraussetzung für die erfolgreiche und frühzeitige Einführung des automatisierten vernetzten Fahrens. 1. Das Typgenehmigungsverfahren für automatisierte Fahrzeuge muss modernisiert werden. Kurzfristig gilt es, klare Regeln zur Ausnahmegenehmigung zu schaffen, um automatisierte und autonome Anwendungen über Deutschland hinaus in den Verkehr bringen zu können. 2. Die Bereitstellung von statischen und dynamischen Infrastrukturdaten in hoher Qualität wird die Einführung von automatisierten Fahrfunktionen beschleunigen. Es gilt, einheitliche Standards zum Austausch von Mobilitätsdaten zu schaffen. Nur so kann eine einfache und weitreichende Vernetzung der Fahrzeuge und deren Integration in ein Mobilitätsökosystem gelingen. Es ist eine gemeinsame Umsetzungs-Roadmap zu definieren. 3. Der Rechtsrahmen, einschließlich des Personenbeförderungsrechts, sollte weiterentwickelt werden, um autonomes Fahren und eine Personenbeförderung ohne Fahrer zu ermöglichen. 4. Die digitale Transformation der Mobilität, insbesondere das automatisierte und vernetzte Fahren, muss durch einen gesellschaftlichen Beteiligungsprozess begleitet werden. Die identifizierten Handlungsfelder erfordern die ergebnisorientierte und konzertierte Zusammenarbeit zwischen Industrie, Politik, Zivilgesellschaft, Bund, Ländern und Kommunen. Die AG 3 empfiehlt daher auch, die autonome Mobilität im Rahmen eines Reallabors 2020/2021 zu erproben. Das Reallabor – ein Testraum für Innovation im Bereich von Digitalisierung und Mobilität – verfolgt das Ziel, die Mobilität von morgen bereits heute zu gestalten, einen quantifizierten Beitrag zu den Zielen der AG 3 abzuleiten und Mobilität durch die Möglichkeiten der Digitalisierung voranzutreiben.:1 Executive Summary 2 Zielbild autonome Mobilität 3 Handlungsfelder 3.1 Typgenehmigungsverfahren und Straßenverkehrsgesetz modernisieren 3.2 Infrastruktur digitalisieren und Datenaustausch verbessern 3.3 Autonome Flotten ermöglichen: Personenbeförderungsgesetz (PBefG) reformieren 3.4 Gesellschaftliche Akzeptanz durch Beteiligung stärken 4 Handlungsempfehlungen 5 Ausblick Glossar Impressum
46

Knowledge Distillation for Semantic Segmentation and Autonomous Driving. : Astudy on the influence of hyperparameters, initialization of a student network and the distillation method on the semantic segmentation of urban scenes.

Sanchez Nieto, Juan January 2022 (has links)
Reducing the size of a neural network whilst maintaining a comparable performance is an important problem to be solved since the constrictions on resources of small devices make it impossible to deploy large models in numerous real-life scenarios. A prominent example is autonomous driving, where computer vision tasks such as object detection and semantic segmentation need to be performed in real time by mobile devices. In this thesis, the knowledge and spherical knowledge distillation techniques are utilized to train a small model (PSPNet50) under the supervision of a large model (PSPNet101) in order to perform semantic segmentation of urban scenes. The importance of the distillation hyperparameters is studied first, namely the influence of the temperature and the weights of the loss function on the performance of the distilled model, showing no decisive advantage over the individual training of the student. Thereafter, distillation is performed utilizing a pretrained student, revealing a good improvement in performance. Contrary to expectations, the pretrained student benefits from a high learning rate when training resumes under distillation, especially in the spherical knowledge distillation case, displaying a superior and more stable performance when compared to the regular knowledge distillation setting. These findings are validated by several experiments conducted using the Cityscapes dataset. The best distilled model achieves 87.287% pixel accuracy and a 42.0% mean Intersection-Over-Union value (mIoU) on the validation set, higher than the 86.356% pixel accuracy and 39.6% mIoU obtained by the baseline student. On the test set, the official evaluation obtained by submission to the Cityscapes website yields 42.213% mIoU for the distilled model and 41.085% for the baseline student. / Att minska storleken på ett neuralt nätverk med bibehållen prestanda är ett viktigt problem som måste lösas, eftersom de begränsade resurserna i små enheter gör det omöjligt att använda stora modeller i många verkliga situationer. Ett framträdande exempel är autonom körning, där datorseende uppgifter som objektsdetektering och semantisk segmentering måste utföras i realtid av mobila enheter. I den här avhandlingen används tekniker för destillation av kunskap och sfärisk kunskap för att träna en liten modell (PSPNet50) under övervakning av en stor modell (PSPNet101) för att utföra semantisk segmentering av stadsscener. Betydelsen av hyperparametrarna för destillation studeras först, nämligen temperaturens och förlustfunktionens vikter för den destillerade modellens prestanda, vilket inte visar någon avgörande fördel jämfört med individuell träning av eleven. Därefter utförs destillation med hjälp av en utbildad elev, vilket visar på en god förbättring av prestanda. Tvärtemot förväntningarna har den utbildade eleven en hög inlärningshastighet när utbildningen återupptas under destillation, särskilt i fallet med sfärisk kunskapsdestillation, vilket ger en överlägsen och stabilare prestanda jämfört med den vanliga kunskapsdestillationssituationen. Dessa resultat bekräftas av flera experiment som utförts med hjälp av datasetet Cityscapes. Den bästa destillerade modellen uppnår 87.287% pixelprecision och ett 42.0% medelvärde för skärning över union (mIoU) på valideringsuppsättningen, vilket är högre än de 86.356% pixelprecision och 39.6% mIoU som uppnåddes av grundstudenten. I testuppsättningen ger den officiella utvärderingen som gjordes på webbplatsen Cityscapes 42.213% mIoU för den destillerade modellen och 41.085% för grundstudenten.
47

Autonomous Orbit Control with on-board collision risk management / Autonom banreglering med inbyggd kollisionsriskhantering

Labbe, Clément January 2021 (has links)
Many satellites have an orbit of reference defined according to their mission. The satellites need therefore to navigate as close as possible to their reference orbit. However, due to external forces, the trajectory of a satellite is disturbed and actions need to be taken. For now, the trajectories of the satellites are monitored by the operations of satellites department which gives appropriate instructions of navigation to the satellites. These steps require a certain amount of time and involvement which could be used for other purposes. A solution could be to make the satellites autonomous. The satellites would take their own decisions depending on their trajectory. The navigation control would be therefore much more efficient, precise and quicker. Besides, the autonomous orbit control could be coupled with an avoidance collision risk management. The satellites would decide themselves if an avoidance maneuver needs to be considered. The alerts of collisions would be given by the ground segment. In order to advance in this progress, this internship enables to analyse the feasibility of the implementation of the two concepts by testing them on an experiments satellite. To do so, tests plans were defined, tests procedures were executed and post-treatment tools were developed for analysing the results of the tests. Critical computational cases were considered as well. The tests were executed in real operations conditions. / Många satelliter har en referensbana definierad enligt deras uppdrag. Satelliterna behöver därför navigera så nära deras referensbana som möjligt. På grund av externa krafter störs dock satellitbanan och åtgärder måste vidtas. För närvarande övervakas satellitbanorna av satellitavdelningar på marken vilka ger lämpliga instruktioner för navigering till satelliterna. Dessa steg kräver en tid och engagemang som skulle kunna användas för andra ändamål. En lösning är att göra satelliterna autonoma. Satelliterna skulle då kunna ta sina egna beslut beroende på deras bana. Navigeringskontrollen skulle därför vara mycket mer effektiv, exakt och snabbare. Dessutom kan den autonoma banregleringen kopplas till riskhantering för undvikande av kollision med rymdskrot och andra satelliter. Satelliterna skulle själva avgöra om en undvikande manöver måste övervägas. Varningar om kollisioner skulle ges av marksegmentet. För att gå vidare i denna utveckling analyserar detta arbete genomförbarheten av implementeringen av olika koncept för undanmanövrar genom att testa dem på en experimentsatellit. För att göra detta definierades testplaner, testprocedurer utfördes och efterbehandlingsverktyg utvecklades för analys av testresultaten. Kritiska beräkningsfall togs fram. Testerna utfördes under verkliga driftsförhållanden.
48

RoBuoy : Dynamic Positioning of an Autonomous Buoy using GNSS / RoBuoy : Dynamisk Positionering av en autonom boj med GNSS

Anderberg, Erik, Olanders, Martin January 2021 (has links)
Buoys anchored to the seabed are often used for marking courses in competitive sailing and other water sports, but they may need to be relocated several times per day. To avoid the time and fuel consuming labour of raising and moving the anchors, a prototype of an autonomous buoy using electric motors to maintain its position was built and tested. The prototype buoy was built as a catamaran pontoon boat with one motor in each hull. To navigate it used a Global Navigation Satellite Systems receiver and a compass as sensors. Based on information from the sensors, a microcontroller regulated the buoy’s heading and velocity using proportional, integral and derivative control. The prototype was tested and evaluated in terms of design suitability, control system performance and dynamic positional precision. Except for leaking propeller axle seals the general design of the buoy was found suitable, as was the PID control system. However, while the GNSS position was sufficiently accurate when stationary, it would not register movement smaller than approximately 30 m. Consequently the buoy was only able to stay within 19.8 m of the target location on average. The performance maybe improved by either using a different GNSS receiver, or upgrading to Real Time Kinematics GNSS. / Bojar förankrade till havsbottnen används ofta för att märka ut banan i kappsegling eller andra vattensporter, men kan behöva flyttas flera gånger per dag. För att undvika det tids- och bränslekrävande arbetet av att lyfta och flytta ankarna byggdes och testades en prototyp av en autonomboj som håller sin position med hjälp av elmotorer. Prototypbojen byggdes som en pontonbåt i katamaranutförande med en motor i varje skrov. För att navigera använde den en mottagare för Global Navigation Satellite Systems och en kompass som sensorer. Baserat på information från sensorerna styrde en mikrokontroller bojens kurs och hastighet med proportionella, integrerande och deriverande regulatorer. Prototypen testades och utvärderades med avseende på konstruktionens lämplighet, reglersystemets prestanda och dynamisk positioneringsprecision. Förutom läckande propelleraxelstätningar ansågs den generella designen var lämplig, likaså PID-reglersystemet. Aven om den stillastående GNSS-positionen var tillräckligt exakt, så registrerades inte rörelser mindre än 30 m. Följaktligen kunde bojen bara hålla sig inom 19.8 m från målpositionen i genomsnitt. Prestandan skulle kunna förbättras med en annan GNSS mottagare eller genom att uppgradera till Real Time Kinematics GNSS.
49

ODAR : Obstacle Detecting Autonomous Robot / ODAR : Autonom hinderupptäckande robot

HALTORP, EMILIA, BREDHE, JOHANNA January 2020 (has links)
The industry for autonomous vehicles is growing. According to studies nine out of ten traffic accidents are due to the human factor, if the safety can get good enough in autonomous cars they have the potential to save thousands of lives every year. But obstacle detecting autonomous robots can be used in other situations as well, for example where the terrain is inaccessible for humans because of different reasons. In this project, a self navigating obstacle detecting robot was made. The robot uses ultrasonic sensors to detect obstacles and avoid them. An algorithm of the navigation of the robot was created and implemented to the Arduino. For driving the wheels, two servo motors were used. The robot consisted of three wheels, two in the back to which the servo motors were attached and one caster wheel in the front. This made it possible to implement differential drive which enabled quick and tight turns. Tests were performed which showed that the robot could successfully navigate in a room with various obstacles placed out. The placement of the sensors worked good considering the amount of sensors that was used. Improvements in detection of obstacles could have been made if more sensors had been used. The tests also confirmed that ultrasonic sensors works good for this kind of task. / Industrin för självkörande fordon växer. Enligt studier beror nio av tio trafikolyckor på den mänskliga faktorn, om säkerheten kan bli tillräckligt bra i självkörande bilar har de potential att rädda tusentals liv varje år. Men hinderupptäckande självkörande robotar kan användas i andra situationer också, till exempel i terräng som är otillgänglig för människor av olika anledningar.  I det här projektet har en självnavigerande hinderupptäckande robot byggts. Roboten använder ultraljudssensorer för att upptäcka hinder och unvika dem. En algoritm för navigationen av roboten skapades och implementerades i Arduinon. För drivningen av hjulen användes två servomotorer. Roboten hade tre hjul, två i den bakre änden till vilka servomotorerna var fästa och ett länkhjul fram. Det möjliggjorde differentialstyrning vilket också tillät snabba och snäva svängar.  Tester genomfördes som visade att roboten kunde navigera i ett rum med olika hinder utplacerade utan större problem. Placeringen av sensorerna fungerade bra med tanke på det antal sensorer som användes. Förbättringar av hinderupptäckningen hade kunnat göras om fler sensorer hade använts. Testerna bekräftade också att ultraljudssensorer fungerar bra för denna typ av uppgift.
50

Anomaly Detection for Monocular Camera-based Distance Estimation in Autonomous Driving / Avvikelsedetektion för monokulär kamerabaserad distanssuppskattning vid autonom körning

Ge, Muchen January 2024 (has links)
With the development of Autonomous Driving (AD) technology, there is a growing concern over the safety of the technology. Finding methods to improve the reliability of this technology becomes a current challenge. The AD system is composed of a perception module, a planning module, and a control module. The perception module, which provides information about the environment for the whole system, is a critical part of the AD system. This project aims to provide a better understanding of the functionality and reliability of the perception module of an AD system. In this project, a simple model of the perception module is built with YOLOv5-nano for object detection, StrongSORT for object tracking, and MonoDepth2 for depth estimation. The system takes images from a single camera as input and produces a time series of distance to the preceding vehicle. Fault injection technologies are utilized for testing the reliability of the system. Different faults, including weather factors, sensor faults, and encoder faults, are injected. The system behaviors under faults are observed and analyzed. Then multiple methods for anomaly detection are applied to the time series of distance data, including the statistic method ARIMA, and the machine learning methods MLP and LSTM. Comparisons are made among the anomaly detection methods, based on the efficiency and performance. The dataset in this project is generated by the CARLA simulator. / Med utvecklingen av tekniken för autonom körning (AD) växer oro över teknologins säkerhet. Att hitta metoder för att förbättra tillförlitligheten hos denna teknologi blir en aktuell utmaning. AD-systemet består av en perceptionsmodul, en planeringsmodul och en styrmodul. Perceptionsmo­dulen, som tillhandahåller information om miljön för hela systemet, är en kritisk del av AD-systemet. Detta projekt syftar till att ge en bättre förståelse för funktionaliteten och tillförlitligheten hos perceptionsmodulen i ett AD-system. I detta projekt byggs en enkel modell av perceptionsmodulen med YOLOv5-nano för objektdetektion, StrongSORT för objektföljning och MonoDepth2 för djupuppskattning. Systemet tar bilder från en enda kamera som inmatning och producerar en tidsserie av avståndet till det föregående fordonet. Felinjektionstekniker används för att testa systemets tillförlitlighet. Olika fel, inklusive väderfaktorer, sensorfel och maskininlärningsfel, injiceras. Systemets beteende under fel observeras och analyseras. Därefter tillämpas flera metoder för avvikelsedetektering på tidsserien av avstånd, inklusive statistikmetoden ARIMA samt maskininlärningsmetoderna MLP och LSTM. Jämförelser görs mellan avvikelsedetekteringsmetoderna, baserat på effektivitet och prestanda. Datamängden i detta projekt genereras av CARLA­simulatorn.

Page generated in 0.0415 seconds