Autonomous Driving has recently gained a lot of recognition and provides challenging research with an aim to make transportation safer, more convenient and efficient. This emerging technology also has widespread applications and implications beyond all current expectations in other fields of robotics. Environment perception is one of the big challenges for autonomous robots. Though a lot of methods have been developed to utilize single sensor based approaches, since different sensor types have different operational characteristics and failure modes, they compliment each other. Different sensors provide different sets of data, which creates difficulties combining information to form a unified picture. The proposed solution consists of low level sensor fusion of LIDAR and stereo camera data using an occupancy grid framework. Bayesian inference theory is utilized and a real time system has been implemented on a 1/10 scale robot vehicle. The result of the thesis shows that it is possible to use a 2D LIDAR and stereo camera to build a map of the environment. The implementation focuses on the practical issues like blind spots of individ sensors. Overall, the fused occupancy grid gives better result than occupancy grids from individual sensors. Sensor confidence is higher for the camera since frequency of mapping of a 2D LIDAR is low / Autonom körning har nyligen fått mycket erkännande och erbjuder utmanande forskningsmöjligheter med målen att göra transporter säkrare, bekvämare och effektivare. Den framväxande tekniken har också tillämpningar och konsekvenser inom andra områden av robotteknik i en omfattning som vida överträffat förväntningarna. Att uppfatta den omgivande miljön är en av de stora utmaningarna för autonoma robotar. Även om många metoder har utvecklats där en enda sensor används, har de bästa resultaten uppnåtts genom en kombination av sensorer. Olika sensorer ger olika uppsättningar data, vilket skapar svårigheter att kombinera information för att bilda en enhetlig bild. Den föreslagna lösningen består av lågfrekvent sensorfusion av LIDAR och stereokamera med användning av rutnätsramar. Bayesisk inferensteori har använts och ett realtidssystem har implementerats på robotfordon i skala 1/10. Resultatet av examensarbetet visar att det är möjligt att använda en 2D-LIDAR och en stereokamera för att bygga en omgivningskarta. Genomförandet fokuserar på praktiska problem såsom problem med döda vinkeln hos dessa sensorer. Generellt ger det kombinerade rutnätet bättre resultat än det från enskilda sensorer. Sensortillförlitligheten är högre för kameran då 2D-LIDAR kartlägger med mycket lägre frekvens
Identifer | oai:union.ndltd.org:UPSALLA1/oai:DiVA.org:kth-249491 |
Date | January 2019 |
Creators | Rawat, Pallav |
Publisher | KTH, Skolan för elektroteknik och datavetenskap (EECS) |
Source Sets | DiVA Archive at Upsalla University |
Language | English |
Detected Language | Swedish |
Type | Student thesis, info:eu-repo/semantics/bachelorThesis, text |
Format | application/pdf |
Rights | info:eu-repo/semantics/openAccess |
Relation | TRITA-EECS-EX ; 2019:78 |
Page generated in 0.0012 seconds