Return to search

Reaaliaikainen visuaalinen odometria

Visuaalisella odometrialla estimoidaan ajoneuvon, ihmisen tai robotin liikettä käyttäen syötteenä kuvaa yhdestä tai useammasta kamerasta. Sovelluskohteita on robotiikassa, autoteollisuudessa, asustemikroissa ja lisätyssä todellisuudessa. Se on hyvä lisä navigointijärjestelmiin, koska se toimii ympäristöissä missä GPS ei toimi. Visuaalinen odometria kehitettiin pyöräodometrian korvaajaksi, koska sen käyttö ei ole riippuvainen maastosta ja liikkumismuodosta.

Tässä työssä tutkitaan ja kehitetään visuaalisen odometrian menetelmää reaaliaikaiseen sulautettuun järjestelmään. Työssä esitellään visuaalisen odometrian perusteet ja sen sisältämät osamenetelmät. Lisäksi esitellään yhtäaikainen paikallistaminen ja kartoitus (SLAM), jonka osana visuaalinen odometria voi esiintyä.

Kehitettyä visuaalisen odometrian menetelmää on tarkoituksena käyttää Parrotin robottihelikopterille AR.Drone 2.0:lle tunnistamaan sen liikkeet. Tällöin robottihelikopteri saa tarpeeksi tietoa ympäristöstään lentääkseen itsenäisesti. Työssä toteutetaan algoritmi robotin tallentaman videomateriaalin tulkitsemiseen. Työssä toteutettu menetelmä on monokulaarinen SLAM, jossa käytetään yhden pisteen RANSAC-menetelmää yhdistettynä käänteisen syvyyden EKF:ään. Menetelmän piirteenirroitus ja vastinpisteiden etsintä korvataan reaaliaikaisella sulautetulle järjestelmälle sopivalla menetelmällä.

Algoritmin toiminta testataan mittaamalla sen suoritusaika useilla kuvasekvensseillä ja analysoimalla sen piirtämää karttaa kameran liikkeestä. Lisäksi tarkastellaan sen antamien navigointitietojen todenmukaisuutta. Toteutetun järjestelmän toimintaa analysoidaan visuaalisesti ja sen toimintaa tarkastellaan suhteessa vertailumenetelmään. Työssä toteutettu visuaalisen odometrian menetelmä todetaan toimivaksi ratkaisuksi reaaliaikaiselle sulautetulle järjestelmälle tietyt rajoitukset huomioiden. / Visual odometry is the process of estimating the motion of a vehicle, human or robot using the input of a single or multiple cameras. Application domains include robotics, wearable computing, augmented reality and automotive. It is a good supplement to the navigation systems because it operates in the environments where GPS does not. Visual odometry was developed as a substitute for wheel odometry, because its use is not dependent of the terrain. Visual odometry can be applied without restrictions to the way of movement (wheels, flying, walking).

In this work visual odometry is examined and developed to be used in real-time embedded system. The basics of visual odometry are discussed. Furthermore, simultaneous localization and mapping (SLAM) is introduced. Visual odometry can appear as a part of SLAM.

The purpose of this work is to develop visual odometry algorithm for Parrot’s robot helicopter AR.Drone 2.0, so it could fly independently in the future. The algorithm is based on Civera’s EKF-SLAM method, where feature extraction is replaced with an approach used earlier in global motion estimation.

The operation of the algorithm is tested by measuring its performance time with different image sequences and by analyzing the movement of the camera from the map drawn by it. Furthermore, the reality of the navigation information is examined. The operation of the executed system is visually analyzed on the basis of the video and its operation is examined in relation to the comparison method. Developed visual odometry method is found to be a functional solution to the real-time embedded system under certain constraints.

Identiferoai:union.ndltd.org:oulo.fi/oai:oulu.fi:nbnfioulu-201312021943
Date05 December 2013
CreatorsPärkkä, J. (Jarmo)
PublisherUniversity of Oulu
Source SetsUniversity of Oulu
LanguageFinnish
Detected LanguageFinnish
Typeinfo:eu-repo/semantics/masterThesis, info:eu-repo/semantics/publishedVersion
Formatapplication/pdf
Rightsinfo:eu-repo/semantics/openAccess, © Jarmo Pärkkä, 2013

Page generated in 0.0187 seconds