Spelling suggestions: "subject:"saccades trajectory planning""
1 |
Robot mimicking human eye movements to test eye tracking devices / Robot som härmar mänskliga ögonrörelser för att testa eye tracking utrustningTANNFELT WU, JENNIFER January 2018 (has links)
Testing of eye tracking devices is done by humans looking at well defined stimuli. This way of testing eye trackers is not accurate enough because of human errors. The goal of this thesis is to design and construct reliable robotic eyes that can mimic the behaviour of human eyes. After a pre-study where human eyes, eye tracking and previous robotic eyes were studied, system requirements and specifications were formulated. Based on the re-quirements important design decisions were taken such as the use of RC servo motors, push rods, microcontrollers and a Raspberry Pi. Later the inverse kinematics of the movements and a saccade’s path planing were modelled. Additional mechanical de-sign features are rotation of the head and adjustment of the interpupillary distance. The robot is controlled using two types of application programming interfaces (APIs.) The first API is used to control the motors and the second API builds on top of the first API but is used to design paths of different eye movements between fixation points. All eye movement calculations are computed on the Raspberry Pi before the movements are communicated in real time to the microcontroller which directly performs the control signal. The robot was tested using the integrated lasers in the eyes and a video cam-era with slow motion capabilities to capture the projected laser dot on a wall. The properties tested are saccade, smooth pursuit, head rotation and eye tracking device compatibility. The results show high precision but not enough accuracy. The robot needs a few mechanical improvements such as removing the backlash in the rotat-ing joints on the eyes, decreasing the flexibility of some of the 3D printed parts and assuring symmetry in the design. The robot is a powerful testing platform capa-ble of performing all eye movement types with high-resolution control of both eyes independently through an API. / Eyetracking utrustning testas av människor som tittar på väldefinierade stimuli. Att testa eyetracking på det här sättet är inte tillräckligt noggrant på grund av mänskligt fel. Malet med detta examensarbete är att designa och bygga en pålitlig ögonrobot som kan härma beteendet hos mänskliga ögon. Efter en förstudie om mänskliga ögon, eyetracking och existerade robotögon formulerades system-krav och -specikationer. Baserat på dessa krav togs en del betydande designbeslut som att använda RC servomotorer, tryckstånger, mikrokontrollers och en Raspberry Pi. Senare modellerades den inverterade kinematiken av rörelserna och saccaders banor. Ytterligare mekaniska funktioner är rotation av huvudet och justering av avståndet mellan pupillerna. Roboten styrs med hjälp av två applikationsprogrammeringsgränssnitt (API). Det första API:et används för att styra motorerna och det andra API:et bygger på det första men används för att bygga rörelsevanor av olika ögonrörelser mellan fixationspunkter. Alla ögonrörelseberåkningar görs på Raspberry Pin innan rörelsen kommuniceras i realtid till mikrokontrollen som på direkten exekverar styrsignalen. Roboten testades med integrerade lasrar i ögonen och en kamera med slow motion funktionalitet för att fånga laser prickens projektion på en vägg. Funktioner som testades är saccader, smooth pursuit, huvudrotation och eyetracking kompatibilitet. Resultat visade en hög precision men inte tillräckligt hög noggrannhet. Roboten behöver några få mekaniska förbättringar som att få bort glappet i de roterande lederna på ögat, minska flexibiliteten i några av de 3D-utskrivna delarna och garantera symmetri i designen. Roboten är en kraftfull testplatform kapabel till att utföra alla typer av ögonrörelser med högupplöst kontroll av båda ögonen var för sig genom ett API.
|
Page generated in 0.1068 seconds