441 |
Measuring the Differences Between Head and Gaze Orientation in Virtual Reality / Mätning av skillnaderna mellan huvud- och blick-orientering i virtuell verklighetQiu, Yuchen January 2017 (has links)
With the spread of virtual reality, eye tracker embedded VR headset gradually becomes a trend. A company such as Fove has already released its eye-tracking VR headset. However, the relatively low frame rate of eye tracker in VR HMD (e.g. 90 fps) makes tracking unstable with consumption of computing power. Understanding relations between gaze direction and head direction would be helpful, for example, to predict and compensate eye tracking with head tracking. In this research, a unity project consisted of a moving object with variable parameters was created to examine if there’s correlation exists between players’ head direction and gaze direction in eye’s smooth pursuit movement. Furthermore, object parameters, shape, color, distance, speed and horizontal moving degree were tested to explore whether they can elicit statistically significant differences in gaze prediction. Results revealed that while smoothly pursuing a moving object with the gaze, people’s horizontal and vertical component of head direction and gaze direction are separately linearly correlated. Moreover, formulas were calculated via linear regression to express their relations. As for object parameters, significant impacts were detected for all five parameters and interaction effect of speed and horizontal moving degree with various effect size, partial eta squared. / Med spridningen av den virtuella verkligheten blir Eye Tracking-inbyggd VR-headset gradvis en trend. Ett företag som Fove har redan släppt sitt Eye Tracking VR-headset. Emellertid gör den relativt låga bildhastigheten för ögonspårare i VR HMD (t.ex. 90 fps) spårning ostabil med förbrukning av datorkraft. Att förstå relationer mellan blickriktning och huvudriktning skulle vara till hjälp, till exempel för att förutsäga och kompensera ögonspårning med huvudspårning. I den här undersökningen, var ett Unity-projekt bestående av ett rörligt objekt med varierande parametrar skapad för att undersöka om det finns korrelation mellan spelarens huvudriktning och blickriktning i ögonens följerörelse. Dessutom testades objektparametrar; form, färg, avstånd, hastighet och horisontell rörelsegrad för att undersöka huruvida de kan framkalla statistiskt signifikanta skillnader i blickprediktionen. Resultaten avslöjade att medan man rör sig smidigt med ett rörligt föremål med blicken, är människornas horisontella och vertikala komponent i huvudriktning och blickriktning separat linjärt korrelerad. Dessutom beräknades formler via linjär regression för att uttrycka deras relationer. När det gäller objektparametrar detekterades signifikanta effekter för alla fem parametrarna och interaktionseffekten av hastighets-och horisontell rörelsegrad med olika effektstorlek, partiell Eta-kvadrat.
|
442 |
Gaze Teleportation in Virtual Reality / Blick Teleportation i Virtual RealityLinn, Andreas January 2017 (has links)
This paper reports preliminary investigations into gaze teleportation, a locomotion interaction inside virtual reality in which the user can push a button and teleport to the point at which they are looking. The results could help future application creators design intuitive locomotion interfaces to allow users to more easily scale virtual worlds larger than their play space. In a study consisting of 12 participants, gaze teleportation was compared to the conventional hand-tracked controller. Participants played a portion of Valve’s The Lab with an HTC Vive and a Tobii Eyetracker; half of the participants completed the set tasks with gaze teleportation, and the other half used hand-tracking. Using Likert questions, they then rated their experiences in terms of enjoyment, frustration, effort, distance, occlusion, immersion, and motion sickness. After answering the questions, the participants got to try both methods and were interviewed on their preferences and opinions. Our results suggest that gaze teleportation is an enjoyable, fast, intuitive, and natural locomotion method that performs similarly to hand-tracked teleportation but is preferred by users when they are given a choice. We conclude that gaze teleportation is a good fit for applications in which users are expected to locomote in their direction of focus without too many distractions. / I det här dokumentet rapporteras preliminära resultat av blickteleportation, en rörelseinteraktion för virtuella verkligheter där användaren kan trycka på en knapp och teleportera till den punkt som de tittar på. Resultaten kan hjälpa framtida applikationsskapare att designa intuitiva rörelsegränssnitt så att användarna lättare kan röra sig i virtuella världar som är större än deras spelrum. I en studie med 12 deltagare jämfördes blick med teleportation med den konventionella handkontroll metoden. Deltagarna spelade en del av Valve’s The Lab med en HTC Vive och en Tobii Eyetracker; Hälften av deltagarna slutförde de uppsatta uppgifterna med blickteleportation, och den andra hälften använde handmetoden. Med Likert-frågor bedömde de sedan sina erfarenheter när det gällde njutning, frustration, ansträngning, avstånd, ocklusion och rörelsesjuka. Efter att ha besvarat frågorna fick deltagarna prova båda metoderna och intervjuades om sina preferenser och åsikter. Våra resultat tyder på att blickteleportation är en trevlig, snabb, intuitiv och naturlig rörelseinteraktion som presterar likt handmetoden, men föredras av användarna när de får välja. Vi drar slutsatsen att blickteleportation passar bra för applikationer där användarna förväntas förflytta sig i samma riktning som deras fokus.
|
443 |
Using gaze aware regions in eye tracking calibration for users with low-attention span / Användning av regioner medvetna om blicken inom kalibrering av ögonstyrning för personer med låg fokuseringsförmågaLarsson, Joakim January 2017 (has links)
Eye trackers have enabled users to interact with computers for a long time. Yet, there are still many challenges left to be solved to make the interaction easy for users with development disabilities. Especially, when it comes to setup eye tracking where calibration of the eye tracker is important to get accurate estimation of where users are looking. This paper presents a study in which three modified versions of a calibration interface for eye trackers has been designed and evaluated by nine participants with development disabilities. These calibration interfaces used regions that were aware of when a user gazed at them, gaze-aware regions, and varied in the speed of which a stimulus moved during the calibration and how quickly the regions around the stimulus grew. Data was collected for each interface about interaction with the gaze-aware regions, time to complete a calibration, how many calibration points that were completed and gaze offset from the stimulus. No statistically significance was found between the modified interfaces for its efficiency, effectiveness and accuracy. However, a stimulus moving quicker and a gaze-aware region growing faster indicated a more effective and efficient calibration method without loss in accuracy. Also, if only screen engagement is involved using smooth-pursuit calibration could improve the calibration process. / Ögonstyrning har under en längre tid möjliggjort interaktion för användare. Dock är det fortfarande många utmaningar för att göra interaktionen lätt för användare med intellektuella funktionsnedsättningar. Framförallt när det kommer till inställningar för ögonstyrning, där kalibrering har visat sig vara viktigt för att ge en noggrann uppskattning vart användarna fokuserar. Denna rapport presenterar en studie där tre modifierade versioner av ett kalibreringsgränsnitt för ögonstyrning har blivit designat och utvärderat av nio deltagare med låg fokuseringsförmåga. Dessa gränssnitt använde regioner som var medvetna när en användare tittade inom dom, så kallade blickmedvetna regioner, och varierade i vilken hastighet ett stimuli rörde sig och hur snabbt regionerna runt ett stimuli växte. Data samlades in för varje gränssnitt om interaktionen med de blickmedvetna regionerna, tiden för att genomföra kalibreringen, antal avklarade kalibreringspunkter och avståndet mellan användarnas blick och stimuli. Ingen statistisk signifikans hittades mellan de modifierade gränssnitten mellan tidseffektivitet, effektivitet och noggrannhet. Däremot indikerades en mer tidseffektiv och effektiv kalibreringsmetod, utan minskad noggrannhet, genom användningen av ett stimuli som rör sig snabbare med blickmedvetna regioner som växer. Dessutom skulle kalibreringsprocessen kunna förbättras om enbart engagemang med skärmen används genom smooth-pursuit kalibrering
|
444 |
Calibration in Eye Tracking Using Transfer Learning / Kalibrering inom Eye Tracking genom överföringsträningMasko, David January 2017 (has links)
This thesis empirically studies transfer learning as a calibration framework for Convolutional Neural Network (CNN) based appearance-based gaze estimation models. A dataset of approximately 1,900,000 eyestripe images distributed over 1682 subjects is used to train and evaluate several gaze estimation models. Each model is initially trained on the training data resulting in generic gaze models. The models are subsequently calibrated for each test subject, using the subject's calibration data, by applying transfer learning through network fine-tuning on the final layers of the network. Transfer learning is observed to reduce the Euclidean distance error of the generic models within the range of 12-21%, which is in line with current state-of-the-art. The best performing calibrated model shows a mean error of 29.53mm and a median error of 22.77mm. However, calibrating heatmap output-based gaze estimation models decreases the performance over the generic models. It is concluded that transfer learning is a viable calibration framework for improving the performance of CNN-based appearance based gaze estimation models. / Detta examensarbete är en empirisk studie på överföringsträning som ramverk för kalibrering av neurala faltningsnätverks (CNN)-baserade bildbaserad blickapproximationsmodeller. En datamängd på omkring 1 900 000 ögonrandsbilder fördelat över 1682 personer används för att träna och bedöma flertalet blickapproximationsmodeller. Varje modell tränas inledningsvis på all träningsdata, vilket resulterar i generiska modeller. Modellerna kalibreras därefter för vardera testperson med testpersonens kalibreringsdata via överföringsträning genom anpassning av de sista lagren av nätverket. Med överföringsträning observeras en minskning av felet mätt som eukilidskt avstånd för de generiska modellerna inom 12-21%, vilket motsvarar de bästa nuvarande modellerna. För den bäst presterande kalibrerade modellen uppmäts medelfelet 29,53mm och medianfelet 22,77mm. Dock leder kalibrering av regionella sannolikhetsbaserade blickapproximationsmodeller till en försämring av prestanda jämfört med de generiska modellerna. Slutsatsen är att överföringsträning är en legitim kalibreringsansats för att förbättra prestanda hos CNN-baserade bildbaserad blickapproximationsmodeller.
|
445 |
Immersive Eye Tracking Calibration in Virtual Reality Using Interactions with In-game Objects / IMMERSIV ÖGONSPÅRNINGSKALIBRERING I VIRTUELL VERKLIGHET MED HJÄLP AV INTERAKTIONER MED IN-GAME OBJEKTSidenmark, Ludwig January 2017 (has links)
This thesis aims to investigate an eye tracking calibration method in virtual reality where users’ visual attention from eye-hand coordination is used when interacting with in-game items. This could potentially allow eye tracking calibration without interrupting the virtual experience, in comparison with traditional eye tracking calibration which is cumbersome, disruptive, and requires the user’s full attention. A user study was conducted with 15 participants in which they were tasked to complete three different interactions. The interactions tested were a knob, a slider and a liftable cube. Where in the virtual environment the participants were looking during the interactions was recorded and processed to enable comparison. The processed data was analysed to find factors that influenced the calibration method. Additionally, the results was analysed to find at what point during the interactions that has the most consistent eye tracking fixations on the interacted item, and therefore most potential for eye tracking calibration. The results showed that when the participant is interacting with the item and the interacted item is stationary, we received a fixation for around 60% of all trials at any time. When the interacted item was moving the results indicated a lower percentage. To increase this number, the gaze data should be filtered instead of using raw gaze data in order to avoid flickering from the eye tracker. Regarding factors that influence the calibration method, the choice of interaction has a big impact on the method’s success where interactions in which the interacted item is stationary has more potential. Additionally, interactions that take longer time and requires precision in order to complete the interaction positively influences the potential of the calibration method. The surrounding virtual environment also has an influence, as a more distracting environment can negatively impact the calibration method. / Denna avhandling ämnar att att undersöka en kalibreringsmetod för ögonspårning i virtuell verklighet där användarnas visuella uppmärksamhet från ögon och hand koordination används när man interagerar med objekt i den virtuella verkligheten. Detta kan möjliggöra kalibrering av ögonspårning utan att avbryta den virtuella upplevelsen, i jämförelse med traditionell kalibrering som är besvärlig, störande och kräver användarens fulla uppmärksamhet. En användarstudie genomfördes med 15 deltagare där de hade till uppgift att slutföra tre olika interaktioner. De testade interaktionerna var en knopp, en slider och en lyftbar kub. Deltagarnas blick spelades in under interaktionerna och analyserades för att möjliggöra jämförelse. Den bearbetade data analyserades för att hitta faktorer som påverkar kalibreringsmetoden. Dessutom analyserades resultaten för att hitta vid vilken tidpunkt under interaktionerna som hade de mest konsekventa ögonfixeringarna på objektet de interagerade med och därmed störst potential för kalibrering av ögonspårning. Resultaten visade att när deltagaren interagerar med objektet och det interaktiva objektet är stillastående, fick vi en fixering för omkring 60% av alla försök under godtycklig tidpunkt. När det interaktiva objektet rörde sig, visade resultaten en lägre procentandel. För att öka antalet, ska blickdatan filtreras i stället för att använda rå blickdata för att undvika att flicker från ögonspåraren. När det gäller faktorer som påverkar kalibreringsmetoden har valet av interaktion stor inverkan på metodens framgång, där interaktioner där det interaktiva objektet är stationärt har större potential. Dessutom påverkar interaktioner som tar längre tid och kräver precision för att slutföra interaktionen kalibreringsmetodens potential positivt. Den omgivande virtuella miljön har också inflytande, eftersom en mer distraherande miljö kan negativt påverka kalibreringsmetoden.
|
446 |
Robot mimicking human eye movements to test eye tracking devices / Robot som härmar mänskliga ögonrörelser för att testa eye tracking utrustningTANNFELT WU, JENNIFER January 2018 (has links)
Testing of eye tracking devices is done by humans looking at well defined stimuli. This way of testing eye trackers is not accurate enough because of human errors. The goal of this thesis is to design and construct reliable robotic eyes that can mimic the behaviour of human eyes. After a pre-study where human eyes, eye tracking and previous robotic eyes were studied, system requirements and specifications were formulated. Based on the re-quirements important design decisions were taken such as the use of RC servo motors, push rods, microcontrollers and a Raspberry Pi. Later the inverse kinematics of the movements and a saccade’s path planing were modelled. Additional mechanical de-sign features are rotation of the head and adjustment of the interpupillary distance. The robot is controlled using two types of application programming interfaces (APIs.) The first API is used to control the motors and the second API builds on top of the first API but is used to design paths of different eye movements between fixation points. All eye movement calculations are computed on the Raspberry Pi before the movements are communicated in real time to the microcontroller which directly performs the control signal. The robot was tested using the integrated lasers in the eyes and a video cam-era with slow motion capabilities to capture the projected laser dot on a wall. The properties tested are saccade, smooth pursuit, head rotation and eye tracking device compatibility. The results show high precision but not enough accuracy. The robot needs a few mechanical improvements such as removing the backlash in the rotat-ing joints on the eyes, decreasing the flexibility of some of the 3D printed parts and assuring symmetry in the design. The robot is a powerful testing platform capa-ble of performing all eye movement types with high-resolution control of both eyes independently through an API. / Eyetracking utrustning testas av människor som tittar på väldefinierade stimuli. Att testa eyetracking på det här sättet är inte tillräckligt noggrant på grund av mänskligt fel. Malet med detta examensarbete är att designa och bygga en pålitlig ögonrobot som kan härma beteendet hos mänskliga ögon. Efter en förstudie om mänskliga ögon, eyetracking och existerade robotögon formulerades system-krav och -specikationer. Baserat på dessa krav togs en del betydande designbeslut som att använda RC servomotorer, tryckstånger, mikrokontrollers och en Raspberry Pi. Senare modellerades den inverterade kinematiken av rörelserna och saccaders banor. Ytterligare mekaniska funktioner är rotation av huvudet och justering av avståndet mellan pupillerna. Roboten styrs med hjälp av två applikationsprogrammeringsgränssnitt (API). Det första API:et används för att styra motorerna och det andra API:et bygger på det första men används för att bygga rörelsevanor av olika ögonrörelser mellan fixationspunkter. Alla ögonrörelseberåkningar görs på Raspberry Pin innan rörelsen kommuniceras i realtid till mikrokontrollen som på direkten exekverar styrsignalen. Roboten testades med integrerade lasrar i ögonen och en kamera med slow motion funktionalitet för att fånga laser prickens projektion på en vägg. Funktioner som testades är saccader, smooth pursuit, huvudrotation och eyetracking kompatibilitet. Resultat visade en hög precision men inte tillräckligt hög noggrannhet. Roboten behöver några få mekaniska förbättringar som att få bort glappet i de roterande lederna på ögat, minska flexibiliteten i några av de 3D-utskrivna delarna och garantera symmetri i designen. Roboten är en kraftfull testplatform kapabel till att utföra alla typer av ögonrörelser med högupplöst kontroll av båda ögonen var för sig genom ett API.
|
447 |
An Investigation Of The Relationship Between Visual Effects And Object Identification Using Eye-trackingRosch, Jonathan 01 January 2012 (has links)
The visual content represented on information displays used in training environments prescribe display attributes as brightness, color, contrast, and motion blur, but considerations regarding cognitive processes corresponding to these visual features require further attention in order to optimize the display for training applications. This dissertation describes an empirical study with which information display features, specifically color and motion blur reduction, were investigated to assess their impact in a training scenario involving visual search and threat detection. Presented in this document is a review of the theory and literature describing display technology, its applications to training, and how eye-tracking systems can be used to objectively measure cognitive activity. The experiment required participants to complete a threat identification task, while altering the displays settings beforehand, to assess the utility of the display capabilities. The data obtained led to the conclusion that motion blur had a stronger impact on perceptual load than the addition of color. The increased perceptual load resulted in approximately 8- 10% longer fixation durations for all display conditions and a similar decrease in the number of saccades, but only when motion blur reduction was used. No differences were found in terms of threat location or threat identification accuracy, so it was concluded that the effects of perceptual load were independent of germane cognitive load.
|
448 |
Empirical Evaluation Of The Effectiveness Of Eye Tracking-based Search Performance Diagnosis And Feedback MethodsCarroll, Meredith 01 January 2010 (has links)
In today's complex combat environments, troops are often faced with increasingly challenging tasks different from those experienced in the past. Warfighters must be trained in adaptive perceptual skill sets, such as search strategies that enable them to detect threats across any number of environmental, cultural, and situational conditions. The goal of the present study was to explore how advanced technology, specifically eye tracking, can be used to increase understanding of perceptual processes such as search and detection and provide tools that can be used to train search skills. Experiment 1 examined a method of diagnosing perceptual performance in order to be able to identify the perceptual root cause of target detection deficiencies and how these impact overall target detection performance. Findings indicate the method can be used to pinpoint where in the perceptual process a target miss originated, whether due to ineffective search strategy, inability to detect the subtle cues of the threat or inability to recognize these cues as indicative of a threat. Experiment 2 examined the training effectiveness of providing trainees with process level tailored feedback which incorporates elements of expert and trainee scan patterns. Findings indicate that providing trainees with elements of either expert or trainee scan patterns has the ability to significantly improve the search strategy being employed by the trainee. This work provides strong support for the use of eye tracking based perceptual performance diagnosis methods and training strategies in improving trainee search performance for complex target detection tasks.
|
449 |
Facing the Matter: An Eye-tracking Assessment of Social Media Beauty Filter's Impact on Cosmetic Surgery Normative BeliefsOwens, Camilla Marie 18 August 2022 (has links) (PDF)
Communication research has begun to assess the unique relationship between social comparison, social media, and body image (Lewallen & Behm-Morawitz, 2016), yet little research has been done to assess the unique connection between body dissatisfaction, social media filters, and cosmetic surgery (Beos et al., 2021). Studies have found that viewing edited body images on Instagram positively correlates with decreased body satisfaction and behaviors of body objectification (Tiggemann, & Barbato, 2018). This study used a series of scales to measure individuals' media exposure (MTUAS: Rosen et al., 2013) body area satisfaction (BASS; Brown et al., 1990), facial region satisfaction (FRSS; Guthrie et al., 2008), cosmetic surgery normative beliefs (ACSS; Henderson-King & Henderson-King, 2005), and Instagram appearance comparison (IACS; Di Gesto et al., 2020) in conjunction with eye-tracking, and social comparison theory (Festinger, 1954). Measures were used to assess characteristics in visual processing behavior among women at differing levels of IACS, BASS, FRSS, and ACSS, and if media exposure and Instagram comparison tendencies are connected to body area satisfaction and cosmetic surgery normative beliefs. A sample of 120 females 18 years of age and older who use social media completed the scales two weeks before being eye-tracked where they viewed three images of a female's face with and without makeup and one that had been digitally enhanced. Results revealed that media exposure was not connected to cosmetic surgery normative beliefs and that Instagram comparison tendencies were not linked to cosmetic surgery normative beliefs with visual attention, yet a positive trend was observed in that direction. Implications for social comparison theory and recommendations for future research relating to facial beauty filters are discussed.
|
450 |
Eye Tracking Food Cues in Subjects Who Are Overweight/Obese, Weight Loss Maintainers, and Normal WeightPetro, Carrie A 01 September 2016 (has links) (PDF)
Adult obesity is associated with increased morbidity and mortality. Increasing success in weight loss maintenance will decrease the prevalence of overweight and obesity, and therefore help control the adverse health effects of excess weight. Much is known about the behavioral characteristics of successful long-term weight loss maintenance, but less is known about the cognitive processes behind weight loss maintenance. The purposes of this study were to (1) identify differences in visual attention to high-energy dense foods between individuals who are normal weight, weight loss maintainers, and overweight/obese in a high-risk (food-buffet) situation; (2) to evaluate differences in food choices from a food buffet between weight status groups; (3) to analyze correlations between food attention and food choice across weight status groups. No significant differences were found between groups with respect to food attention or food choice. Overall, findings from this study may have been limited by methodology, technology, and sample size. Future research is needed to better understand the interaction of cognitive processes and weight loss maintenance.
|
Page generated in 0.0356 seconds