• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 318
  • 50
  • 39
  • 38
  • 26
  • 23
  • 19
  • 18
  • 11
  • 9
  • 8
  • 6
  • 6
  • 4
  • 4
  • Tagged with
  • 688
  • 688
  • 103
  • 91
  • 80
  • 76
  • 62
  • 58
  • 57
  • 52
  • 50
  • 50
  • 49
  • 49
  • 49
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
581

Exploring Controller-Free Locomotion Techniques in Dynamic VR Environments : A Comparative Analysis of Eye- and Hand-Based Teleportation / Utforskning av Kontroller-Fria Rörelsemetoder i Dynamiska VR Miljöer: En Jämförande Analys av Ögon- och Handbaserad Teleportering

Brink, John January 2023 (has links)
Locomotion in VR is still a topic of exploration, as different solutions serve different purposes. Teleportation is an established technique for moving in virtual environments larger than physical space, but one area that has not been thoroughly investigated is controller-free teleportation, where users are not limited by intermediary devices for movement control. Recent advancements in VR headsets now allow tracking of multiple body parts, including hands and eyes, enabling locomotion solely through gestures. Prior research on hand- and eye-tracking for teleportation in VR shows promising results in controlled environments but lacks practical comparisons in typical VR applications with dynamic settings. In this study, two types of controller-free teleportation techniques based on hand- and eye-tracking were implemented. The results indicate that, in dynamic VR environments, hand-based teleportation is more efficient and has seemingly higher usability. However, eye-based teleportation appears more immersive, and is potentially a viable and less physically demanding alternative for people with disabilities to increase the accessibility to VR applications. This study’s results provide valuable insights for developing innovative controller-free locomotion techniques utilizing body-tracking in dynamic VR environments. / Förflyttning i VR är ett ämne som fortfarande utforskas, då olika lösningar passar olika ändamål. Teleportering är en etablerad förflyttningsteknik för att röra sig i virtuella miljöer som är större än det fysiska utrymmet man befinner sig i, men ett område som inte har undersökts mycket ännu är kontrollerfri teleportering, där användare inte begränsas av mellanliggande enheter för att förflytta sig. De senaste utvecklingen av VR-headset tillåter kroppsspårning av händer och ögon, vilket möjliggör förflyttning enbart genom gester. Tidigare forskning kring hand- och ögonspårning för teleportering i VR visar lovande resultat i kontrollerade miljöer, men saknar praktiska jämförelser i typiska VR-applikationer med dynamiska miljöer. I denna studie implementerades två typer av kontrollerfria teleporteringstekniker baserade på hand- och ögonspårning. Resultaten tyder på att i dynamiska VR-miljöer är handbaserad teleportering mer effektiv och till synes högre användbarhet. Ögonbaserad teleportering verkar dock vara mer uppslukande, och är potentiellt ett användbart samt mindre fysiskt krävande alternativ för personer med funktionsnedsättning för att öka tillgängligheten till VR applikationer. Resultaten av denna studie ger värdefulla insikter till utvecklingen av innovativa kontrollerfria rörelsetekniker som använder kroppsspårning i dynamiska VR-miljöer.
582

Interpretace tematických map / Thematic map interpretation

Nedbalová, Amálie January 2022 (has links)
The thesis focuses on one of the map skills - map interpretation. The aim of the thesis is to characterize the process of solving tasks aimed at the interpretation of two types of thematic maps (chloropleth mapping and area-shading mapping) by students of final year high school and first year university. In the theoretical part of the thesis, map skills - reading, analysis, interpretation and map making - are characterized. Further, the concept of mapwork strategies is defined and the basis for determining these strategies is described. The thesis also discusses the application of eye-tracking technology in research aimed at investigating map skills. The characteristics of the two thematic cartography methods used in the experiment within this thesis - chloropleth mapping and area-shading mapping, are also described. The experiment conducted within this thesis was carried out on a sample of 19 participants. These participants completed, using eye-tracking technology, a didactic test containing tasks on the interpretation of thematic maps. Subsequently, they completed a questionnaire in which they evaluated e.g. the difficulty of the test or the way they handled the individual stimulus elements. They also gave a semi-structured interview in which they looked back on the test and described their...
583

Alexithymia Is Associated With Deficits in Visual Search for Emotional Faces in Clinical Depression

Suslow, Thomas, Günther, Vivien, Hensch, Tilman, Kersting, Anette, Bodenschatz, Charlott Maria 31 March 2023 (has links)
Background: The concept of alexithymia is characterized by difficulties identifying and describing one’s emotions. Alexithymic individuals are impaired in the recognition of others’ emotional facial expressions. Alexithymia is quite common in patients suffering from major depressive disorder. The face-in-the-crowd task is a visual search paradigm that assesses processing of multiple facial emotions. In the present eye-tracking study, the relationship between alexithymia and visual processing of facial emotions was examined in clinical depression. Materials and Methods: Gaze behavior and manual response times of 20 alexithymic and 19 non-alexithymic depressed patients were compared in a face-in-the-crowd task. Alexithymia was empirically measured via the 20-item Toronto Alexithymia-Scale. Angry, happy, and neutral facial expressions of different individuals were shown as target and distractor stimuli. Our analyses of gaze behavior focused on latency to the target face, number of distractor faces fixated before fixating the target, number of target fixations, and number of distractor faces fixated after fixating the target. Results: Alexithymic patients exhibited in general slower decision latencies compared to non-alexithymic patients in the face-in-the-crowd task. Patient groups did not differ in latency to target, number of target fixations, and number of distractors fixated prior to target fixation. However, after having looked at the target, alexithymic patients fixated more distractors than non-alexithymic patients, regardless of expression condition. Discussion: According to our results, alexithymia goes along with impairments in visual processing of multiple facial emotions in clinical depression. Alexithymia appears to be associated with delayed manual reaction times and prolonged scanning after the first target fixation in depression, but it might have no impact on the early search phase. The observed deficits could indicate difficulties in target identification and/or decision-making when processing multiple emotional facial expressions. Impairments of alexithymic depressed patients in processing emotions in crowds of faces seem not limited to a specific affective valence. In group situations, alexithymic depressed patients might be slowed in processing interindividual differences in emotional expressions compared with non-alexithymic depressed patients. This could represent a disadvantage in understanding non-verbal communication in groups.
584

Blickbeteende i dagligvaruhandel online : En eye-tracking studie om i vilken mån användares ögonrörelser avviker från förväntatmönster vid hunger och mättnadskänsla under onlineshopping av mat / Gazing behavior in online grocery shopping : An eye tracking study about how much users gazing patterns deviate from an expected pattern when they are being hungry or full

Larsson, Arvid, Olsson, Petra January 2017 (has links)
Our study aims to investigate if people who are hungry are affected by that when shopping groceries online. Nine people participated in two user tests, one in the morning, just before lunch and one in the afternoon, just after lunch. They were asked not to eat any breakfast if they were to conduct a test in the morning. This meant that the participants would be hungry in one of the cases and full in the other. The study was based on the participants being able to add groceries to the cart from a list that was read for them. They did this in two different interfaces, coop.se and ica.se, while an eye tracker logged their eye movements. The study was supplemented with surveys that determined whether the participants were hungry or full after each test and a final survey with the participants' preferences, BMI and habits in digital interfaces. After the study was completed we looked for deviations to see if the hunger affected the number of deviations and what the participants were looking for. Deviations were calculated partly as the number of products viewed as not belonging to the task, and partly as products with a high number of calories. Specially viewed products include sauces, breakfast products and ready meals and recipes. A distinction between the two interfaces could be found in that one interface received more deviations than the other. A significant difference in the number of data deviations between morning and afternoon could not be determined, on the other hand, at a 10% level of significance, we could determine that there was a difference between the different interfaces and that the subjects deviated more the first time the test was performed. We were able to contradict our hypothesis, that people would deviate with their eyes more when they are hungry than when they are not. Our results show, rather that other factors are crucial to what affects the deviations, such as which interface you’re in and whether it's the first time you do grocery shopping online. / Vår undersökning ämnar ta reda på om personer som är hungriga påverkas av den aspekten när de handlar mat på internet. Nio deltagare gjorde två användartester, ett på förmiddagen, precis innan lunch och ett på eftermiddagen, precis efter lunch. Detta för att personerna skulle känna sig hungriga i ett fall och känna sig mätta i det andra. Personerna blev ombedda att inte äta någon frukost om de skulle utföra ett test på förmiddagen. Undersökningen gick ut på att deltagarna fick handla från en uppläst inhandlingslista i två olika gränssnitt, coop.se samt ica.se, medan en eye-tracker loggade deras ögonrörelser. Undersökningen kompletterades med enkäter som fastställde om deltagarna var hungriga eller mätta efter varje undersökning och en avslutande med deltagarnas matpreferenser, BMI och vana i digitala gränssnitt. Därefter letade vi avvikelser för att se huruvida hungern påverkade antalet avvikelser och vad deltagarna tittade på för varor. Avvikelser räknades dels som antalet varor man titta på som inte tillhörde uppgiften, och dels som varor med högt antal kalorier. Särskilt förekommande varor var bland annat såser, frukostprodukter och färdiga maträtter och recept. En skillnad mellan de två gränssnitten kunde hittas i form av att det ena gränssnittet fick fler antal avvikelser än det andra. En signifikant skillnad i antal uppgiftsavvikelser mellan förmiddag och eftermiddag kunde inte fastslås, däremot kunde vi på en 10% signifikansnivå fastslå att det var en skillnad mellan de olika gränssnitten och att försökspersonerna avvek mer den första gången man fick utföra testet. Vår hypotes, att personer skulle avvika med blicken mer när de är hungriga än när de inte är det, kan vi i efterhand dementera. Våra resultat visar snarare på att andra faktorer är avgörande för vad som påverkar blickavvikelserna, såsom gränssnitt och om det är första gången man handlar mat online.
585

Exploring viewer experience and usability of eye tracking interaction in ice hockey broadcasts / Utforskning av tittarupplevelse och användbarhet av ögonspårningsinteraktion i ishockeysändningar

Spansk, Fredrik January 2018 (has links)
Multiple media platforms today are fighting for viewer attention. Sports broadcasting companies are up against second screen platforms which keep feeding consumers with their constant push-notifications. Both The Nielsen Company and Apple predicts that television needs to get more interactive (e.g. AR, VR, eye tracking) in order to keep up. This paper introduces an eye tracking controller system in order to see if it could aid in this regard. This controller allows the viewer to look up statistics and other game related information on-demand on the main screen. A user study was conducted to determine if this controller could make the viewer have an enhanced viewing experience than a regular broadcast while at the same time also evaluated the usability of the system. 14 participants were recruited for the study, aged between 22 and 31 years old. The results indicate that the viewers have an enhanced viewing experience and find the controller very easy to understand and use. However, the results do not indicate any increase in visual attention towards the main screen. To gain further insight into the possibility of incorporating this system, further evaluation on a wider age group is needed. It is also recommended to conduct further research on the possible usage of this controller in different sports and with various functionality. / Flertalet av dagens mediaplattformar kämpar om konsumenternas uppmärksamhet. sportsändningsföretag ställs mot second screen-plattformar som matar konsumenter med ständiga push-notiser. Både The Nielsen Company och Apple föutspår att TV-tittande behöver bli mer interaktivt (exempelvis med AR, VR, ögonspårning) för att hänga med. Den här uppsatsen introducerar en interaktiv ögonspårningskontroll och undersöker om denna kontroll kan vara en lösning på detta. Kontrollen möjliggör att användaren kan se statistik och annan matchrelaterad information på sin huvudskärm. En användarstudie utfördes för att dels få svar på om denna kontroll kan få användare att ha en bättre tittarupplevelse än en vanlig sändning, och dels för att undersöka användbarheten av kontrollen. 14 deltagare, (med ett åldersspann på 22-31 år) rekryterades till studien. Resultaten ger indikationer på att användarna hade en förhöjd tittarupplevelse och att kontrollen är väldigt lätt att förstå och använda. Däremot så finns inga indikationer på en ökad visuell uppmärksamhet mot huvudskärmen. För att få större insikt så behövs en större utvärdering på en användargrupp med större åldersspann. Det rekommenderas även att utföra vidare studier på att möjligtvis använda denna kontroll till andra typer av sporter och med varierad funktionalitet.
586

Exploring Augmented Reality for enhancing ADAS and Remote Driving through 5G : Study of applying augmented reality to improve safety in ADAS and remote driving use cases

Meijer, Max Jan January 2020 (has links)
This thesis consists of two projects focusing on how 5G can be used to make vehicles safer. The first project focuses on conceptualizing near-future use cases of how Advanced Driver Assistance Systems (ADAS) can be enhanced through 5G technology. Four concepts were developed in collaboration with various industry partners. These concepts were successfully demonstrated in a proof-of-concept at the 5G Automotive Association (5GAA) “The 5G Path of Vehicle-to-Everything Communication: From Local to Global” conference in Turin, Italy. This proof-of-concept was the world’s first demonstration of such a system. The second project focuses on a futuristic use case, namely remote operation of semi-autonomous vehicles (sAVs). As part of this work, it was explored if augmented reality (AR) can be used to warn remote operators of dangerous events. It was explored if such augmentations can be used to compensate during critical events. These events are defined as occurrences in which the network conditions are suboptimal, and information provided to the operator is limited. To evaluate this, a simulator environment was developed that uses eye- tracking technology to study the impact of such scenarios through user studies. The simulator establishes an extendable platform for future work. Through experiments, it was found that AR can be beneficial in spotting danger. However, it can also be used to directly affect the scanning patterns at which the operator views the scene and directly affect their visual scanning behavior. / Denna avhandling består av två projekt med fokus på hur 5G kan användas för att göra fordon säkrare. Det första projektet fokuserar på att konceptualisera användningsfall i närmaste framtid av hur Advanced Driver Assistance Systems (ADAS) kan förbättras genom 5G-teknik. Fyra koncept utvecklades i samarbete med olika branschpartner. Dessa koncept demonstrerade i ett proof-of- concept på 5G Automotive Association (5GAA) “5G Path of Vehicle to to Everything Communication: From Local to Global” -konferensen i Turin, Italien. Detta bevis-of-concept var världens första demonstration av ett sådant system. Det andra projektet fokuserar på ett långt futuristiskt användningsfall, nämligen fjärrstyrning av semi-autonoma fordon (sAVs). Som en del av detta arbete undersöktes det om augmented reality (AR) kan användas för att varna fjärroperatörer om farliga händelser. Det undersöktes om sådana förstärkningar kan användas för att kompensera under kritiska händelser. Dessa händelser definieras som händelser där nätverksförhållandena är suboptimala och information som tillhandahålls till operatören är begränsad. För att utvärdera detta utvecklades en simulatormiljö som använder ögonspårningsteknologi för att studera effekterna av sådana scenarier genom en användarstudie. Simulatorn bildar en utdragbar plattform för framtida arbete. Genom experiment fann man att AR kan vara fördelaktigt när det gäller att upptäcka fara. Men det kan också användas för att direkt påverka skanningsmönstret där operatören tittar på scenen och direkt påverka deras visuella skanningsbeteende.
587

LinguaMapping: The New Frontier in Language Processing : A New Online Tool for Measuring Swedish L1 Transfer in English Embedded Relative Clauses

Salomonsson, Henrik January 2023 (has links)
The structure of embedded relative clauses in English may involve several grammatical elements, generating different grammatical rules with respect to word order. Studying the impact of first language (L1) transfer in the production of English embedded relative clauses is important to reveal valuable information about specific challenges in second language acquisition (SLA). Online methods used by researchers to measure the degree to which the L1 impacts the processing and learning of a second language (L2) have limitations regarding measurement of L1 transfer in English embedded relative clauses. Therefore, the purpose of this thesis is to present a new tool that enables the assessment of how structures in Swedish affect learning English as an L2, with special respect to embedded relative clauses. A new online tool, LinguaMapping, was developed by the author of this thesis, which enables the detection of Swedish L1 transfer in Englishembedded relative clauses. LinguaMapping is also proved to be more accessible, affordable, and sustainable than the online methods eye-tracking and self-paced reading. In the future, the supervisor of this project will submit LinguaMapping for pilot testing prior to conducting main studies of embedded relative clauses as well as other L2 phenomena to shed light on the role of L1 transfer in shaping L2 proficiency.
588

Understanding the Impact of Digital Education on Pupils using Eye Tracking.

Dasari, Vasudha January 2022 (has links)
The aim of this thesis is to study the Impact of the Digital Education on student understanding using the advanced Eye gaze tracking. The goal of the thesis is to deep dive and understand the student preferences and their understandability on the digital Education content. Along with the understandability, we will be focusing on the concentration levels
589

Analysis of Eye Tracking Data from Parkinson’s Patients using Machine Learning

Höglund, Lucas January 2021 (has links)
Parkinson’s disease is a brain disorder associated with reduced dopamine levels in the brain, affecting cognition and motor control in the human brain. One of the motor controls that can be affected is eye movements and can therefore be critically affected in patients with Parkinson’s disease. Eye movement can be measured using eye trackers, and this data can be used for analyzing the eye movement characteristics in Parkinson’s disease. The eye movement analysis provides the possibility of diagnostics and can therefore lead to further insights into Parkinson’s disease. In this thesis, feature extraction of clinical relevance in diagnosing Parkinson’s patients from eye movement data is studied. We have used an autoencoder (AE) constructed to learn micro and macro-scaled representation for eye movements and constructed three different models. Learning of the AEs was evaluated using the F1 score, and differences were statistically assessed using the Wilcoxon sign rank test. Extracted features from data based on patients and healthy subjects were visualized using t-SNE. Using the extracted features, we have measured differences in features using cosine and Mahalanobis distances. We have furthermore clustered the features using fuzzy c-means. Qualities of the generated clusters were assessed by F1-score, fuzzy partition coefficient, Dunn’s index and silhouette index. Based on successful tests using a test data set of a previous publication, we believe that the network used in this thesis has learned to represent natural eye movement from subjects allowed to move their eye freely. However, distances, visualizations, clustering all suggest that latent representations from the autoencoder do not provide a good separation of data from patients and healthy subjects. We, therefore, conclude that a micro-macro autoencoder does not suit the purpose of generating a latent representation of saccade movements of the type used in this thesis. / Parkinsons sjukdom är en hjärnsjukdom orsakad av minskade dopaminnivåer i hjärnan, vilket påverkar kognition och motorisk kontroll i människans hjärna. En av de motoriska kontrollerna som kan påverkas är ögonrörelser och kan därför vara kritiskt påverkat hos patienter diagnostiserade med Parkinsons sjukdom. Ögonrörelser kan mätas med hjälp av ögonspårare, som i sin tur kan användas för att analysera ögonrörelsens egenskaper vid Parkinsons sjukdom. Ögonrörelseanalysen ger möjlighet till diagnostik och kan därför leda till ytterligare förståelse för Parkinsons sjukdom. I denna avhandling studeras särdragsextraktion av ögonrörelsedata med en klinisk relevans vid diagnos av Parkinsonpatienter. Vi har använt en autoencoder (AE) konstruerad för att lära sig mikro- och makrosackadrepresentation för ögonrörelser och konstruerat tre olika modeller. Inlärning av AE utvärderades med hjälp av F1-poängen och skillnader bedömdes statistiskt med hjälp av Wilcoxon rank test. Särdragsextraktionen visualiserades med t-SNE och med hjälp av resultatet ifrån särdragsextraktion har vi mätt skillnader med cosinus- och Mahalanobis- avstånd. Vi har dessutom grupperat resultatet ifrån särdragsextraktionen med fuzzy c-means. Kvaliteten hos de genererade klusterna bedömdes med F1- poäng, suddig fördelningskoefficient, Dunns index och silhuettindex.Sammanfattningsvis finner vi att en mikro-makro-autokodare inte passar syftet med att analysera konstgjorda ögonrörelsesdata. Vi tror att nätverket som används i denna avhandling har lärt sig att representera naturlig ögonrörelse ifrån en person som fritt får röra sina ögon.
590

Optimizing web camera based eye tracking system : An investigating of the effect of network pruning and image resolution / Optimera webbkamerabaserat ögonspårningssystem : En undersökning av effekten av beskärning och inmatning av olika bildupplösningar

Svensson, Olle January 2021 (has links)
Deep learning has opened new doors to things that were only imaginable before. When it comes to eye tracking, the advances in deep learning have made it possible to predict gaze using the integrated camera that most mobile and desktop devices have nowadays. This has enabled the technique to move from needing advanced eye tracking equipment to being available to everyone with mobile and desktop devices. To make a more accurate gaze prediction more advanced neural network is needed and more computational power. This study investigates how a convolutional neural network used for eye tracking using a desktop web camera could be optimized in terms of computational cost while not compromising the accuracy of the network. In this work, two different methods to decrease the computational cost are investigated and evaluated how it impacts the accuracy, namely pruning and reducing the input image resolution fed to the convolutional neural network. Pruning is when weights in a neural network are removed to make the network sparser. The result shows that pruning works for regression tasks like eye tracking using a desktop web camera without compromising accuracy. When the convolutional neural network is pruned to 80% of its original weights in the convolutional layers, the accuracy improves by 6.8% compared to the same network that has not been pruned. The result also shows that reducing the number of pixels in the input images also improves the accuracy of the neural network. This is investigated further and by injecting noise into the input images used for testing, which shown that the networked trained with a lower resolution image for the face input is more robust to noise than the baseline model. This could be one explanation for the improvement when the face image is downsampled to a lower resolution. It is also shown that a model trained with reduced face and eyes input by a factor of four decreases its computational time by 85.7% compared to a baseline model. / Djuptinlärning har öppnat nya dörrar till saker som bara var tänkbara innan. När det gäller ögonspårning har framstegen inom djupinlärning gjort det möjligt att förutsäga blicken med hjälp av den integrerade kameran som de flesta mobil- och datorenheter har idag. Detta har gjort det möjligt för tekniken att gå från att behöva avancerad ögonspårningsutrustning till att vara tillgänglig till alla med mobil och datorenheter. För att göra en mer exakt ögonspårning behövs mer avancerat neuralt nätverk och mer beräkningskraft. Den här studien undersöker hur ett convolutional neural network som används för ögonspårning med hjälp av dator webbkamera skulle kunna optimeras vad gäller beräkningskostnader men samtidigt inte äventyrar nätverkets noggrannhet. I detta arbete undersöks två olika metoder för att minska beräkningskostnaden och utvärderar hur det påverkar noggrannheten, närmare bestämt beskärning och komprimering av bildupplösningen av bilderna som matas till det neurala nätverket. Beskärning är när vikter i ett neuralt nätverk tas bort för att göra nätverket glesare. Beskärning har, såvitt vi vet, aldrig testats på regressionsuppgifter som ögonspårning på dator. Resultatet visar att beskärning fungerar för regressionsuppgifter som ögonspårning med en dator webbkamera utan att kompromettera med noggrannheten. När det neurala nätverket beskärs till 80% av dess ursprungliga vikter i convolutional lagrena förbättras noggrannheten med 6.8% jämfört med samma nätverk som inte har beskärts. Resultatet visar också att komprimering av bildupplösningen också förbättrar neuralnätets noggrannhet. Detta undersöks vidare och genom att injicera brus i bilderna testbilderna som matas till det neurala nätverket, vilket visade att nätverket som tränats med en reducerad bilder med en faktor fyra är mer robusta vad gäller brus än basmodellen. Detta kan vara en förklaring till förbättringen när bilden på ansiktet komprimeras till en lägre upplösning. Det visas också att en modell som tränats med minskat ansikts- och ögoninmatning med en faktor fyra minskar dess beräkningstid med 85.7% jämfört med en basmodell.

Page generated in 0.0672 seconds