Spelling suggestions: "subject:"rastreamento dde olhar"" "subject:"rastreamento dee olhar""
1 |
Solução Multimodal para Interação Com Dispositivos de Assistência e ComunicaçãoBissoli, A.L.C. 29 July 2016 (has links)
Made available in DSpace on 2018-08-02T00:00:34Z (GMT). No. of bitstreams: 1
tese_10127_Dissertação-de-Mestrado-Alexandre-Bissoli-Versão-Final.pdf: 5108283 bytes, checksum: a4a9dde79a52505e6a3c7b70f49dbb0c (MD5)
Previous issue date: 2016-07-29 / Pessoas com deficiência têm dificuldade de interagir com o ambiente onde vivem, devido às próprias limitações inerentes à sua deficiência. Atividades simples como ligar lâmpada, ventilador, televisão ou qualquer outro equipamento, de forma independente, pode ser impossível para esse grupo de pessoas. Este trabalho apresenta um sistema assistivo multimodal para controlar um ambiente inteligente por meio de sinais biológicos. Os usuários em potencial deste sistema são indivíduos com deficiências motoras graves, que desejam adquirir mais autonomia dentro do ambiente doméstico. Os sinais biológicos utilizados são sEMG, EOG e VOG. Isso possibilitou dois tipos de interação: uma empregando gestos faciais e movimento dos olhos, e a outra utilizando o rastreamento das fixações do olhar (eye/gaze tracking). Um diferencial importante deste trabalho é a utilização de dispositivos convencionais de baixo custo, fácil manuseio e de rápida configuração.
No primeiro bloco de testes, o objetivo era avaliar o desempenho do sistema
utilizando o Emotiv EPOC e o Eye Tracker, comparando a Taxa de Transferência de Informação (ITR) e a Utilidade (U) de ambas as Interfaces Humano-Máquina (IHM) desenvolvidas para controlar o Ambiente Inteligente. Para esses testes foram pré-estabelecidas cinco tarefas, as quais foram realizadas por dez voluntários. No segundo bloco de testes, o objetivo era avaliar a usabilidade (SUS) e o desempenho (GAS) do sistema do ponto de vista do usuário, utilizando o Eye Tracker em três aplicações diferentes: Controle do Ambiente Inteligente (AI), Comunicação Aumentativa e Alternativa (CAA) e Ambiente Virtual (AV). Os testes foram realizados por 17 voluntários (sendo dois com deficiência em todas as aplicações) e foram pré-estabelecidas 5, 5 e 18 tarefas para as três aplicações (AI, CAA e AV, respectivamente). Com relação aos resultados da avaliação de desempenho, observou-se que 15 dos 17 participantes obtiveram resultado esperado ou superior ao esperado logo na primeira utilização. Este resultado ainda pode ser melhorado, à medida que o participante obtiver maior familiaridade com o sistema.
|
2 |
Rastreamento de olhar e reconhecimento de emoções em crianças com transtorno do espectro autístico / Eye tracking and emotion recognition in children with autism spectrum disorderMuñoz, Patricia de Oliveira Lima 24 September 2018 (has links)
O trabalho pioneiro de Darwin, em 1872, constituiu uma das primeiras fontes de informação sobre as emoções dentro da perspectiva evolucionista. Hoje podemos contar com equipamentos de medidas mais sofisticados que nos permitem revisitar alguma das questões básicas por ele formuladas. A presente tese vem contribuir para uma melhor compreensão do reconhecimento de emoções e teoria da mente em crianças com TEA, apresentando analises que possam levar a sugestões de intervenções clínicas futuras. Embora ainda haja inconsistência entre os estudos quanto a qual emoção está mais prejudicada, tem sido relatadas dificuldades na identificação das emoções de medo, raiva, nojo e surpresa. Usamos um eye-tracker com o objetivo de esclarecer como os participantes olham para estímulos. Os participantes foram 40 meninos com TEA e com desenvolvimento típico, equiparados quanto a idade (6 a 14 anos). Foram avaliados para classificação do QI e para o grau de autismo. Os estímulos visuais foram retirados dos subteste de Reconhecimento de Emoções e Teoria da Mente do NEPSY II e apresentados em um equipamento de rastreamento de olhar, tendo sido definidas áreas de interesse (AI) do rosto. Para cada imagem, foi computado o tempo de fixação (em segundos) em cada AI. Os participantes também realizaram as tarefas do subteste, com o objetivo de verificar o acerto e o erro em cada estímulo. Em nossas análises pudemos verificar que a idade e o QI dos participantes influenciaram o desempenho na tarefa de reconhecimento de emoções e não influenciaram na tarefa de ToM. As crianças com TEA apresentaram um desempenho prejudicado quando comparado com as crianças com DT em ambos subtestes. Os participantes com TEA erraram mais as tarefas com emoções de valência negativa, como tristeza e raiva. A classificação do grau de TEA, não teve influência no desempenho dos participantes. O que parece ocorrer é que pertencer ao grupo clínico TEA seja uma condição para ter um desempenho pior quando comparado com o grupo de DT. Analisando o rastreamento de olhar, constatamos que o grupo DT permaneceu menos tempo fixando o olhar na AI dos olhos e mais tempo na AI da boca. Como o tempo total de fixação para os dois grupos não teve diferença estatística no subteste de reconhecimento de emoção, podemos sugerir que as crianças com TEA apresentam um padrão de olhar que chamamos de \"difuso\" enquanto que as crianças com DT apresentam um padrão de olhar que chamamos de \"focado\" nas regiões da face relevantes para o reconhecimento de emoções. Parece que na tarefa de ToM, o tempo de fixação em olhos e boca não foi o determinante para o erro na resposta e sim o olhar difuso na cena que deveria ser interpretada. Quando avaliamos os resultados qualitativos do rastreamento do olhar podemos pensar na importância de intervenções que possam ajudar crianças com TEA a melhorar seu desempenho em identificar as expressões faciais que auxiliam na decodificação da emoção e na interpretação de estados mentais / Darwin\'s pioneering work in 1872 was one of the earliest sources of information about emotions within the evolutionary perspective. Today we have more sophisticated equipment that allows us to revisit some of the basic questions that he formulates. The present thesis contributed to a better understanding of the emotion recognition and theory of mind in children with ASD, presenting analyzes that may lead to suggestions of future clinical interventions. Although there is still inconsistency among studies as to which emotion is most impaired, difficulties in identifying the emotions of fear, anger, disgust and surprise have been reported. We use an eye-tracker to clarify how participants look at stimuli. The participants were 40 boys with ASD and typical development, matched for age (6 to 14 years). They were evaluated for IQ and for the level of autism. The visual stimuli were from the Emotional Recognition and Theory of Mind subtests of NEPSY II and presented with an eye-tracking device, with areas of interest (AI) defined. For each image, the fixation duration (in seconds) in each AI was computed. The participants also performed the tasks of the subtest, in order to verify the right and wrong answers in each stimulus. In our analyzes we could verify that the participants\' age and IQ influenced the performance in the task of emotion recognition and did not influence the task of ToM. Children with ASD had an impaired performance when compared to children with TD in both subtests. Participants with ASD had a low score in tasks with negative valence emotions, such as sadness and anger. The classification of the ASD level had no influence on the participants\' performance. What seems to occur is that beeing on the ASD clinical group is a condition to had a worse perform when compared to the TD group. Analyzing the eye tracking, we found that the TD group spent less time fixing the eyes in the AI of the eyes and longer in the AI of the mouth. As the total fixation time for the two groups did not have a statistical difference in the emotion recognition subtest, we can suggest that children with ASD have a look pattern that we call \"diffuse\", while children with TD have a look pattern which we call \"focused\" on regions of the face relevant to the recognition of emotions. It seems that in the ToM task, the fixation time in the eyes and mouth was not the determinant for the error in the response, but the diffuse look in the scene that was to be interpreted. When we evaluate the qualitative results of eye tracking we can think of the importance of interventions that can help children with ASD improve their performance in identifying the facial expressions that aid in the decoding of emotion and the interpretation of mental states
|
3 |
Nas partituras das emoções: processamento de estímulos afetivos musicais e visuais em crianças e adolescentes com Síndrome de Williams / In scores of emotions: processing of musical and visual affective stimuli in children and adolescents with Williams SyndromeAndrade, Nara Cortes 18 December 2017 (has links)
Compreender as bases do comportamento social e do desenvolvimento socioafetivo humano é essencial tanto para indivíduos com desenvolvimento típico (DT) quanto com transtornos neuropsiquiátricos. A Síndrome de Williams (SW) é uma condição neurogenética rara ocasionada pela deleção de aproximadamente 28 genes no cromossomo 7q11.23. A sintomatologia inclui desde dismorfismos faciais a alterações do funcionamento cognitivo e socioafetivo, com a presença de deficiência intelectual de grau leve a moderado. O processamento de estímulos afetivos tem sido foco de grande interesse em indivíduos com SW. Apesar de parte das pesquisas apontarem que esta população tem habilidade preservada de reconhecimento de expressões facias de emoções positivas e prejuízos no reconhecimento de emoções negativas, este ainda não é um campo consensual. Ao mesmo tempo, estudos indicam maior interesse desta população em relação a música e diferenças no neuroprocessamento de trechos musicais com valência afetiva. O presente trabalho teve por objetivo caracterizar o processamento de estímulos afetivos musicais e visuais em crianças e adolescentes com Síndrome de Williams. O Estudo I buscou validar trechos musicais com valência afetiva em cultura brasileira e analisar o efeito do treino musical na compreensão de emoções em música. Músicas com valência afetiva foram avaliadas pelos participantes de maneira correspondente à emoção pretendida pelo compositor e de forma similar entre as populações brasileiras e canadenses. O efeito do treino musical sobre a habilidade de reconhecer as emoções em música tiveram maior impacto em emoções com maior grau de dificuldade para os participantes como todo. O Estudo II visou caracterizar o perfil musical de crianças e adolescentes com SW e diferenciar o processamento de estímulos afetivos musicais em crianças e adolescentes com SW com as de DT. Pessoas com SW foram avaliadas com maior habilidade musical global. Não foram encontradas diferenças no que diz respeito ao interesse por atividades musicais. O Estudo III teve como objetivos diferenciar habilidade de reconhecimento de emoções o padrão de rastreamento do olhar frente a estímulos afetivos visuais em crianças e adolescentes com SW e SW com sintomas de TEA (SW/TEA). Pessoas com SW desprenderam maior tempo de fixação nos olhos e em faces alegres quando comparadas a faces tristes. Resultados indicam diferença no reconhecimento de emoções e rastreamento de olhar em indivíduos com SW/TEA. Padrão de reconhecimento em estímulos musicais e visuais foi semelhante na população SW, com acentuado prejuízo no reconhecimento de emoções negativas e preservação do reconhecimento de emoções positivas. Este achado reforça a modularidade do processamento neurológico das emoções básicas. Crianças com SW reconheceram mais facilmente estímulos musicais de valência positiva em comparação aos visuais sugerindo que o domínio da música seja um ponto de força desta população / Understand the foundation of social behavior and human social and affective development is essential for both individuals with typical developmental (TD) and neuropsychiatric disorders. Williams Syndrome (WS) is a rare neurogenetic condition caused by the deletion of approximately 28 genes on chromosome 7q11.23. The symptomatology includes from facial dysmorphisms to changes in cognitive and social and affective functioning, with the presence of mild to moderate intellectual deficiency. The processing of affective stimuli has been a focus of great interest in individuals with WS. Although part of the research indicates that this population has preserved ability to recognize face expressions of positive emotions and impairment in the recognition of negative emotions, this is not yet a consensual field. At the same time, studies indicate greater interest of this population in relation to music and differences in the neuroprocessing of musical excerpts with affective valence. The present work aimed to characterize the processing of musical and visual affective stimuli in children and adolescents with Williams Syndrome. Study I sought to validate musical excerpts with affective valence in Brazilian culture and to analyze the effect of musical training on the understanding of emotions in music. Songs with affective valence were evaluated by the participants corresponding to the emotion pretended by the composer and similarly between the Brazilian and Canadian populations. The effect of musical training on the ability to recognize emotions in music has had a greater impact on emotions with a greater degree of difficulty for participants as a whole. Study II aimed to characterize the musical profile of children and adolescents with WS and to differentiate the processing of musical affective stimuli in children and adolescents with WS compered to TD. People with WS were assessed with greater overall musical ability. No differences were found regarding the interest in musical activities. The aim of Study III was to differentiate between the ability to recognize emotions and the pattern of eye tracking in relation to visual affective stimuli in children and adolescents with SW and WS with ASD symptoms. People with SW gave more fixation time to the eyes and happy faces when compared to sad faces. Results indicate difference in the recognition of emotions and eye tracking in individuals with SW / ASD. Recognition pattern in musical and visual stimuli was similar in the WS population, with marked impairment in the recognition of negative emotions and preservation of the recognition of positive emotions. This finding reinforces the modularity of neurological processing of basic emotions. Children with WS recognized easily positive musical stimuli compared to visual ones suggesting that the domain of music is the strength of this population
|
4 |
Avaliação de desempenho de algoritmos de estimação do olhar para interação com computadores vestíveis / Performance evaluation of eye tracking algorithms for wearable computer interactionAluani, Fernando Omar 08 December 2017 (has links)
Cada vez mais o rastreamento do olhar tem sido usado para interação humano-computador em diversos cenários, como forma de interação (usualmente substituindo o mouse, principalmente para pessoas com deficiências físicas) ou estudo dos padrões de atenção de uma pessoa (em situações como fazendo compras no mercado, olhando uma página na internet ou dirigindo um carro). Ao mesmo tempo, dispositivos vestíveis tais quais pequenas telas montadas na cabeça e sensores para medir dados relativos à saúde e exercício físico realizado por um usuário, também têm avançado muito nos últimos anos, finalmente chegando a se tornarem acessíveis aos consumidores. Essa forma de tecnologia se caracteriza por dispositivos que o usuário usa junto de seu corpo, como uma peça de roupa ou acessório. O dispositivo e o usuário estão em constante interação e tais sistemas são feitos para melhorar a execução de uma ação pelo usuário (por exemplo dando informações sobre a ação em questão) ou facilitar a execução de várias tarefas concorrentemente. O uso de rastreadores de olhar em computação vestível permite uma nova forma de interação para tais dispositivos, possibilitando que o usuário interaja com eles enquanto usa as mãos para realizar outra ação. Em dispositivos vestíveis, o consumo de energia é um fator importante do sistema que afeta sua utilidade e deve ser considerado em seu design. Infelizmente, rastreadores oculares atuais ignoram seu consumo e focam-se principalmente em precisão e acurácia, seguindo a ideia de que trabalhar com imagens de alta resolução e frequência maior implica em melhor desempenho. Porém tratar mais quadros por segundo ou imagens com resolução maior demandam mais poder de processamento do computador, consequentemente aumentando o gasto energético. Um dispositivo que seja mais econômico tem vários benefícios, por exemplo menor geração de calor e maior vida útil de seus componentes eletrônicos. Contudo, o maior impacto é o aumento da duração da bateria para dispositivos vestíveis. Pode-se economizar energia diminuindo resolução e frequência da câmera usada, mas os efeitos desses parâmetros na precisão e acurácia da estimação do olhar não foram investigados até o presente. Neste trabalho propomos criar uma plataforma de testes, que permita a integração de alguns algoritmos de rastreamento de olhar disponíveis, tais como Starburst, ITU Gaze Tracker e Pupil, para estudar e comparar o impacto da variação de resolução e frequência na acurácia e precisão dos algoritmos. Por meio de um experimento com usuários analisamos o desempenho e consumo desses algoritmos sob diversos valores de resolução e frequência. Nossos resultados indicam que apenas a diminuição da resolução de 480 para 240 linhas (mantendo a proporção da imagem) já acarreta em ao menos 66% de economia de energia em alguns rastreadores sem perda significativa de acurácia. / Eye tracking has been used more and more in human-computer interaction in several scenarios, as a form of interaction (mainly replacing the mouse for the physically handicapped) or as a means to study attention patterns of a person (performing activities such as grocery shopping, reading web pages or driving a car). At the same time, wearable devices such as small head-mounted screens and health-related sensors, have improved considerably in these years, finally becoming accessible to mainstream consumers. This form of technology is defined by devices that an user uses alongside his body, like a piece of clothing or accessory. The device and the user are in constant interaction and such systems are usually made to improve the user\'s ability to execute a task (for example, by giving contextualized information about the task in question) or to facilitate the parallel execution of several tasks. The use of eye trackers in wearable computing allows a new form of interaction in these devices, allowing the user to interact with them while performing another action with his hands. In wearable devices, the energy consumption is an important factor of the system which affects its utility and must be considered in its design. Unfortunately, current eye trackers ignore energy consumption and instead mainly focus on precision and accuracy, following the idea that working with higher resolution and higher frequency images will improve performance. However, processing more frames, or larger frames, per second require more computing power, consequentially increasing energy expense. A device that is more economical has several benefits, such as less heat generation and a greater life-span of its components. Yet the greatest impact is the increased battery duration for the wearable devices. Energy can be saved by lowering the frequency and resolution of the camera used by the tracker, but the effect of these parameters in the precision and accuracy of eye tracking have not been researched until now. In this work we propose an eye tracking testing platform, that allows integration with existing eye tracking algorithms such as Starburst, ITU Gaze Tracker and Pupil, to study and compare the impact of varying the resolution and frequency of the camera on accuracy and precision of the algorithms. Through a user experiment we analyzed the performance and consumption of these algorithms under various resolution and frequency values. Our result indicate that only lowering the resolution from 480 to 240 lines (keeping the image aspect ratio) already amounts to a 66% energy economy in some trackers without any meaningful loss of accuracy.
|
5 |
EyeSwipe: text entry using gaze paths / EyeSwipe: entrada de texto usando gestos do olharKurauchi, Andrew Toshiaki Nakayama 30 January 2018 (has links)
People with severe motor disabilities may communicate using their eye movements aided by a virtual keyboard and an eye tracker. Text entry by gaze may also benefit users immersed in virtual or augmented realities, when they do not have access to a physical keyboard or touchscreen. Thus, both users with and without disabilities may take advantage of the ability to enter text by gaze. However, methods for text entry by gaze are typically slow and uncomfortable. In this thesis we propose EyeSwipe as a step further towards fast and comfortable text entry by gaze. EyeSwipe maps gaze paths into words, similarly to how finger traces are used on swipe-based methods for touchscreen devices. A gaze path differs from the finger trace in that it does not have clear start and end positions. To segment the gaze path from the user\'s continuous gaze data stream, EyeSwipe requires the user to explicitly indicate its beginning and end. The user can quickly glance at the vicinity of the other characters that compose the word. Candidate words are sorted based on the gaze path and presented to the user. We discuss two versions of EyeSwipe. EyeSwipe 1 uses a deterministic gaze gesture called Reverse Crossing to select both the first and last letters of the word. Considering the lessons learned during the development and test of EyeSwipe 1 we proposed EyeSwipe 2. The user emits commands to the interface by switching the focus between regions. In a text entry experiment comparing EyeSwipe 2 to EyeSwipe 1, 11 participants achieved an average text entry rate of 12.58 words per minute (wpm) with EyeSwipe 1 and 14.59 wpm with EyeSwipe 2 after using each method for 75 minutes. The maximum entry rates achieved with EyeSwipe 1 and EyeSwipe 2 were, respectively, 21.27 wpm and 32.96 wpm. Participants considered EyeSwipe 2 to be more comfortable and faster, while less accurate than EyeSwipe 1. Additionally, with EyeSwipe 2 we proposed the use of gaze path data to dynamically adjust the gaze estimation. Using data from the experiment we show that gaze paths can be used to dynamically improve gaze estimation during the interaction. / Pessoas com deficiências motoras severas podem se comunicar usando movimentos do olhar com o auxílio de um teclado virtual e um rastreador de olhar. A entrada de texto usando o olhar também beneficia usuários imersos em realidade virtual ou realidade aumentada, quando não possuem acesso a um teclado físico ou tela sensível ao toque. Assim, tanto usuários com e sem deficiência podem se beneficiar da possibilidade de entrar texto usando o olhar. Entretanto, métodos para entrada de texto com o olhar são tipicamente lentos e desconfortáveis. Nesta tese propomos o EyeSwipe como mais um passo em direção à entrada rápida e confortável de texto com o olhar. O EyeSwipe mapeia gestos do olhar em palavras, de maneira similar a como os movimentos do dedo em uma tela sensível ao toque são utilizados em métodos baseados em gestos (swipe). Um gesto do olhar difere de um gesto com os dedos em que ele não possui posições de início e fim claramente definidas. Para segmentar o gesto do olhar a partir do fluxo contínuo de dados do olhar, o EyeSwipe requer que o usuário indique explicitamente seu início e fim. O usuário pode olhar rapidamente a vizinhança dos outros caracteres que compõe a palavra. Palavras candidatas são ordenadas baseadas no gesto do olhar e apresentadas ao usuário. Discutimos duas versões do EyeSwipe. O EyeSwipe 1 usa um gesto do olhar determinístico chamado Cruzamento Reverso para selecionar tanto a primeira quanto a última letra da palavra. Levando em consideração os aprendizados obtidos durante o desenvolvimento e teste do EyeSwipe 1 nós propusemos o EyeSwipe 2. O usuário emite comandos para a interface ao trocar o foco entre as regiões do teclado. Em um experimento de entrada de texto comparando o EyeSwipe 2 com o EyeSwipe 1, 11 participantes atingiram uma taxa de entrada média de 12.58 palavras por minuto (ppm) usando o EyeSwipe 1 e 14.59 ppm com o EyeSwipe 2 após utilizar cada método por 75 minutos. A taxa de entrada de texto máxima alcançada com o EyeSwipe 1 e EyeSwipe 2 foram, respectivamente, 21.27 ppm e 32.96 ppm. Os participantes consideraram o EyeSwipe 2 mais confortável e rápido, mas menos preciso do que o EyeSwipe 1. Além disso, com o EyeSwipe 2 nós propusemos o uso dos dados dos gestos do olhar para ajustar a estimação do olhar dinamicamente. Utilizando dados obtidos no experimento mostramos que os gestos do olhar podem ser usados para melhorar a estimação dinamicamente durante a interação.
|
6 |
Classificador para auxílio ao diagnóstico de TEA baseado em um modelo computacional de atenção visual / Classifier to aid ASD diagnosis based on a computational model of visual attentionOliveira, Jéssica dos Santos de 07 December 2017 (has links)
O Transtorno do Espectro do Autismo (TEA) é um transtorno do neurodesenvolvimento que afeta principalmente as habilidades de interação social dos indivíduos. Para auxiliar no diagnóstico, estudos têm utilizado técnicas de rastreamento de olhar, mas, em geral, os sinais são interpretados manualmente ou a automatização considera somente alguns dos indícios que podem definir a presença do TEA em indivíduos. O presente projeto visa a preencher esta lacuna, propondo utilizar os dados do rastreamento do olhar para o desenvolvimento de um modelo de atenção visual para TEA e para Desenvolvimento Típico (DT). A partir desses modelos, é construído um classificador que visará auxiliar no diagnóstico do TEA. Para alcançar o objetivo proposto, foram realizadas as seguintes etapas: revisão bibliográfica, aprovação do comitê de ética, definição do modelo de atenção visual, implementação do modelo, análise e publicação dos resultados. Os métodos foram testados com técnica de validação cruzada e construção de curva ROC. Os resultados mostraram que o modelo de atenção visual desenvolvido é capaz de prever a atenção visual do grupo TEA e do grupo DT, e que o método para classificação desenvolvido consegue classificar um indivíduo com TEA com média de 90\\% de precisão e 83\\% de especificidade, atingindo no melhor resultado 96\\% de precisão e 93\\% de especificidade. Espera-se que o método possa ser utilizado por profissionais da área de saúde e que sirva de base também para outras aplicações / Autism Spectrum Disorder (ASD) is a neurodevelopmental disorder that affects mainly social interaction skills of individuals. In order to aid the diagnosis, studies have used eye-tracking techniques, but, in general, the signals are interpreted manually or the automation considers only some of the evidence that may define the presence of the ASD in individuals considering eye-tracking signals. This project aims at contributing to this challenge, processing data provided from eye-tracking based on a visual attention model for ASD and Typical Development (TD). From this model its build a classifier that will aid ASD diagnosis. To achieve the proposed goal, the following steps were performed: literature review, approval of the ethics committee, definition of a visual attention model, model implementation, analysis and publication of results. The methods were tested with cross-validation technique and ROC curve construction. The results showed that the developed model is able to predict visual attention of the TEA group and the DT group, and that the developed training method can classify an individual with TEA with an average of 90\\% of precision and 83\\% of specificity. In the best result was achive 96\\% of accuracy and 93\\% of specificity. It is expected that the method can be used by health professionals and also serve as a basis for other applications
|
7 |
Classificador para auxílio ao diagnóstico de TEA baseado em um modelo computacional de atenção visual / Classifier to aid ASD diagnosis based on a computational model of visual attentionJéssica dos Santos de Oliveira 07 December 2017 (has links)
O Transtorno do Espectro do Autismo (TEA) é um transtorno do neurodesenvolvimento que afeta principalmente as habilidades de interação social dos indivíduos. Para auxiliar no diagnóstico, estudos têm utilizado técnicas de rastreamento de olhar, mas, em geral, os sinais são interpretados manualmente ou a automatização considera somente alguns dos indícios que podem definir a presença do TEA em indivíduos. O presente projeto visa a preencher esta lacuna, propondo utilizar os dados do rastreamento do olhar para o desenvolvimento de um modelo de atenção visual para TEA e para Desenvolvimento Típico (DT). A partir desses modelos, é construído um classificador que visará auxiliar no diagnóstico do TEA. Para alcançar o objetivo proposto, foram realizadas as seguintes etapas: revisão bibliográfica, aprovação do comitê de ética, definição do modelo de atenção visual, implementação do modelo, análise e publicação dos resultados. Os métodos foram testados com técnica de validação cruzada e construção de curva ROC. Os resultados mostraram que o modelo de atenção visual desenvolvido é capaz de prever a atenção visual do grupo TEA e do grupo DT, e que o método para classificação desenvolvido consegue classificar um indivíduo com TEA com média de 90\\% de precisão e 83\\% de especificidade, atingindo no melhor resultado 96\\% de precisão e 93\\% de especificidade. Espera-se que o método possa ser utilizado por profissionais da área de saúde e que sirva de base também para outras aplicações / Autism Spectrum Disorder (ASD) is a neurodevelopmental disorder that affects mainly social interaction skills of individuals. In order to aid the diagnosis, studies have used eye-tracking techniques, but, in general, the signals are interpreted manually or the automation considers only some of the evidence that may define the presence of the ASD in individuals considering eye-tracking signals. This project aims at contributing to this challenge, processing data provided from eye-tracking based on a visual attention model for ASD and Typical Development (TD). From this model its build a classifier that will aid ASD diagnosis. To achieve the proposed goal, the following steps were performed: literature review, approval of the ethics committee, definition of a visual attention model, model implementation, analysis and publication of results. The methods were tested with cross-validation technique and ROC curve construction. The results showed that the developed model is able to predict visual attention of the TEA group and the DT group, and that the developed training method can classify an individual with TEA with an average of 90\\% of precision and 83\\% of specificity. In the best result was achive 96\\% of accuracy and 93\\% of specificity. It is expected that the method can be used by health professionals and also serve as a basis for other applications
|
8 |
Nas partituras das emoções: processamento de estímulos afetivos musicais e visuais em crianças e adolescentes com Síndrome de Williams / In scores of emotions: processing of musical and visual affective stimuli in children and adolescents with Williams SyndromeNara Cortes Andrade 18 December 2017 (has links)
Compreender as bases do comportamento social e do desenvolvimento socioafetivo humano é essencial tanto para indivíduos com desenvolvimento típico (DT) quanto com transtornos neuropsiquiátricos. A Síndrome de Williams (SW) é uma condição neurogenética rara ocasionada pela deleção de aproximadamente 28 genes no cromossomo 7q11.23. A sintomatologia inclui desde dismorfismos faciais a alterações do funcionamento cognitivo e socioafetivo, com a presença de deficiência intelectual de grau leve a moderado. O processamento de estímulos afetivos tem sido foco de grande interesse em indivíduos com SW. Apesar de parte das pesquisas apontarem que esta população tem habilidade preservada de reconhecimento de expressões facias de emoções positivas e prejuízos no reconhecimento de emoções negativas, este ainda não é um campo consensual. Ao mesmo tempo, estudos indicam maior interesse desta população em relação a música e diferenças no neuroprocessamento de trechos musicais com valência afetiva. O presente trabalho teve por objetivo caracterizar o processamento de estímulos afetivos musicais e visuais em crianças e adolescentes com Síndrome de Williams. O Estudo I buscou validar trechos musicais com valência afetiva em cultura brasileira e analisar o efeito do treino musical na compreensão de emoções em música. Músicas com valência afetiva foram avaliadas pelos participantes de maneira correspondente à emoção pretendida pelo compositor e de forma similar entre as populações brasileiras e canadenses. O efeito do treino musical sobre a habilidade de reconhecer as emoções em música tiveram maior impacto em emoções com maior grau de dificuldade para os participantes como todo. O Estudo II visou caracterizar o perfil musical de crianças e adolescentes com SW e diferenciar o processamento de estímulos afetivos musicais em crianças e adolescentes com SW com as de DT. Pessoas com SW foram avaliadas com maior habilidade musical global. Não foram encontradas diferenças no que diz respeito ao interesse por atividades musicais. O Estudo III teve como objetivos diferenciar habilidade de reconhecimento de emoções o padrão de rastreamento do olhar frente a estímulos afetivos visuais em crianças e adolescentes com SW e SW com sintomas de TEA (SW/TEA). Pessoas com SW desprenderam maior tempo de fixação nos olhos e em faces alegres quando comparadas a faces tristes. Resultados indicam diferença no reconhecimento de emoções e rastreamento de olhar em indivíduos com SW/TEA. Padrão de reconhecimento em estímulos musicais e visuais foi semelhante na população SW, com acentuado prejuízo no reconhecimento de emoções negativas e preservação do reconhecimento de emoções positivas. Este achado reforça a modularidade do processamento neurológico das emoções básicas. Crianças com SW reconheceram mais facilmente estímulos musicais de valência positiva em comparação aos visuais sugerindo que o domínio da música seja um ponto de força desta população / Understand the foundation of social behavior and human social and affective development is essential for both individuals with typical developmental (TD) and neuropsychiatric disorders. Williams Syndrome (WS) is a rare neurogenetic condition caused by the deletion of approximately 28 genes on chromosome 7q11.23. The symptomatology includes from facial dysmorphisms to changes in cognitive and social and affective functioning, with the presence of mild to moderate intellectual deficiency. The processing of affective stimuli has been a focus of great interest in individuals with WS. Although part of the research indicates that this population has preserved ability to recognize face expressions of positive emotions and impairment in the recognition of negative emotions, this is not yet a consensual field. At the same time, studies indicate greater interest of this population in relation to music and differences in the neuroprocessing of musical excerpts with affective valence. The present work aimed to characterize the processing of musical and visual affective stimuli in children and adolescents with Williams Syndrome. Study I sought to validate musical excerpts with affective valence in Brazilian culture and to analyze the effect of musical training on the understanding of emotions in music. Songs with affective valence were evaluated by the participants corresponding to the emotion pretended by the composer and similarly between the Brazilian and Canadian populations. The effect of musical training on the ability to recognize emotions in music has had a greater impact on emotions with a greater degree of difficulty for participants as a whole. Study II aimed to characterize the musical profile of children and adolescents with WS and to differentiate the processing of musical affective stimuli in children and adolescents with WS compered to TD. People with WS were assessed with greater overall musical ability. No differences were found regarding the interest in musical activities. The aim of Study III was to differentiate between the ability to recognize emotions and the pattern of eye tracking in relation to visual affective stimuli in children and adolescents with SW and WS with ASD symptoms. People with SW gave more fixation time to the eyes and happy faces when compared to sad faces. Results indicate difference in the recognition of emotions and eye tracking in individuals with SW / ASD. Recognition pattern in musical and visual stimuli was similar in the WS population, with marked impairment in the recognition of negative emotions and preservation of the recognition of positive emotions. This finding reinforces the modularity of neurological processing of basic emotions. Children with WS recognized easily positive musical stimuli compared to visual ones suggesting that the domain of music is the strength of this population
|
9 |
Avaliação de desempenho de algoritmos de estimação do olhar para interação com computadores vestíveis / Performance evaluation of eye tracking algorithms for wearable computer interactionFernando Omar Aluani 08 December 2017 (has links)
Cada vez mais o rastreamento do olhar tem sido usado para interação humano-computador em diversos cenários, como forma de interação (usualmente substituindo o mouse, principalmente para pessoas com deficiências físicas) ou estudo dos padrões de atenção de uma pessoa (em situações como fazendo compras no mercado, olhando uma página na internet ou dirigindo um carro). Ao mesmo tempo, dispositivos vestíveis tais quais pequenas telas montadas na cabeça e sensores para medir dados relativos à saúde e exercício físico realizado por um usuário, também têm avançado muito nos últimos anos, finalmente chegando a se tornarem acessíveis aos consumidores. Essa forma de tecnologia se caracteriza por dispositivos que o usuário usa junto de seu corpo, como uma peça de roupa ou acessório. O dispositivo e o usuário estão em constante interação e tais sistemas são feitos para melhorar a execução de uma ação pelo usuário (por exemplo dando informações sobre a ação em questão) ou facilitar a execução de várias tarefas concorrentemente. O uso de rastreadores de olhar em computação vestível permite uma nova forma de interação para tais dispositivos, possibilitando que o usuário interaja com eles enquanto usa as mãos para realizar outra ação. Em dispositivos vestíveis, o consumo de energia é um fator importante do sistema que afeta sua utilidade e deve ser considerado em seu design. Infelizmente, rastreadores oculares atuais ignoram seu consumo e focam-se principalmente em precisão e acurácia, seguindo a ideia de que trabalhar com imagens de alta resolução e frequência maior implica em melhor desempenho. Porém tratar mais quadros por segundo ou imagens com resolução maior demandam mais poder de processamento do computador, consequentemente aumentando o gasto energético. Um dispositivo que seja mais econômico tem vários benefícios, por exemplo menor geração de calor e maior vida útil de seus componentes eletrônicos. Contudo, o maior impacto é o aumento da duração da bateria para dispositivos vestíveis. Pode-se economizar energia diminuindo resolução e frequência da câmera usada, mas os efeitos desses parâmetros na precisão e acurácia da estimação do olhar não foram investigados até o presente. Neste trabalho propomos criar uma plataforma de testes, que permita a integração de alguns algoritmos de rastreamento de olhar disponíveis, tais como Starburst, ITU Gaze Tracker e Pupil, para estudar e comparar o impacto da variação de resolução e frequência na acurácia e precisão dos algoritmos. Por meio de um experimento com usuários analisamos o desempenho e consumo desses algoritmos sob diversos valores de resolução e frequência. Nossos resultados indicam que apenas a diminuição da resolução de 480 para 240 linhas (mantendo a proporção da imagem) já acarreta em ao menos 66% de economia de energia em alguns rastreadores sem perda significativa de acurácia. / Eye tracking has been used more and more in human-computer interaction in several scenarios, as a form of interaction (mainly replacing the mouse for the physically handicapped) or as a means to study attention patterns of a person (performing activities such as grocery shopping, reading web pages or driving a car). At the same time, wearable devices such as small head-mounted screens and health-related sensors, have improved considerably in these years, finally becoming accessible to mainstream consumers. This form of technology is defined by devices that an user uses alongside his body, like a piece of clothing or accessory. The device and the user are in constant interaction and such systems are usually made to improve the user\'s ability to execute a task (for example, by giving contextualized information about the task in question) or to facilitate the parallel execution of several tasks. The use of eye trackers in wearable computing allows a new form of interaction in these devices, allowing the user to interact with them while performing another action with his hands. In wearable devices, the energy consumption is an important factor of the system which affects its utility and must be considered in its design. Unfortunately, current eye trackers ignore energy consumption and instead mainly focus on precision and accuracy, following the idea that working with higher resolution and higher frequency images will improve performance. However, processing more frames, or larger frames, per second require more computing power, consequentially increasing energy expense. A device that is more economical has several benefits, such as less heat generation and a greater life-span of its components. Yet the greatest impact is the increased battery duration for the wearable devices. Energy can be saved by lowering the frequency and resolution of the camera used by the tracker, but the effect of these parameters in the precision and accuracy of eye tracking have not been researched until now. In this work we propose an eye tracking testing platform, that allows integration with existing eye tracking algorithms such as Starburst, ITU Gaze Tracker and Pupil, to study and compare the impact of varying the resolution and frequency of the camera on accuracy and precision of the algorithms. Through a user experiment we analyzed the performance and consumption of these algorithms under various resolution and frequency values. Our result indicate that only lowering the resolution from 480 to 240 lines (keeping the image aspect ratio) already amounts to a 66% energy economy in some trackers without any meaningful loss of accuracy.
|
10 |
EyeSwipe: text entry using gaze paths / EyeSwipe: entrada de texto usando gestos do olharAndrew Toshiaki Nakayama Kurauchi 30 January 2018 (has links)
People with severe motor disabilities may communicate using their eye movements aided by a virtual keyboard and an eye tracker. Text entry by gaze may also benefit users immersed in virtual or augmented realities, when they do not have access to a physical keyboard or touchscreen. Thus, both users with and without disabilities may take advantage of the ability to enter text by gaze. However, methods for text entry by gaze are typically slow and uncomfortable. In this thesis we propose EyeSwipe as a step further towards fast and comfortable text entry by gaze. EyeSwipe maps gaze paths into words, similarly to how finger traces are used on swipe-based methods for touchscreen devices. A gaze path differs from the finger trace in that it does not have clear start and end positions. To segment the gaze path from the user\'s continuous gaze data stream, EyeSwipe requires the user to explicitly indicate its beginning and end. The user can quickly glance at the vicinity of the other characters that compose the word. Candidate words are sorted based on the gaze path and presented to the user. We discuss two versions of EyeSwipe. EyeSwipe 1 uses a deterministic gaze gesture called Reverse Crossing to select both the first and last letters of the word. Considering the lessons learned during the development and test of EyeSwipe 1 we proposed EyeSwipe 2. The user emits commands to the interface by switching the focus between regions. In a text entry experiment comparing EyeSwipe 2 to EyeSwipe 1, 11 participants achieved an average text entry rate of 12.58 words per minute (wpm) with EyeSwipe 1 and 14.59 wpm with EyeSwipe 2 after using each method for 75 minutes. The maximum entry rates achieved with EyeSwipe 1 and EyeSwipe 2 were, respectively, 21.27 wpm and 32.96 wpm. Participants considered EyeSwipe 2 to be more comfortable and faster, while less accurate than EyeSwipe 1. Additionally, with EyeSwipe 2 we proposed the use of gaze path data to dynamically adjust the gaze estimation. Using data from the experiment we show that gaze paths can be used to dynamically improve gaze estimation during the interaction. / Pessoas com deficiências motoras severas podem se comunicar usando movimentos do olhar com o auxílio de um teclado virtual e um rastreador de olhar. A entrada de texto usando o olhar também beneficia usuários imersos em realidade virtual ou realidade aumentada, quando não possuem acesso a um teclado físico ou tela sensível ao toque. Assim, tanto usuários com e sem deficiência podem se beneficiar da possibilidade de entrar texto usando o olhar. Entretanto, métodos para entrada de texto com o olhar são tipicamente lentos e desconfortáveis. Nesta tese propomos o EyeSwipe como mais um passo em direção à entrada rápida e confortável de texto com o olhar. O EyeSwipe mapeia gestos do olhar em palavras, de maneira similar a como os movimentos do dedo em uma tela sensível ao toque são utilizados em métodos baseados em gestos (swipe). Um gesto do olhar difere de um gesto com os dedos em que ele não possui posições de início e fim claramente definidas. Para segmentar o gesto do olhar a partir do fluxo contínuo de dados do olhar, o EyeSwipe requer que o usuário indique explicitamente seu início e fim. O usuário pode olhar rapidamente a vizinhança dos outros caracteres que compõe a palavra. Palavras candidatas são ordenadas baseadas no gesto do olhar e apresentadas ao usuário. Discutimos duas versões do EyeSwipe. O EyeSwipe 1 usa um gesto do olhar determinístico chamado Cruzamento Reverso para selecionar tanto a primeira quanto a última letra da palavra. Levando em consideração os aprendizados obtidos durante o desenvolvimento e teste do EyeSwipe 1 nós propusemos o EyeSwipe 2. O usuário emite comandos para a interface ao trocar o foco entre as regiões do teclado. Em um experimento de entrada de texto comparando o EyeSwipe 2 com o EyeSwipe 1, 11 participantes atingiram uma taxa de entrada média de 12.58 palavras por minuto (ppm) usando o EyeSwipe 1 e 14.59 ppm com o EyeSwipe 2 após utilizar cada método por 75 minutos. A taxa de entrada de texto máxima alcançada com o EyeSwipe 1 e EyeSwipe 2 foram, respectivamente, 21.27 ppm e 32.96 ppm. Os participantes consideraram o EyeSwipe 2 mais confortável e rápido, mas menos preciso do que o EyeSwipe 1. Além disso, com o EyeSwipe 2 nós propusemos o uso dos dados dos gestos do olhar para ajustar a estimação do olhar dinamicamente. Utilizando dados obtidos no experimento mostramos que os gestos do olhar podem ser usados para melhorar a estimação dinamicamente durante a interação.
|
Page generated in 0.1022 seconds