• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 4
  • 3
  • Tagged with
  • 7
  • 7
  • 6
  • 6
  • 4
  • 4
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

TIARI: Uma Interface para Entrada de Texto em Sistemas de Realidade Aumentada

Silveira, Isabel Wanderley da January 2007 (has links)
Made available in DSpace on 2014-06-12T16:00:14Z (GMT). No. of bitstreams: 2 arquivo6096_1.pdf: 2807039 bytes, checksum: 4ee474e20b7207ecc322cbd70325ef01 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2007 / Interfaces de Realidade Aumentada sobrepõem informações virtuais em cenas do mundo real, aumentando a realidade do usuário pela interação tanto com os objetos virtuais quanto os reais. Para permitir a interação do usuário com estas aplicações, vários tipos de interface vêm sendo propostos com a finalidade de fazer com que esta interação seja feita de forma simples, eficiente e intuitiva. Algumas aplicações de Realidade Aumentada têm a necessidade de entrada de texto, e com isso diversas formas de entrada de texto foram propostas, como teclados virtuais, teclados pinch, gestos, entre outros. Porém, algumas destas formas de interação são caras, incômodas ou difíceis de serem utilizadas por usuários leigos. Portanto, o objetivo dessa dissertação foi propor uma interface para dar suporte à entrada de texto neste tipo de sistemas. Esta interface, chamada TIARI (Text Input Augmented Reality Interface), consiste em uma interface que mescla um teclado virtual, gestos e a utilização de uma interface bare hand com marcadores fiduciais. Para auxiliar no desenvolvimento da TIARI, diversas bibliotecas utilizadas na construção de aplicações baseadas em vídeo com marcadores foram estudadas, a fim de serem escolhidas as mais adequadas à sua implementação. A TIARI utiliza marcadores fiduciais pequenos na mão do usuário, portanto uma biblioteca para fazer a detecção destes marcadores foi utilizada, o ARTag. Além dela, foi utilizada, também, uma biblioteca para captura de vídeo e para renderização dos objetos 3D, o OpenCV e o OGRE com o sistema de renderização OpenGL. Além destas, pode-se destacar como base no desenvolvimento da TIARI o OgreAR, responsável por facilitar o desenvolvimento de aplicações de RA, criando uma camada de abstração para as bibliotecas de detecção de marcadores e captura de vídeo. A fim de validar a interface desenvolvida, TIARI foi integrada a um sistema de Realidade Aumentada existente, o mivaDesk, que é um desktop virtual 3D. Além disto, TIARI foi avaliada através de um estudo de usabilidade realizado, onde a interface foi comparada a um teclado soft existente no mivaDesk. Como resultado desse estudo, a TIARI foi avaliada como de fácil utilização, e apresentou uma média de digitação mais alta que o teclado soft do mivaDesk. Porém, comparando-se a TIARI ao teclado convencional de layout QWERTY ela obteve um desempenho baixo
2

EyeSwipe: text entry using gaze paths / EyeSwipe: entrada de texto usando gestos do olhar

Kurauchi, Andrew Toshiaki Nakayama 30 January 2018 (has links)
People with severe motor disabilities may communicate using their eye movements aided by a virtual keyboard and an eye tracker. Text entry by gaze may also benefit users immersed in virtual or augmented realities, when they do not have access to a physical keyboard or touchscreen. Thus, both users with and without disabilities may take advantage of the ability to enter text by gaze. However, methods for text entry by gaze are typically slow and uncomfortable. In this thesis we propose EyeSwipe as a step further towards fast and comfortable text entry by gaze. EyeSwipe maps gaze paths into words, similarly to how finger traces are used on swipe-based methods for touchscreen devices. A gaze path differs from the finger trace in that it does not have clear start and end positions. To segment the gaze path from the user\'s continuous gaze data stream, EyeSwipe requires the user to explicitly indicate its beginning and end. The user can quickly glance at the vicinity of the other characters that compose the word. Candidate words are sorted based on the gaze path and presented to the user. We discuss two versions of EyeSwipe. EyeSwipe 1 uses a deterministic gaze gesture called Reverse Crossing to select both the first and last letters of the word. Considering the lessons learned during the development and test of EyeSwipe 1 we proposed EyeSwipe 2. The user emits commands to the interface by switching the focus between regions. In a text entry experiment comparing EyeSwipe 2 to EyeSwipe 1, 11 participants achieved an average text entry rate of 12.58 words per minute (wpm) with EyeSwipe 1 and 14.59 wpm with EyeSwipe 2 after using each method for 75 minutes. The maximum entry rates achieved with EyeSwipe 1 and EyeSwipe 2 were, respectively, 21.27 wpm and 32.96 wpm. Participants considered EyeSwipe 2 to be more comfortable and faster, while less accurate than EyeSwipe 1. Additionally, with EyeSwipe 2 we proposed the use of gaze path data to dynamically adjust the gaze estimation. Using data from the experiment we show that gaze paths can be used to dynamically improve gaze estimation during the interaction. / Pessoas com deficiências motoras severas podem se comunicar usando movimentos do olhar com o auxílio de um teclado virtual e um rastreador de olhar. A entrada de texto usando o olhar também beneficia usuários imersos em realidade virtual ou realidade aumentada, quando não possuem acesso a um teclado físico ou tela sensível ao toque. Assim, tanto usuários com e sem deficiência podem se beneficiar da possibilidade de entrar texto usando o olhar. Entretanto, métodos para entrada de texto com o olhar são tipicamente lentos e desconfortáveis. Nesta tese propomos o EyeSwipe como mais um passo em direção à entrada rápida e confortável de texto com o olhar. O EyeSwipe mapeia gestos do olhar em palavras, de maneira similar a como os movimentos do dedo em uma tela sensível ao toque são utilizados em métodos baseados em gestos (swipe). Um gesto do olhar difere de um gesto com os dedos em que ele não possui posições de início e fim claramente definidas. Para segmentar o gesto do olhar a partir do fluxo contínuo de dados do olhar, o EyeSwipe requer que o usuário indique explicitamente seu início e fim. O usuário pode olhar rapidamente a vizinhança dos outros caracteres que compõe a palavra. Palavras candidatas são ordenadas baseadas no gesto do olhar e apresentadas ao usuário. Discutimos duas versões do EyeSwipe. O EyeSwipe 1 usa um gesto do olhar determinístico chamado Cruzamento Reverso para selecionar tanto a primeira quanto a última letra da palavra. Levando em consideração os aprendizados obtidos durante o desenvolvimento e teste do EyeSwipe 1 nós propusemos o EyeSwipe 2. O usuário emite comandos para a interface ao trocar o foco entre as regiões do teclado. Em um experimento de entrada de texto comparando o EyeSwipe 2 com o EyeSwipe 1, 11 participantes atingiram uma taxa de entrada média de 12.58 palavras por minuto (ppm) usando o EyeSwipe 1 e 14.59 ppm com o EyeSwipe 2 após utilizar cada método por 75 minutos. A taxa de entrada de texto máxima alcançada com o EyeSwipe 1 e EyeSwipe 2 foram, respectivamente, 21.27 ppm e 32.96 ppm. Os participantes consideraram o EyeSwipe 2 mais confortável e rápido, mas menos preciso do que o EyeSwipe 1. Além disso, com o EyeSwipe 2 nós propusemos o uso dos dados dos gestos do olhar para ajustar a estimação do olhar dinamicamente. Utilizando dados obtidos no experimento mostramos que os gestos do olhar podem ser usados para melhorar a estimação dinamicamente durante a interação.
3

EyeSwipe: text entry using gaze paths / EyeSwipe: entrada de texto usando gestos do olhar

Andrew Toshiaki Nakayama Kurauchi 30 January 2018 (has links)
People with severe motor disabilities may communicate using their eye movements aided by a virtual keyboard and an eye tracker. Text entry by gaze may also benefit users immersed in virtual or augmented realities, when they do not have access to a physical keyboard or touchscreen. Thus, both users with and without disabilities may take advantage of the ability to enter text by gaze. However, methods for text entry by gaze are typically slow and uncomfortable. In this thesis we propose EyeSwipe as a step further towards fast and comfortable text entry by gaze. EyeSwipe maps gaze paths into words, similarly to how finger traces are used on swipe-based methods for touchscreen devices. A gaze path differs from the finger trace in that it does not have clear start and end positions. To segment the gaze path from the user\'s continuous gaze data stream, EyeSwipe requires the user to explicitly indicate its beginning and end. The user can quickly glance at the vicinity of the other characters that compose the word. Candidate words are sorted based on the gaze path and presented to the user. We discuss two versions of EyeSwipe. EyeSwipe 1 uses a deterministic gaze gesture called Reverse Crossing to select both the first and last letters of the word. Considering the lessons learned during the development and test of EyeSwipe 1 we proposed EyeSwipe 2. The user emits commands to the interface by switching the focus between regions. In a text entry experiment comparing EyeSwipe 2 to EyeSwipe 1, 11 participants achieved an average text entry rate of 12.58 words per minute (wpm) with EyeSwipe 1 and 14.59 wpm with EyeSwipe 2 after using each method for 75 minutes. The maximum entry rates achieved with EyeSwipe 1 and EyeSwipe 2 were, respectively, 21.27 wpm and 32.96 wpm. Participants considered EyeSwipe 2 to be more comfortable and faster, while less accurate than EyeSwipe 1. Additionally, with EyeSwipe 2 we proposed the use of gaze path data to dynamically adjust the gaze estimation. Using data from the experiment we show that gaze paths can be used to dynamically improve gaze estimation during the interaction. / Pessoas com deficiências motoras severas podem se comunicar usando movimentos do olhar com o auxílio de um teclado virtual e um rastreador de olhar. A entrada de texto usando o olhar também beneficia usuários imersos em realidade virtual ou realidade aumentada, quando não possuem acesso a um teclado físico ou tela sensível ao toque. Assim, tanto usuários com e sem deficiência podem se beneficiar da possibilidade de entrar texto usando o olhar. Entretanto, métodos para entrada de texto com o olhar são tipicamente lentos e desconfortáveis. Nesta tese propomos o EyeSwipe como mais um passo em direção à entrada rápida e confortável de texto com o olhar. O EyeSwipe mapeia gestos do olhar em palavras, de maneira similar a como os movimentos do dedo em uma tela sensível ao toque são utilizados em métodos baseados em gestos (swipe). Um gesto do olhar difere de um gesto com os dedos em que ele não possui posições de início e fim claramente definidas. Para segmentar o gesto do olhar a partir do fluxo contínuo de dados do olhar, o EyeSwipe requer que o usuário indique explicitamente seu início e fim. O usuário pode olhar rapidamente a vizinhança dos outros caracteres que compõe a palavra. Palavras candidatas são ordenadas baseadas no gesto do olhar e apresentadas ao usuário. Discutimos duas versões do EyeSwipe. O EyeSwipe 1 usa um gesto do olhar determinístico chamado Cruzamento Reverso para selecionar tanto a primeira quanto a última letra da palavra. Levando em consideração os aprendizados obtidos durante o desenvolvimento e teste do EyeSwipe 1 nós propusemos o EyeSwipe 2. O usuário emite comandos para a interface ao trocar o foco entre as regiões do teclado. Em um experimento de entrada de texto comparando o EyeSwipe 2 com o EyeSwipe 1, 11 participantes atingiram uma taxa de entrada média de 12.58 palavras por minuto (ppm) usando o EyeSwipe 1 e 14.59 ppm com o EyeSwipe 2 após utilizar cada método por 75 minutos. A taxa de entrada de texto máxima alcançada com o EyeSwipe 1 e EyeSwipe 2 foram, respectivamente, 21.27 ppm e 32.96 ppm. Os participantes consideraram o EyeSwipe 2 mais confortável e rápido, mas menos preciso do que o EyeSwipe 1. Além disso, com o EyeSwipe 2 nós propusemos o uso dos dados dos gestos do olhar para ajustar a estimação do olhar dinamicamente. Utilizando dados obtidos no experimento mostramos que os gestos do olhar podem ser usados para melhorar a estimação dinamicamente durante a interação.
4

Método de entrada de texto baseada em gestos para dispositivos com telas sensíveis ao toque / Text input method based gestures for devices with touch screens

Nascimento, Thamer Horbylon 13 October 2015 (has links)
Submitted by Cláudia Bueno (claudiamoura18@gmail.com) on 2016-03-03T20:22:51Z No. of bitstreams: 2 Dissertação - Thamer Horbylon Nascimento - 2015.pdf: 3404276 bytes, checksum: 8b96b87a1ad94259e867e586b0cdde9b (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) / Approved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2016-03-04T11:20:16Z (GMT) No. of bitstreams: 2 Dissertação - Thamer Horbylon Nascimento - 2015.pdf: 3404276 bytes, checksum: 8b96b87a1ad94259e867e586b0cdde9b (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) / Made available in DSpace on 2016-03-04T11:20:16Z (GMT). No. of bitstreams: 2 Dissertação - Thamer Horbylon Nascimento - 2015.pdf: 3404276 bytes, checksum: 8b96b87a1ad94259e867e586b0cdde9b (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) Previous issue date: 2015-10-13 / Fundação de Amparo à Pesquisa do Estado de Goiás - FAPEG / This paper proposes a method for gesture-based text input to be used in devices with touch screens. The steps required for this are: recognizing gestures, identify actions needed to enter letters and recognize letters with up to two interactions. To the recognition of gestures, we used the incremental recognition algorithm, which works so that it is not necessary to finish a gesture for this to be recognized, that is, works with continuous gesture recognition. Furthermore, a template is used as a reference for the recognition of gestures. The algorithm identifies the likelihood of the gesture being a running the template. As the incremental recognition algorithm did not have curves in templates using the reduced equation of the circle, was created a template with curves and straight lines were also added in it. The template created served to create a database for entering the letters of the alphabet from A to Z, using user gestures. This base was used for training of a Naïve Bayes classifier, which identifies the probability of inserting a letter entered by the user based on the gestures. Three experiments were conducted to test the method developed. It was found that most users entered a letter using up to two interactions when inserted the five vowels and the five most frequent consonants. When inserting the five vowels and five consonants less frequent, users were also able to enter the letters with up to two interactions. Thus, there is evidence that the method to solve the problem which has been proposed as a solution. / Este trabalho propõe um método para entrada de texto baseado em gestos para ser usado em dispositivos com telas sensíveis ao toque. Os passos necessários para isso são: reconhecer gestos, identificar gestos necessários para inserir letras e reconhecer letras com até duas interações. Para fazer o reconhecimento dos gestos, foi utilizado o algoritmo de reconhecimento incremental, o qual trabalha de forma que não seja necessário terminar um gesto para que este seja reconhecido, ou seja, trabalha com reconhecimento contínuo de gestos. Além disso, um template é utilizado como referência para o reconhecimento dos gestos, assim, o algoritmo identifica a probabilidade de o gesto em execução ser um do template. Como o algoritmo de reconhecimento incremental não possuía curvas em seus templates, utilizando a equação reduzida da circunferência, foi criado um template com curvas e foram também adicionadas retas nele. O template criado serviu para a criação de uma base de dados para a inserção das letras do alfabeto de A a Z, utilizando gestos de usuários. Essa base foi utilizada para treinamento de um classificador Naïve Bayes, que identifica a probabilidade de inserção de uma letra baseado nos gestos inseridos pelo usuário. Foram realizados três experimentos para testar o método desenvolvido. Verificouse que a maioria dos usuários inseriu uma letra utilizando até duas interações, quando inseriram as cinco vogais e as cinco consoantes mais frequentes. Ao inserir as cinco vogais e cinco consoantes menos frequentes, os usuários também conseguiram inserir as letras com até duas interações. Assim, há evidências de que o método resolva o problema para qual foi proposto como solução.
5

Data input and content exploration in scenarios with restrictions / Entrada de dados e exploração de conteúdo em cenários com restrições

Pedrosa, Diogo de Carvalho 03 December 2014 (has links)
As technology evolves, new devices and interaction techniques are developed. These transformations create several challenges in terms of usability and user experience. Our research faces some challenges for data input or content exploration in scenarios with restrictions. It is not our intention to investigate all possible scenarios, but we deeply explore a broad range of devices and restrictions. We start with a discussion about the use of an interactive coffee table for exploration of personal photos and videos, also considering a TV set as an additional screen. In a second scenario, we present an architecture that offers to interactive digital TV (iDTV) applications the possibility of receiving multimodal data from multiple devices. Our third scenario concentrates on supporting text input for iDTV applications using a remote control, and presents an interface model based on multiple input modes as a solution. In the last two scenarios, we continued investigating better ways to provide text entry; however, our restriction becomes not using the hands, which is the kind of challenge faced by severely motor-disabled individuals. First, we present a text entry method based on two input symbols and an interaction technique based on detecting internal and external heel rotations using an accelerometer, for those who keep at least a partial movement of a leg and a foot. In the following scenario, only the eyes are required. We present an eye-typing technique that recognizes the intended word by weighting length and frequency of all possible words formed by filtering extra letters from the sequence of letters gazed by the user. The exploration of each scenario in depth was important to achieve the relevant results and contributions. On the other hand, the wide scope of this dissertation allowed the student to learn about several technologies and techniques. / Com a evolução da tecnologia, novos dispositivos e técnicas de interação são desenvolvidas. Essas transformações criam desafios em termos de usabilidade e experiência do usuário. Essa pesquisa enfrenta alguns desafios para a entrada de dados e exploração de conteúdo em cenários com restrições. Não foi intenção da pesquisa investigar todos os possíveis cenários, mas sim a exploração em profundidade de uma ampla gama de dispositivos e restrições. Ao todo cinco cenários são investigados. Primeiramente é apresentada uma discussão sobre o uso de uma mesa de centro interativa para a exploração de fotos e vídeos pessoais, a qual também considera um aparelho de TV como tela adicional. Com base no segundo cenário, uma arquitetura que oferece a aplicações de TV digital interativa (TVDI) a possibilidade de receber dados multimodais de múltiplos dispositivos é apresentada. O terceiro cenário se concentra no suporte a entrada de texto para aplicações de TVDI usando o controle remoto, resultando na apresentação de um modelo de interface baseado em múltiplos modos de entrada como solução. Os dois últimos cenários permitem continuar a investigação por melhores formas de entrada de texto, porém, a restrição se torna a impossibilidade de usar as mãos, um dos desafios enfrentados por indivíduos com deficiência motora severa. No primeiro deles, são apresentados um método de entrada de texto baseado em dois símbolos de entrada e uma técnica de interação baseada na detecção de rotações do pé apoiado sobre o calcanhar usando acelerômetro, para aqueles que mantêm pelo menos um movimento parcial de uma perna e um pé. No senário seguinte, apenas os movimentos dos olhos são exigidos. Foi apresentada uma técnica de escrita com o olho que reconhece a palavra desejada ponderando o comprimento de a frequência de ocorrência de todas as palavras que podem ser formadas filtrando letras excedentes da lista de letras olhadas pelo usuário. A exploração de cada cenário em profundidade foi importante para a obtenção de resultados e contribuições relevantes. Por outro lado, o amplo escopo da dissertação permitiu ao estudante o aprendizado de diversas técnicas e tecnologias.
6

BrailleÉcran: uma abordagem para entrada de texto em Braille para smartphones / BrailleÉcran: an approach to Braille text entry on smartphones

Siqueira, Joyce 14 July 2017 (has links)
Submitted by Cássia Santos (cassia.bcufg@gmail.com) on 2017-08-01T10:48:34Z No. of bitstreams: 2 Dissertação - Joyce Siqueira - 2017.pdf: 19412017 bytes, checksum: ed71bf6287eda5153f70caad31c82d62 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Approved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2017-08-01T15:16:13Z (GMT) No. of bitstreams: 2 Dissertação - Joyce Siqueira - 2017.pdf: 19412017 bytes, checksum: ed71bf6287eda5153f70caad31c82d62 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Made available in DSpace on 2017-08-01T15:16:13Z (GMT). No. of bitstreams: 2 Dissertação - Joyce Siqueira - 2017.pdf: 19412017 bytes, checksum: ed71bf6287eda5153f70caad31c82d62 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Previous issue date: 2017-07-14 / Touch screens have made smartphones much more dynamic. However, due to the absence of the physical keyboard, they also made them less accessible for visually impaired people. Considering the input of text as a primary function, the objective of this research was to develop a method that uses the Braille System for typing, from a new virtual keyboard, which is supported by a tactile film superimposed on the touch screen. The method was constructed considering the mobile accessibility guidelines developed by the W3C, World Wide Web Consortium, and the monitoring of a specialist user with congenital blindness and Braille literacy. As a result, BrailleÉcran was developed, the combination of an Android application with a tactile film modeled for 3D printing. Besides the film, the application has the "Configuration Panel", which allows the application to adapt to user preferences and the "Help Center", which provides a spoken tutorial. For evaluation, 10 volunteers performed the experiments that allowed the verification of speed, accuracy, usability and user experience. As a result WPM = 2.52 and TER = 2.68. The usability questionnaire brought positive results, of which we highlight the "You liked to use" issue with 90% acceptance. In the PANAS questionnaire, all the positive affects obtained a maximum score and the negative affects a minimum score. It is estimated that this research offers society not only a method but a quality assistive technology that provides more independence for the visually impaired. In addition, to expand the studies in this area, the prototypes are open source and are available for access and future contributions. / As telas sensíveis ao toque tornaram os smartphones muito mais dinâmicos. No entanto,devido à ausência do teclado físico, também os tornaram menos acessíveis para pessoascom deficiência visual. Considerando a entrada de texto uma função primária, o objetivodesta pesquisa foi o de desenvolver um método que utilizasse o Sistema Braille paradigitação, a partir de um novo teclado virtual, que tenha como suporte uma película tátilsobreposta à tela sensível ao toque. O método foi construído considerando as diretrizesde acessibilidade móvel, desenvolvidas pelaWorld Wide Web Consortium(W3C) e oacompanhamento de um especialista, com cegueira congênita e alfabetizado em Braille.Como resultado, desenvolveu-se o BrailleÉcran, a combinação de um aplicativo Androidcom uma película tátil, modelada para impressão 3D. Além da película, o aplicativo contacom o “Painel de Configuração”, que permite a adaptação do aplicativo às preferênciasdo usuário e a “Central de Ajuda”, que disponibiliza um tutorial falado. Para avaliação,10 voluntários realizaram os experimentos que possibilitaram a verificação da velocidade,da taxa de erros, da satisfação e da experiência do usuário. Como resultado obteve-se queo valor médio de palavras digitadas por minuto (WPM) foi de 2,52 e a taxa total de erros(TER) foi de 2,68%. A entrevista sobre a satisfação do usuário trouxe resultados positivos,dos quais destaca-se a afirmativa “Você gostou de usar”, com 90% de aceitação. Emrelação a experiência de uso, aplicou-se o questionário Afeto Positivo e Afeto Negativo(PANAS) e como resultado obteve-se que todos os afetos positivos foram aflorados,ao contrário dos negativos. Estima-se que esta pesquisa possa oferecer à sociedade ummétodo de qualidade. Ademais, para expansão dos estudos, os protótipos são de códigoaberto e estão disponíveis para acesso e futuras contribuições.
7

Data input and content exploration in scenarios with restrictions / Entrada de dados e exploração de conteúdo em cenários com restrições

Diogo de Carvalho Pedrosa 03 December 2014 (has links)
As technology evolves, new devices and interaction techniques are developed. These transformations create several challenges in terms of usability and user experience. Our research faces some challenges for data input or content exploration in scenarios with restrictions. It is not our intention to investigate all possible scenarios, but we deeply explore a broad range of devices and restrictions. We start with a discussion about the use of an interactive coffee table for exploration of personal photos and videos, also considering a TV set as an additional screen. In a second scenario, we present an architecture that offers to interactive digital TV (iDTV) applications the possibility of receiving multimodal data from multiple devices. Our third scenario concentrates on supporting text input for iDTV applications using a remote control, and presents an interface model based on multiple input modes as a solution. In the last two scenarios, we continued investigating better ways to provide text entry; however, our restriction becomes not using the hands, which is the kind of challenge faced by severely motor-disabled individuals. First, we present a text entry method based on two input symbols and an interaction technique based on detecting internal and external heel rotations using an accelerometer, for those who keep at least a partial movement of a leg and a foot. In the following scenario, only the eyes are required. We present an eye-typing technique that recognizes the intended word by weighting length and frequency of all possible words formed by filtering extra letters from the sequence of letters gazed by the user. The exploration of each scenario in depth was important to achieve the relevant results and contributions. On the other hand, the wide scope of this dissertation allowed the student to learn about several technologies and techniques. / Com a evolução da tecnologia, novos dispositivos e técnicas de interação são desenvolvidas. Essas transformações criam desafios em termos de usabilidade e experiência do usuário. Essa pesquisa enfrenta alguns desafios para a entrada de dados e exploração de conteúdo em cenários com restrições. Não foi intenção da pesquisa investigar todos os possíveis cenários, mas sim a exploração em profundidade de uma ampla gama de dispositivos e restrições. Ao todo cinco cenários são investigados. Primeiramente é apresentada uma discussão sobre o uso de uma mesa de centro interativa para a exploração de fotos e vídeos pessoais, a qual também considera um aparelho de TV como tela adicional. Com base no segundo cenário, uma arquitetura que oferece a aplicações de TV digital interativa (TVDI) a possibilidade de receber dados multimodais de múltiplos dispositivos é apresentada. O terceiro cenário se concentra no suporte a entrada de texto para aplicações de TVDI usando o controle remoto, resultando na apresentação de um modelo de interface baseado em múltiplos modos de entrada como solução. Os dois últimos cenários permitem continuar a investigação por melhores formas de entrada de texto, porém, a restrição se torna a impossibilidade de usar as mãos, um dos desafios enfrentados por indivíduos com deficiência motora severa. No primeiro deles, são apresentados um método de entrada de texto baseado em dois símbolos de entrada e uma técnica de interação baseada na detecção de rotações do pé apoiado sobre o calcanhar usando acelerômetro, para aqueles que mantêm pelo menos um movimento parcial de uma perna e um pé. No senário seguinte, apenas os movimentos dos olhos são exigidos. Foi apresentada uma técnica de escrita com o olho que reconhece a palavra desejada ponderando o comprimento de a frequência de ocorrência de todas as palavras que podem ser formadas filtrando letras excedentes da lista de letras olhadas pelo usuário. A exploração de cada cenário em profundidade foi importante para a obtenção de resultados e contribuições relevantes. Por outro lado, o amplo escopo da dissertação permitiu ao estudante o aprendizado de diversas técnicas e tecnologias.

Page generated in 0.0565 seconds