Submitted by Alison Vanceto (alison-vanceto@hotmail.com) on 2016-10-04T12:38:10Z
No. of bitstreams: 1
DissYLSM.pdf: 5457505 bytes, checksum: 5b644703e5553e5b7a06e6ad6e976868 (MD5) / Approved for entry into archive by Ronildo Prado (ronisp@ufscar.br) on 2016-10-04T18:00:12Z (GMT) No. of bitstreams: 1
DissYLSM.pdf: 5457505 bytes, checksum: 5b644703e5553e5b7a06e6ad6e976868 (MD5) / Approved for entry into archive by Ronildo Prado (ronisp@ufscar.br) on 2016-10-04T18:00:21Z (GMT) No. of bitstreams: 1
DissYLSM.pdf: 5457505 bytes, checksum: 5b644703e5553e5b7a06e6ad6e976868 (MD5) / Made available in DSpace on 2016-10-04T18:13:36Z (GMT). No. of bitstreams: 1
DissYLSM.pdf: 5457505 bytes, checksum: 5b644703e5553e5b7a06e6ad6e976868 (MD5)
Previous issue date: 2012-11-01 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / The interaction between humans and the computers has improved substantially
during time through the evolution of interfaces of interaction. The possibility of users to
interact with machines through several modalities of communication, and in a natural
way, can increase the level of interest from the user and ensure the success of the
application.
However, the literature of the area of multimodality has shown that developing
such interfaces is not a simple task, mainly for non-experienced or recently graduated
professionals, since each designer’s modality of interaction has its complexity in technical
terms, as acquisition and adaptation with new tools, languages, possible actions and etc.
Moreover it is necessary to verify which modalities (voice, touch and gestures) can be
used in the application, how to combine these modalities in a way that the stronger point
of one completes the weak point of the other and vice versa, and also knowing in what
context the final user will be involved.
The GuiBuilder Multimodal was developed aiming to try providing the basic
needs in implementing an interface that uses voice, touch and gesture. The framework
promotes an interface development through the WYSIWYG (What You See Is What You
Get) model, where the designer just sets some parameters so the component is
multimodal. During the interface creation phase, agents supervise what the designer does
and supply support, clues, with design patterns that might be divided in categories such
as: multimodality, interaction with the user and components. / A interação entre humano e computador tem melhorado substancialmente ao longo do tempo
através da evolução das interfaces de interação. A possibilidade de usuários interagirem com
máquinas através de várias modalidades de comunicação, e de forma natural, pode aumentar o nível
de interesse do usuário e garantir o sucesso da aplicação.
Porém, o estado da arte da área de multimodalidade demonstra que desenvolver tais
interfaces não é uma tarefa simples, principalmente para projetistas inexperientes ou recém
formados, pois cada modalidade de interação tem sua complexidade em termos técnicos, como
aquisição e adaptação com novas ferramentas, linguagens, ações possíveis e etc. Além disso, é
preciso verificar quais modalidades (voz, toque e gestos) podem ser usadas na aplicação, como
combinar essas modalidades de forma que o ponto forte de uma complemente o ponto fraco da outra
e vice-versa e também saber em qual contexto o usuário final estará inserido.
O GuiBuilder Multimodal foi desenvolvido com o intuito de tentar suprir as necessidades
básicas em se implementar uma interface que utiliza voz, toque e gesto. O framework promove um
desenvolvimento de interface através do modelo WYSIWYG (What You See Is What You Get) onde o
projetista apenas define alguns parâmetros para que um componente seja multimodal. Durante a fase
de criação da interface agentes supervisionam o que o designer faz e fornece um apoio, dicas, com
padrões de projeto que podem ser divididos em categorias como: multimodalidade, interação com o
usuário e componentes.
Identifer | oai:union.ndltd.org:IBICT/oai:repositorio.ufscar.br:ufscar/7641 |
Date | 01 November 2012 |
Creators | Fragoso, Ygara Lúcia Souza Melo |
Contributors | Pizzolato, Ednaldo Brigante |
Publisher | Universidade Federal de São Carlos, Câmpus São Carlos, Programa de Pós-graduação em Ciência da Computação, UFSCar |
Source Sets | IBICT Brazilian ETDs |
Language | Portuguese |
Detected Language | English |
Type | info:eu-repo/semantics/publishedVersion, info:eu-repo/semantics/masterThesis |
Source | reponame:Repositório Institucional da UFSCAR, instname:Universidade Federal de São Carlos, instacron:UFSCAR |
Rights | info:eu-repo/semantics/openAccess |
Page generated in 0.0032 seconds