Spelling suggestions: "subject:"1interaction tangible"" "subject:"1interaction frangible""
1 |
Tabletop tangible maps and diagrams for visually impaired users / Cartes et diagrammes tangibles sur table pour des utilisateurs déficients visuelsDucasse, Julie 06 October 2017 (has links)
En dépit de leur omniprésence et de leur rôle essentiel dans nos vies professionnelles et personnelles, les représentations graphiques, qu'elles soient numériques ou sur papier, ne sont pas accessibles aux personnes déficientes visuelles car elles ne fournissent pas d'informations tactiles. Par ailleurs, les inégalités d'accès à ces représentations ne cessent de s'accroître ; grâce au développement de représentations graphiques dynamiques et disponibles en ligne, les personnes voyantes peuvent non seulement accéder à de grandes quantités de données, mais aussi interagir avec ces données par le biais de fonctionnalités avancées (changement d'échelle, sélection des données à afficher, etc.). En revanche, pour les personnes déficientes visuelles, les techniques actuellement utilisées pour rendre accessibles les cartes et les diagrammes nécessitent l'intervention de spécialistes et ne permettent pas la création de représentations interactives. Cependant, les récentes avancées dans le domaine de l'adaptation automatique de contenus laissent entrevoir, dans les prochaines années, une augmentation de la quantité de contenus adaptés. Cette augmentation doit aller de pair avec le développement de dispositifs utilisables et abordables en mesure de supporter l'affichage de représentations interactives et rapidement modifiables, tout en étant accessibles aux personnes déficientes visuelles. Certains prototypes de recherche s'appuient sur une représentation numérique seulement : ils peuvent être instantanément modifiés mais ne fournissent que très peu de retour tactile, ce qui rend leur exploration complexe d'un point de vue cognitif et impose de fortes contraintes sur le contenu. D'autres prototypes s'appuient sur une représentation numérique et physique : bien qu'ils puissent être explorés tactilement, ce qui est un réel avantage, ils nécessitent un support tactile qui empêche toute modification rapide. Quant aux dispositifs similaires à des tablettes Braille, mais avec des milliers de picots, leur coût est prohibitif. L'objectif de cette thèse est de pallier les limitations de ces approches en étudiant comment développer des cartes et diagrammes interactifs physiques, modifiables et abordables. Pour cela, nous nous appuyons sur un type d'interface qui a rarement été étudié pour des utilisateurs déficients visuels : les interfaces tangibles, et plus particulièrement les interfaces tangibles sur table. Dans ces interfaces, des objets physiques représentent des informations numériques et peuvent être manipulés par l'utilisateur pour interagir avec le système, ou par le système lui-même pour refléter un changement du modèle numérique - on parle alors d'interfaces tangibles sur tables animées, ou actuated. Grâce à la conception, au développement et à l'évaluation de trois interfaces tangibles sur table (les Tangible Reels, la Tangible Box et BotMap), nous proposons un ensemble de solutions techniques répondant aux spécificités des interfaces tangibles pour des personnes déficientes visuelles, ainsi que de nouvelles techniques d'interaction non-visuelles, notamment pour la reconstruction d'une carte ou d'un diagramme et l'exploration de cartes de type " Pan & Zoom ". D'un point de vue théorique, nous proposons aussi une nouvelle classification pour les dispositifs interactifs accessibles. / Despite their omnipresence and essential role in our everyday lives, online and printed graphical representations are inaccessible to visually impaired people because they cannot be explored using the sense of touch. The gap between sighted and visually impaired people's access to graphical representations is constantly growing due to the increasing development and availability of online and dynamic representations that not only give sighted people the opportunity to access large amounts of data, but also to interact with them using advanced functionalities such as panning, zooming and filtering. In contrast, the techniques currently used to make maps and diagrams accessible to visually impaired people require the intervention of tactile graphics specialists and result in non-interactive tactile representations. However, based on recent advances in the automatic production of content, we can expect in the coming years a growth in the availability of adapted content, which must go hand-in-hand with the development of affordable and usable devices. In particular, these devices should make full use of visually impaired users' perceptual capacities and support the display of interactive and updatable representations. A number of research prototypes have already been developed. Some rely on digital representation only, and although they have the great advantage of being instantly updatable, they provide very limited tactile feedback, which makes their exploration cognitively demanding and imposes heavy restrictions on content. On the other hand, most prototypes that rely on digital and physical representations allow for a two-handed exploration that is both natural and efficient at retrieving and encoding spatial information, but they are physically limited by the use of a tactile overlay, making them impossible to update. Other alternatives are either extremely expensive (e.g. braille tablets) or offer a slow and limited way to update the representation (e.g. maps that are 3D-printed based on users' inputs). In this thesis, we propose to bridge the gap between these two approaches by investigating how to develop physical interactive maps and diagrams that support two-handed exploration, while at the same time being updatable and affordable. To do so, we build on previous research on Tangible User Interfaces (TUI) and particularly on (actuated) tabletop TUIs, two fields of research that have surprisingly received very little interest concerning visually impaired users. Based on the design, implementation and evaluation of three tabletop TUIs (the Tangible Reels, the Tangible Box and BotMap), we propose innovative non-visual interaction techniques and technical solutions that will hopefully serve as a basis for the design of future TUIs for visually impaired users, and encourage their development and use. We investigate how tangible maps and diagrams can support various tasks, ranging from the (re)construction of diagrams to the exploration of maps by panning and zooming. From a theoretical perspective we contribute to the research on accessible graphical representations by highlighting how research on maps can feed research on diagrams and vice-versa. We also propose a classification and comparison of existing prototypes to deliver a structured overview of current research.
|
2 |
Supporting Versatility in Tangible User Interfaces Using Collections of Small Actuated Objects / Interfaces tangibles polyvalentes à base de collections d'objets mobiles de petite tailleLe Goc, Mathieu 15 December 2016 (has links)
Dans ce manuscrit, je présente mes travaux visant à rendre les interfaces tangibles plus polyvalentes et plus physiques afin de réduire l’espace entre le réel et le virtuel. Pour ce faire, j'étudie et conçois des dispositifs technologiques permettant d’interagir avec le monde numérique exploitant au mieux le potentiel de nos mains. Je commence par examiner l’état de l’art et souligne le besoin d’approfondissement dans cette direction. J’y observe la spécificité des systèmes existants, limitant leur utilisation et diffusion, de même que l’utilisation récurrente d’écrans et autres dispositifs de projections comme moyen de représentation du monde numérique. Tirant les leçons de la recherche existante, je choisis d'orienter mes travaux autour de dispositifs physiques constitués uniquement de collections d’objets génériques et interactifs. Mon but est d’apporter plus de polyvalence aux interfaces purement tangibles. J’articule pour cela ma recherche en quatre temps. Je mène tout d’abord une étude comparant les interfaces tangibles et tactiles, dans le but d’évaluer de potentiels bénéfices de l’utilisation d’objets physiques. J’étudie conjointement l’influence de l’épaisseur des objets sur la manipulation. Les résultats suggèrent tout d’abord de modérer les conclusions de nombre d’études existantes, quant aux avantages de la tangibilité en terme de performances. Ces résultats confirment toutefois l’amélioration de l’agrément lors de l’utilisation de dispositifs physiques, expliquée par une plus grande variété ainsi qu’une plus grande fiabilité des manipulations réalisées. Je présente dans un deuxième temps SmartTokens, un dispositif à base de petits objets capable de détecter et reconnaître les manipulations auxquelles ils sont sujets. J’illustre les SmartTokens dans un scénario de gestion de notifications et de tâches personnelles. Je poursuis en introduisant les Interfaces en essaim, une sous-catégorie des interfaces tangibles, constituée de collections de nombreux robots autonomes et interactifs. Pour les illustrer, je présente les Zooids, une plateforme ouverte pour développer des Interfaces en essaim. Je démontre le potentiel quant à leur polyvalence avec un assortiment d’applications, et clarifie les règles de conception des Interfaces en essaim. Je définis les physicalisations de données composites, et les implémentent en utilisant les Zooids. Je termine en ouvrant perspectives et futures directions, et en tirant les conclusions des travaux réalisés au cours de cette thèse. / In this dissertation, I present my work aiming at making tangible user interfaces more versatile with a higher degree of physicality, in order to bridge the gap between digital and physical worlds. To this end, I study and design systems which support interaction with digital information while better leveraging human hand capabilities. I start with an examination of the current related work, and highlight the need for further research towards more versatility with a higher degree of physicality. I argue that the specificity of existing systems tends to impair their usability and diffusion and induce a dependence on screens and other projections as media to represent the digital world. Building on lessons learned from previous work, I choose to focus my work on physical systems made of collections of generic and interactive objects. I articulate my research in four steps. Firstly, I present a study that compares tangible and multitouch interfaces to help assess potential benefits of physical objects. At the same time, I investigate the influence of object thickness on how users manipulate objects. Results suggest that conclusions from numerous previous studies need to be tempered, in particular regarding the advantages of physicality in terms of performance. These results however confirm that physicality improves user experience, due to the higher diversity of possible manipulations. As a second step, I present SmartTokens, a system based on small objects capable of detecting and recognizing user manipulations. I illustrate SmartTokens in a notification and personal task management scenario. In a third step, I introduce Swarm User Interfaces as a subclass of tangible user interfaces that are composed of collections of many interactive autonomous robots. To illustrate them, I present Zooids, an open-source open-hardware platform for developing tabletop Swarm User Interfaces. I demonstrate their potential and versatility through a set of application scenarios. I then describe their implementation, and clarify design considerations for Swarm User Interfaces. As a fourth step, I define composite data physicalizations and implement them using Zooids. I finally draw conclusions from the presented work, and open perspectives and directions for future work.
|
3 |
Rich multi-touch input with passive tokens / Objets passifs pour une entrée multi-points richeMorales González, Rafael 09 October 2017 (has links)
L'entrée multi-points offre un canal d'interaction très expressif pour les dispositifs équipés d'une technologie tactile multi-points. Cependant, alors que la taille du canal de communication est, en théorie, très grande, la plupart des systèmes n'en font, en pratique, qu'un usage très limité. Cet état de fait est probablement dû à la difficulté de gérer un grand nombre de gestes multi-points pour deux raisons principales: (1) les limites cognitives et motrices des humains et (2) les difficultés techniques pour l'élaboration de systèmes de reconnaissance robustes. Cette thèse étudie une nouvelle technique d'entrée, TouchTokens, pour enrichir le vocabulaire de gestes multi-points, en se basant sur la position relative des points de contact et des objets (tokens) passifs. Un TouchToken est un "token" passif avec des encoches qui indiquent à l'utilisateur comment l'attraper, et qui est donc associé à une configuration de doigts qui lui est propre. Ainsi, lorsque les utilisateurs tiennent un token tout en étant en contact avec la surface, le système reconnaît le schéma de points de contact correspondant avec une grande robustesse. Nous commençons par présenter le principe avec des tokens rigides de forme basique. L'algorithme de reconnaissance et la conception des tokens sont issus des conclusions d'une étude formative dans laquelle nous avons collecté et analysé des schémas de points de contact lorsque les utilisateurs tiennent des tokens de taille et de forme variable. Cette première étude montre que les utilisateurs ont des stratégies individuelles cohérentes, mais que ces stratégies dépendent de l'utilisateur. Ces conclusions nous ont menés à l'élaboration de tokens avec des encoches afin que les utilisateurs attrapent un même token toujours de la même façon. L'expérience que nous avons menée sur ce nouvel ensemble de tokens démontre que nous pouvons les reconnaître avec un niveau de robustesse supérieur à 95%. Nous discutons les rôles que peuvent jouer les TouchTokens dans les systèmes interactifs, et nous présentons un échantillon d'applications de démonstration. La conception initiale des TouchTokens ne supporte qu'un ensemble d'interactions se limitant au modèle à deux états de l'interaction directe. Dans un second projet, nous décrivons une technique de fabrication avec une découpeuse laser qui permet de faire des tokens flexibles que les utilisateurs peuvent, par exemple, courber ou compresser en plus de les faire glisser sur la surface. Nous augmentons notre reconnaisseur pour analyser les micro-mouvements des doigts pendant la manipulation du token afin de reconnaître ces manipulations. Cette approche basée sur l'analyse des micro-mouvements des doigts nous permet également de discriminer, lorsque l'utilisateur enlève ses doigts de la surface, le cas où il enlève le token de la surface, du cas où le token est resté sur la surface. Nous rapportons sur les expériences que nous avons menées pour déterminer la valeur des paramètres de nos différents reconnaisseurs, et tester leur robustesse. Nous obtenons des taux de reconnaissance supérieurs à 90% sur les données collectées. Nous finissons cette thèse par la présentation de deux outils qui permettent de construire et reconnaître des tokens de forme arbitraire, TouchTokenBuilder and TouchTokenTracker. TouchTokenBuilder est une application logicielle qui permet de placer des encoches sur des contours vectoriels de forme arbitraire, et qui alerte en cas de conflit de reconnaissance entre tokens. TouchTokenBuilder produit deux fichiers en sortie: une description vectorielle des tokens pour leur construction, et une description numérique servant à leur reconnaissance. TouchTokenTracker est une librairie logicielle qui prend cette description numérique en entrée, et qui permet aux développeurs de traquer la géométrie (position, orientation et forme) des tokens au cours de leur manipulation sur la surface. / This thesis investigates a novel input technique for enriching the gesture vocabulary on a multi-touch surface based on fingers' relative location and passive tokens. The first project, TouchTokens, presents a novel technique for interacting with multi-touch surfaces and tokens. The originality is that these tokens are totally passive (no need for any additional electronic components) and their design features notches that guide users' grasp. The purpose of the notches is to indicate a finger spatial configuration (touch pattern) that is specific to the token. When users hold a token and place it on the surface, touching them simultaneously, the system can recognize the resulting touch patterns with a very high level of accuracy (>95%). This approach works on any touch-sensitive surface and makes it possible to easily build low-cost interfaces that combine no-conductive tangibles and gestural input. This technique supports a new multi-touch input that the system can recognize. However, the interaction is limited to the two-state model of touch interaction as the system only knows the tokens' position and cannot detect tokens that are not touched. In the second project of the thesis, we introduce a laser-cut lattice hinge technique for making the tokens flexible. We then develop a new recognizer that analyzes the micro-movements of the fingers while user are holding and deforming those tokens on the surface. We run three experiments to design and calibrate algorithms for discriminating the three following types of manipulations: (1) when a token is left on the surface rather than taken off it (On/Off); (2) when a token has been bent, and (3) when it is squeezed. Our results show that our algorithms can recognize these three manipulations with an accuracy of: On/Off 90.1%, Bent 91.1% and Squeezed 96,9%.The thesis concludes with the presentation of two tools, TouchTokenBuilder and TouchTokenTracker, for facilitating the development of tailor-made tangibles using a simple direct-manipulation interface. TouchTokenBuilder is a software application that assists interface designers in placing notches on arbitrarily-shaped vector contours for creating conflict-free token sets and warning them about potential conflicts. It outputs two files: a vector-graphics description of all tokens in the set and a numerical description of the geometry of each token. TouchTokenTracker is a software library that takes as input the numerical description produced by TouchTokenBuilder, and enables developers to track the tokens' full geometry (location, orientation and shape) throughout their manipulation on the multi-touch surface.
|
4 |
An interaction Continuum for 3D Dataset Visualization / Un continuum d'interaction pour la visualisation de données 3DBesançon, Lonni 14 December 2017 (has links)
Un nombre croissant de paradigmes d'interaction et de dispositifs ont été développés et étudiés pour les manipulations 3D.Ce développement bénéficie, en particulier, aux domaines scientifiques tels que la visualisation qui s'appuie sur la manipulation de données 3D.De nombreuses études ont démontré les avantages de chacun d'entre eux pour des tâches spécifiques liées à la visualisation. Pourtant, les interfaces utilisateur graphiques classiques ainsi que la souris et les claviers prédominent toujours dans la plupart des environnements interactifs: de tels environnements sont toujours utiles pour des tâches spécifiques et parce qu'ils sont facilement disponibles et accessibles par rapport aux nouveaux paradigmes d'interaction et aux dispositifs innovants. Contrairement à l'approche habituelle qui consiste à créer ou étudier un nouveau paradigme, une nouvelle technique ou un nouveau dispositif d'interaction, les travaux présentés dans cette thèse ouvrent la voie à un continuum d'interaction: la possibilité de passer d'un paradigme d'interaction à l'autre et de combiner deux ou plusieurs paradigmes d'interaction pour en tirer profit. Pour atteindre cet objectif, nous prenons plusieurs mesures. Tout d'abord, en se basant sur l'observation que la souris et le clavier, l'interaction tactile et l'interaction tangible sont maintenant des normes ou se rapprochent d'être des paradigmes d'interaction standard pour les cas d'utilisation occasionnelle ou spécifique, cette thèse étudie et compare leurs avantages et limites inhérents aux manipulations 3D.Sur la base de ce travail, nous créons ensuite un paradigme d'interaction hybride tactile et tangible. Basé sur les besoins de la visualisation scientifique pour la mécanique des fluides, nous mettons en œuvre des techniques spécifiques d'interaction exploratrice 3D avec le paradigme hybride et les évaluons avec des experts du domaine. La mise en œuvre prototypique de ce paradigme hybride est une tablette tactile capable de quantifier ses propres mouvements (rotations et translations). Sur la base des retours d'expérience des experts du domaine, une telle combinaison est plus flexible que l'état de l'art et permet des manipulations 3D précises. Avec le potentiel de ce paradigme hybride, nous abordons ensuite la tâche complexe de la sélection des sous-ensembles 3D ---une étape initiale majeure pour la compréhension des données. Alors que la sélection de sous-ensembles 3D est généralement effectuée avec une entrée 2D initiale étendue ultérieurement par la machine, notre combinaison d'interactions tactiles et tangibles permet aux utilisateurs d'avoir une technique de sélection entièrement manuelle avec la même tablette: un lasso 2D peut être dessiné avec une entrée tactile qui peut ensuite être étendue en 3D lors du déplacement de la tablette. Non seulement cette combinaison comble-t-elle un vide dans la taxonomie des techniques de sélection de sous-ensembles 3D, mais est, qui plus est, plus précise que les solutions partiellement automatisées, quoique plus lentes. Enfin, en nous appuyant sur l'observation selon laquelle une interaction tangible avec un dispositif localement couplé pourrait nécessiter des ajustements de facteur de gain, nous proposons d'utiliser un aspect spécifique de l'interaction tactile, la détection de pression, pour contrôler les facteurs de gain des manipulations tangibles. Les travaux présentés dans cette thèse démontrent donc le potentiel d'un continuum d'interaction pour la visualisation en proposant des paradigmes d'interaction hybrides dans une configuration facile à maintenir, facile à intégrer et abordable. Il fournit les premières étapes nécessaires pour un continuum d'interaction qui, espérons-le, inspirera la création de plus de techniques d'interaction hybrides pour l'interaction de données 3D. / An increasing number of interaction paradigms and devices are being developed and studied for 3D manipulations. This development benefits, in particular, scientific domains such as visualization which rely on manipulation of 3D data. Numerous studies have proven the benefits of each one of them for specific tasks involved in visualization. Yet, classical graphical user interfaces as well as mouse and keyboards still prevail in most interactive settings: such environments are still useful for specific tasks and because they are readily available and accessible when compared to innovative interaction paradigms and devices. In contrast to the usual approach to create or study a new interaction paradigm, technique, or device, the work presented in this thesis paves the way towards an interaction continuum: the possibility to transition between and combine two or more interaction paradigms to benefit from their inherent advantages. To achieve this goal we take several steps. First, building on the observation that mouse and keyboard, tactile interaction and tangible interaction are now standards or are getting close to being standard interaction paradigms for casual or specific use cases, this thesis studies and compares their inherent advantages and limitations for 3D manipulations. Based on this work, we then create a hybrid tactile/tangible interaction paradigm. Based on the needs of scientific visualization for fluid dynamics, we implement specific 3D explorative interaction techniques with the hybrid paradigm and evaluate them with domain experts. The prototypical implementation of this hybrid paradigm is a tactile-enabled and spatially-aware tablet. Based on the feedback from domain experts, such a combination is more flexible than the state of the art and still facilitates precise 3D manipulations. With the potential of this hybrid paradigm, we then tackle the complex task of 3D subsets selection---a major initial step for data understanding. While 3D subset selection is usually conducted with an initial 2D input later extended by the machine, our combination of tactile and tangible interaction allows users to have a fully manual selection technique with the same spatially-aware tablet: a 2D lasso can be drawn with tactile input which can then be extended into 3D when moving the tablet. Not only does this combination fill in an empty space in the taxonomy of 3D subset selection techniques, but we also found it to be more precise than partially-automated solutions---albeit being slower. Finally, building on the observation that tangible interaction with a locally-coupled device might need gain factor adjustments, we propose to use a specific aspect of tactile interaction, pressure-sensing, to control the gain factors of tangible manipulations. The work presented in this thesis thus demonstrates the potential of an interaction continuum for visualization by proposing hybrid interaction paradigms in an easy-to-maintain, easy-to-integrate, and affordable setup. It provides the necessary initial steps for an interaction continuum that will hopefully inspire the creation of more hybrid interaction techniques for 3D data interaction.
|
5 |
Surfaces malléables pour l'interaction mobile et tangible à distance / Malleable Interactive surfaces for distant mobile tangible interactionRosso, Juan 14 December 2018 (has links)
Les curseurs sont l'un des widgets les plus utilisés pour contrôler les paramètres continus - par exemple, luminosité, volume sonore, température d'une maison intelligente, etc. Sur les téléphones mobiles, les curseurs sont représentés graphiquement, nécessitant l'attention visuelle de l'utilisateur. Ils sont principalement exploités avec un seul pouce. Alors que les curseurs de grande taille offrent de meilleures performances, ils présentent des zones difficiles à atteindre pour le pouce. Cet article explore différentes conceptions de curseurs tangibles pour offrir une interaction sans yeux et efficace avec le pouce. Les nouveaux concepts que nous avons explorés sont basés sur un espace de conception englobant des solutions graphiques et des solutions tangibles inexplorées. Pour évaluer nos conceptions, nous avons construit des prototypes et les avons testés expérimentalement dans trois expériences. Dans notre première expérience, nous avons analysé l'impact sur la performance de la longueur du curseur tangible: soit dans la zone confortable du pouce ou non. Dans notre deuxième expérience, nous avons analysé la performance d'un design tangible extensible qui permet un fonctionnement dans la zone confortable du pouce. Dans notre troisième expérience, nous avons analysé la performance d'un design tangible bimodal déformable qui permet un fonctionnement dans la zone confortable du pouce, et au-delà de cette zone, avec l'index sur le dos de l'appareil. Ce travail contribue à la littérature en: premièrement, en fournissant un espace de conception pour une interaction à une main avec des éléments tangibles déformables. Deuxièmement, analyser l'impact sur la performance lors de la manipulation de curseurs tangibles en dehors de la zone confortable du pouce. Et troisièmement, analyser l'impact de la déformation lors de la manipulation / Sliders are one of the most used widgets to control continuous parameters - e.g., brightness, sound volume, the temperature of a smart house, etc. On mobile phones, sliders are represented graphically, requiring the user's visual attention. They are mostly operated with a single thumb. While large sliders offer better performance, they present areas difficult for the thumb to reach. This article explores different tangible slider designs to offer eyes-free and efficient interaction with the thumb. The novel designs that we explored are based on a design space encompassing graphical solutions and the unexplored tangible solutions. To evaluate our designs, we built prototypes and experimentally tested them in three experiments. In our first experiment, we analyzed the impact on the performance of the tangible slider's length: either within the thumb's comfortable area or not. In our second experiment, we analyzed the performance of an extensible tangible design that allows operation within the comfortable area of the thumb. In our third experiment, we analyzed the performance of a bi-modal deformable tangible design that allows operation within the comfortable area of the thumb, and beyond this area, with the index finger on the back of the device. This work contributes to the literature by: first, providing a design space for one-handed interaction with deformable tangible elements. Second, analyzing the impact on performance when manipulating tangible sliders outside the thumb's comfortable area. And third, analyzing the impact that deformation has during manipulation.
|
6 |
From surface to surface - Transformations de surface tactile pour l’interaction incarnée dans le cockpit / From surface to surface - Touch surface shape changes for embodied interaction in the cockpitPauchet, Sylvain 12 June 2019 (has links)
La « surface », dans les systèmes interactifs tactiles est à la fois le support du toucher et de l’image. Alors qu’au fil du temps les surfaces tactiles se sont transformées dans leur épaisseur, forme et rigidité, la modalité d’interaction se limite, comme sur les premiers dispositifs, à une mise en contact simple du doigt avec l’écran dans un geste qui feint de manipuler ce qui est affiché. Le sens du toucher, même pour des dispositifs tactiles installés dans des systèmes critiques comme dans l’aéronautique ou l’automobile, reste essentiellement sollicité en tant que prolongement de la vision, pour pointer et contrôler. Alors que les théories de la phénoménologie de la perception, de la perception écologique et des interactions tangibles et incarnées reconnaissent l’importance du corps, de la motricité et des interactions avec l’environnement dans les phénomènes perceptifs, il paraît réducteur de continuer à considérer la vision comme sens premier et principal de l’interaction tactile.Nous pensons que la transformation de la forme physique de l’interface tactile est un moyen efficace pour réincarner l’espace d’interaction tactile en utilisant mieux les capacités motrices des utilisateurs ainsi que leurs habiletés à négocier, manipuler et s’orienter dans leur environnement. A partir d’une caractérisation des risques potentiels du développement des interactions tactiles dans le contexte d’un cockpit d’avion de ligne (augmentation de la charge cognitive, sur-sollicitation du canal visuel, altération de la conscience de la situation, etc.), nous explorons les apports d’une interface tactile à changement de forme pour améliorer la collaboration pilotes-système au travers de la conception, la fabrication et l’évaluation de trois prototypes fonctionnels. Avec l’étude qualitative et quantitative du prototype GazeForm, nous montrons que le changement de forme d’une surface tactile en fonction de la position du regard permet de diminuer la charge de travail, améliorer la performance, réduire les mouvements oculaires et améliorer la distribution de l’attention visuelle comparativement à un écran tactile classique. Par l’élaboration du concept Multi-plié nous mettons en évidence les dimensions et propriétés de la transformation par pliure d’une surface d’affichage interactive. Avec les évaluations qualitatives des deux dispositifs illustrant le concept, le premier présentant une série d’écrans tactiles articulés et le deuxième une surface d'affichage tactile « plissable », nous démontrons qu’une surface tactile continue pliable offre un support pertinent à l'interaction incarnée et permet d’augmenter la sensation de contrôle pour la gestion d’un système critique. Enfin, pour généraliser la connaissance produite à d’autres contextes d’usages avec une forte division de l’attention visuelle (conduite automobile, salle de contrôle, appareil tactile portable en mobilité) nous proposons un espace de conception pour les interfaces tactiles reconfigurables. / The "surface" in interactive touch systems is both the support of touch and image. While over time touch surfaces have been transformed in their thicknesses, shapes and stiffness, the interaction modality is limited, as on the first devices, to a simple contact of the finger with the screen in a gesture that pretends to manipulate what is displayed. The sense of touch, even for touch devices installed in critical systems, such as in the aeronautics or automotive industries, remains mainly used as an extension of vision, to point and control. While the theories of the phenomenology of perception, ecological perception and tangible and embodied interactions recognize the importance of the body, motor skills and interactions with the environment in perceptual phenomena, it seems simplistic to consider vision as the first and main sense of touch interaction. We believe that transforming the physical form of the touch interface is an effective way to reincarnate the space of touch interaction by making better use of users' motor skills and their ability to negotiate, manipulate and orient themselves in their environment. Based on a characterization of the potential risks of developing touch interactions in the context of an airliner cockpit (increase in cognitive load, overload of the visual channel, alteration of situational awareness, etc.), we explore, through the design, manufacture and evaluation of three functional prototypes, the contributions of a touch interface with shape change to improve pilotes-system collaboration. With the qualitative and quantitative study of the GazeForm prototype, we show that changing the shape of a touch surface according to the position of the gaze makes it possible, compared to a conventional touch screen, to reduce the workload, improve performance, reduce eye movements and improve the distribution of visual attention. By qualitative evaluation of the two Multi-plié devices, the first with a series of articulated touch screens and the second with a "pleatable" touch display surface, we show that a transformable touch surface stabilizes touch action, promotes collaboration and improves situational awareness. In addition to these contributions, we find that changing the shape of the touch interaction surface increases the feeling and level of control for the management of a critical system. Finally, to generalize the knowledge produced to other contexts of use with a strong division of visual attention (driving, control room, portable touch device in mobility) we propose a design space for reconfigurable touch interfaces.
|
7 |
Couplage de techniques d'interaction avancées avec des environnements virtuels 3D interactifs / Coupling advance interaction techniques with interactive 3D virtual environmentsBergé, Louis-Pierre 08 October 2015 (has links)
Les travaux de cette thèse s'inscrivent à la frontière entre deux domaines de recherche complémentaires : le domaine des Environnements Virtuels 3D (EV3D) issus de l'Informatique Graphique (IG) et de la Réalité Virtuelle (RV) et le domaine de l'Interaction Homme-Machine (IHM). Ils s'appuient sur trois constats. D'une part, on observe une place grandissante des EV3D dans notre quotidien (jeux vidéo, jeux sérieux, e-commerce, dans les musées, à travers le web et sur les dispositifs mobiles). D'autre part, les IHM se complexifient notamment avec l'apparition de formes avancées d'interaction comme l'informatique ambiante, l'interaction tangible, ou encore l'interaction spatiale et gestuelle, et s'accompagne d'une diversification des dispositifs d'interaction (souris 3D, la Wiimote, la Kinect, le Leap Motion). Enfin, la conception de techniques d'interaction avancées avec des EV3D fait apparaitre des considérations différentes prises en compte par les communautés des domaines EV3D et IHM. Par conséquent, tirer profit des considérations les plus récentes des communautés EV3D (métaphores, qualité de l'interaction 3D) et IHM (formes avancées de technique d'interaction) se traduit par un besoin de développer le couplage entre formes avancées de technique d'interaction et EV3D. Dans ce contexte, l'objectif de ces travaux de thèse est de contribuer à l'essor des environnements 3D interactifs dans de multiples situations, et notamment des situations grand public, en adoptant une approche visant à faire converger les approches 3D et IHM pour mieux établir le couplage de Techniques d'Interaction Avancées avec des Environnements Virtuels 3D Interactifs. Après une analyse des méthodes de conception de techniques d'interaction pour les EV3D, une première contribution de nos travaux consiste en un cadre de conception de l'interaction 3D. En y agrégeant les problématiques issues de la 3D et de l'IHM, ce cadre de conception permet d'identifier les différents éléments de couplages impliqués lors d'une interaction avec un EV3D. Il se base sur l'analyse des liens entre les tâches utilisateurs et les éléments de l'EV3D impactés par ces tâches. Afin de caractériser finement chaque lien, nous avons introduit la notation 3DIM (3D Interaction Modality) qui décrit les caractéristiques des différents éléments constituant une " modalité d'interaction 3D " permettant la réalisation d'une tâche d'interaction de l'utilisateur dans un EV3D. Nous avons regroupé ces éléments en 6 blocs : l'utilisateur, les actions physiques, les objets physiques manipulés, les dispositifs utilisés, les comportements 3D et les éléments 3D. Nous complétons ce cadre conceptuel par des propriétés analytiques qui permettent de guider le concepteur et procurent ainsi un caractère descriptif, évaluatif et génératif à notre modèle conceptuel de techniques d'interaction avancées pour des EV3D. Dans la cadre d'une collaboration avec le musée de l'observatoire du Pic du Midi, une mise en œuvre de ce cadre nous a conduit à concevoir et développer des techniques d'interaction tangibles et basées smartphone. Ces techniques sont utilisées par les visiteurs du musée dans un EV3D représentatif du Télescope Bernard Lyot pour l'explorer et comprendre son fonctionnement. Nous avons mené trois évaluations utilisateur afin d'explorer l'usage d'un smartphone utilisé de trois manière différentes : comme dispositif tactile, comme un objet tangible ou comme support pour une interaction gestuelle autour du dispositif pour naviguer, sélectionner ou manipuler un objet 3D dans un EV3D affiché sur un grand écran distant. / The work of this thesis fit on the boundary between two complementary research areas: the field of 3D Virtual Environment (3DVE) from Computer Graphics (CG) and Virtual Reality (RV) and the field of Human-Computer Interaction (HCI). They rely on three assessments. Firstly, we observe that 3DVE takes more importance in our daily life (video games, serious games, e-commerce, museums, through the web and on mobile devices). Secondly, HCI becomes more complex with the emergence of advance forms of interaction like ambient computing, tangible interaction or spatial and gestural interactions. This evolution goes along with a diversification of devices (3D mouse, the Wiimote, the Kinect or the Leap Motion). Thirdly, the design of interaction techniques with 3DVE brings up some different considerations taken into account by the communities in the field of 3DVE and HCI. Therefore, take advantage of the latest considerations of EV3D communities (metaphors, quality of 3D interaction) and HCI (advance forms of interaction) results in the need to develop the coupling between advance forms of interaction techniques and EV3D. In this context, the objective of this thesis work is to contribute to the development of interactive 3D environments in multiple situations, including large audience situations. The approach we developed aimed to create a bridge between 3D and HCI design considerations. We intend to improve the coupling of advance interaction techniques with interactive 3D virtual environment. After analyzing methods for the design of interaction techniques for 3DVE, a first contribution consists in a design framework of 3D interaction. This framework aggregates design issues stem from 3D and HCI and help the designer to identify several elements involve in the coupling of interaction with a 3DVE. This design framework is based on the analysis of the links between user tasks and elements of the 3DVE impacted by these tasks. In order to precisely characterize each link, we have introduced the 3DIM (3D Interaction Modality) notation that describes the characteristics of the different elements constituting a "3D Interaction Modality" for the accomplishment of a user's interaction task in a 3DVE. We have grouped these elements into six blocks: the user, the physical actions, the physical objects, the input devices, the 3D behaviors and the 3D interactive objects. We complete our framework with analytical properties for guiding the designer and provide descriptive, evaluative and generative power at our conceptual model of advanced interaction techniques for 3DVE. Collaborating with the Museum of "Le Pic du Midi" observatory in France, we used our framework to design and implement tangible interaction and technique based on smartphone usage. Museum visitors can use these techniques in a 3DVE of the "Telescope Bernard Lyot" to explore and understand its functioning. We have conducted three users' studies in order to explore the design space of using a smartphone to interact with 3DVE. We used the smartphone in different ways to navigate, select and manipulate a 3D object displayed on a large remote screen. We explored several design solutions with a smartphone as a touch device, as a tangible object or mid-air interaction around the device.
|
8 |
Jeux pédagogiques collaboratifs situés : conception et mise en oeuvre dirigées par les modèlesDelomier, Florent 10 December 2013 (has links)
Un jeu pédagogique constitue une déclinaison relative à l’apprentissage du concept de jeu sérieux (serious game). Ce type d'outil permet la ludification (gamification) de l'activité afin d'utiliser des éléments de jeu dans un contexte non ludique et conduit à catalyser l’attention, faire accroître l’engagement et augmenter la motivation des joueurs-apprenants dans les situations d’apprentissage. Les jeux pédagogiques reposent sur la mise en situation et l’immersion des apprenants, utilisant les ressorts ludiques dans des simulations axées vers la résolution de problèmes. Parmi des recherches antérieures, certains retours d’expériences font écho d’une trop grande artificialité de l’activité notamment par manque de contextualisation de l’apprentissage dans l’environnement d’utilisation des connaissances apprises. Nous avons proposé la mise en place un environnement mixte (physique et numérique) et l’utilisation de techniques collaboratives pour raffiner l’approche pédagogique. Ces orientations nous ont menés à la mise en place de ce que nous appelons des «Jeux Pédagogiques Collaboratifs Situés » (JPCS). Les deux questions de recherche qui nous ont été posées dans le cadre du projet SEGAREM et qui sont devenues les nôtres sont : 1/ comment accompagner les jeux sérieux par l’approche Réalité Augmentée (RA) et l'approche Interface Tangible (IT)? 2/ comment rendre la conception et la mise en œuvre des JPCS (Jeux Pédagogiques Collaboratifs Situés) plus explicite et plus systématique ? Les réponses que nous présentons dans cette thèse sont les suivantes : 1/ la conception et la mise en œuvre des pupitres interactifs supportant des objets réels augmentés, associés à un protocole de communication existant, proposant un support générique des techniques d’interaction détectée et de prise en compte du contexte physique d’utilisation ; 2/ une approche de production de JPCS se situant après l’étape de scénarisation ludo-pédagogique qui constitue notre cahier des charges. Nous avons basé notre approche sur des modèles pour permettre un support d’expression qui précise les caractéristiques des JPCS. Ces modèles sont soutenus par des éditeurs contextuels et produisent comme résultat des fichiers de descriptions en XML. La projection des descriptions obtenues sur une architecture générique d’exécution du JPCS permet une spécialisation pour obtenir une version exécutable. Dans les six modèles, certains sont adaptés des travaux antérieurs de l’équipe, d'autres issues de la littérature et les derniers sont directement proposés ici. Ces six modèles décrivent l’activité (un modèle d’orchestration de l’activité et un modèle de tâches), la structure de différents environnements, l’état initial de l’environnement et les conditions nécessaires d’un état final et les interactions possibles entre les joueurs et l’environnement. Nos travaux tant sur les pupitres que sur les modèles et le support d’exécution ont été concrétisés dans la mise en place de Lea(r)nIt. Ce JPCS avait pour but de consolider des acquis méthodologiques en Lean Manufacturing par l’utilisation et l’optimisation d’une chaîne de production simulée sur pupitres (supportant interactions tactiles, interactions tangibles et pouvant être assemblés) et sur téléphones mobiles (permettant la mobilité des joueurs-apprenants). / A Learning game is a declension of the serious game concept dedicated to the learning activity. A Learning game is based on a scenario and immersion of the learners with use of game mechanics on problem based simulation. The gamification concept is the use of game elements in a non-playful activity with as impact attention, motivation and engagement. However, some research feedback explains that too much artificiality on learning activity caused by a lack of contextualization of the activity on the professional environment. We propose to use Mixed Reality and Collaborative Supported Computer Work as technological solution to support situated and collaborative situation in aim to enhance pedagogical strategy and allow a better learning. We call it “Situated Collaborative Learning Game” (SCLG) as a concept of pedagogical tools to enhance learning of content with use of collaborative learning (when learners interactions is useful to learn), situated learning (when the environment context is meaningful) and human-physical objet interaction (with use of mixed reality, with kinesthetic and tangible interaction in augmented reality) and game based learning (when learner's motivation is improved by the learning activity). In these contexts, our two research questions are: 1 / How to create a serious games support by use of Augmented Reality (AR) approach and Tangible Interface (IT) approach? 2 / How to make design and development of SCLG (situated collaborative learning game) more explicit and systematic? We propose two solutions: 1/ the design and the production of four interactive desks with support of tangible interaction on and above the table. These devices are linked to a communication protocol which allows a generic support of technical interaction. 2/ A generic way to design the CSLG system, with integration of advanced human computer interaction support (as augmented reality and tangible interaction) and ubiquitous computing in Learning Games. For that, we propose, with a user centered oriented and model oriented design, a way to make a CSLG factory. For that, we propose use of six models to determinate the behavior of the CSLG. These six models describe learners’ activity (with use of three different models to follow the activity theory’s), the mixed game environment, deployment of entities on the environment, and human computer interactions. All of these models are linked by an orchestration model and can be project on a multi-agent multi-layers architecture by use of XML description file. We propose tools to help each step of our design and production process. Our work on interactive desks, on the six models and on the runtime support has been realized in the production of Lea(r)nIT. This SCLG consolidate methodological knowledge of Lean Manufacturing by use and optimization of a simulated chain production on four desks (which support touch and tangible interactions and can be assembled) and on mobile phones (to allow movement of learners).
|
9 |
one reality : augmenting the human experience through the combination of physical and digital worlds / Une réalité : augmenter l'expérience humaine à travers la convergence des mondes physiques et numériquesRoo, Joan sol 15 December 2017 (has links)
Alors que le numérique a longtemps été réservé à des usages experts, il fait aujourd’hui partie intégrante de notre quotidien, au point, qu’il devient difficile de considérer le monde physique dans lequel nous vivons indépendamment du monde numérique. Pourtant, malgré cette évolution, notre manière d’interagir avec le monde numérique a très peu évolué, et reste toujours principalement basé sur l’utilisation d’écrans, de claviers et de souris. Dans les nouveaux usages rendus possible par le numérique, ces interfaces peuvent se montrer inadaptées, et continuent à préserver la séparation entre le monde physique et le monde numérique. Au cours de cette thèse, nous nous sommes concentrés à rendre cette frontière entre mondes physique et numérique plus subtil au point de la faire disparaître. Cela est rendu possible en étendant la portée des outils numériques dans le monde physique, puis en concevant des artefacts hybrides (des objets aux propriétés physique et numérique), et enfin en permettant les transitions dans une réalité mixte (physique-numérique), laissant le choix du niveau d’immersion à l’utilisateur en fonction de ses besoins. L’objectif final de ce travail est d’augmenter l’expérience de la réalité. Cela comprend non seulement le support de l’interaction avec le monde extérieur, mais aussi avec notre monde intérieur. Cette thèse fournit aux lecteurs les informations contextuelles et les connaissances techniques requises pour pouvoir comprendre et concevoir des systèmes de réalité mixte. A partir de ces fondements, nos contributions, ayant pour but de fusionner le monde physique et le monde virtuel, sont présentées. Nous espérons que ce document inspirera et facilitera des travaux futurs ayant pour vision d’unifier le physique et le virtuel. / In recent history, computational devices evolved from simple calculators to now pervasive artefacts, with which we share most aspects of our lives, and it is hard to imagine otherwise. Yet, this change of the role of computers was not accompanied by an equivalent redefinition of the interaction paradigm: we still mostly depend on screens, keyboards and mice. Even when these legacy interfaces have been proven efficient for traditional tasks, we agree with those who argue that these interfaces are not necessarily fitting for their new roles. Even more so, traditional interfaces preserve the separation between digital and physical realms, now counterparts of our reality.During this PhD, we focused the dissolution of the separation between physical and digital, first by extending the reach of digital tools into the physical environment, followed by the creation of hybrid artefacts (physical-digital emulsions), to finally support the transition between different mixed realities, increasing immersion only when needed. The final objective of this work is to augment the experience of reality. This comprises not only the support of the interaction with the external world, but also with the internal one. This thesis provides the reader contextual information along with required technical knowledge to be able to understand and build mixed reality systems. Once the theoretical and practical knowledge is provided, our contributions towards the overarching goal of merging physical and digital realms are presented. We hope this document will inspire and help others to work towards a world where the physical and digital, and humans and their environment are not opposites, but instead all counterparts of a unified reality.
|
10 |
Interaction en réalité augmentée spatiale pour le dessin physique / Spatial augmented reality for physical drawingLaviole, Jérémy 05 December 2013 (has links)
Cette dissertation décrit le design, implémentation et évaluation de nouvelles applications en Réalité Augmentée Spatiale (RAS). Ces applications sont concentrées sur l’amélioration du dessin physique tel que les dessins au crayons ou peintures en projetant des outils numériques.Tout d’abord, nous décrivons notre système de RAS et ses possibilités. Il prend en comptes les paramètres internes et externes d’un couple caméra/projecteur pour permettre une projection précise sur des feuilles de papier. De plus, il permet la détection du toucher des feuilles et de la position de la main au dessus de celles-ci grâce à une caméra de profondeur. Par conséquent, il permet la création d’écrans tactiles interactifs sur des feuilles de papier posées sur une table.Ensuite, nous nous penchons sur la création d’art visuel, plus précisément sur les premières étapes de la création quand l’artiste créer la structure. Nous offrons la possibilité de créer et d’éditer des lignes de construction numériques (LCN) projetées sur le papier. Ces outils sont des outils de Réalité Augmentée (RA), c’est-à-dire qu’ils s’ajoutent aux outils existants: toute l’interface utilisateur est sur la table, et l’utilisateur n’utilise jamais ni une souris, ni un clavier ni un écran. En plus des simples LCN (lignes et courbes), nous proposons une spécialisation pour les dessins spécifiques tels que les dessins en perspective, les dessins de personnages ainsi que les dessins à partir d’un modèle 3D. Nous proposons de nouvelles méthodes pour afficher et interagir avec des objets 3D sur papier. Nous proposons également de créer des dessins mixtes:art visuel interactif qui tire parti à la fois des possibilités physiques et numériques.Pour finir, nous décrivons des nouveaux usages pour notre système de RAS de nombreux contextes différents à travers des démonstrations publiques. L’acceptabilité de ce genre de système a été très bonne, et “magique” par la plupart des utilisateurs. Ils ont juste vu et interagis avec des feuilles de papier sans remarquer le système de projection et suivi. / This dissertation presents the design, implementation, and evaluation of novel SpatialAugmented Reality (SAR) applications. These applications focus on enhancing physical drawingsuch as pencil drawing or painting by the projection of digital tools.First, we describe our tabletop SAR system and its possiblities. It takes into account thecamera and projector internal and external parameters to enable precise projection onto trackedsheets of paper. In addition to this, we enable touch and hand detection over the table with adepth camera. Consequently, it enables the creation of interactive touch screens on the pieces ofpaper on a table.Next, we focus on the creation of visual art, more precisely the first steps of creation whenthe artist structures it. We enable the creation and edition of digital construction lines (DCL)that are projected onto the paper. These tools are Augmented Reality (AR) tools, i.e., theyadd to existing tools: the whole user interface is on the table and the user never uses a mouse,keyboard or screen. In addition to the simple DLC (lines and curves), we propose to specializethem for specific drawings such as perspective drawing, character drawing and drawing from a3D model. We propose a novel way to display and interact with 3D objects on paper. We alsopropose to create mixed media drawing: it enables the creation of interactive visual art thattakes advantage from both the physical and digital possiblities.Finally, we describe new usages for our SAR system in many different contexts throughpublic exhibitions. The acceptability of such systems was found very good and “magical” bymost of the users. They only saw and interacted with interactive pieces of paper without noticingthe projection and tracking system.
|
Page generated in 0.2084 seconds