• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 26
  • 10
  • 1
  • Tagged with
  • 38
  • 17
  • 12
  • 11
  • 8
  • 7
  • 7
  • 6
  • 5
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Interprétation gestuelle normale, anonyme, fidèle et uniforme

Clin-Gordon, Marie-Chantal January 2012 (has links)
La présente recherche a pour but d'optimiser l'avaglyphe, un outil d'interprétation gestuelle pour des Sourds. Dans un premier temps, l'avaglyphe est conçu pour permettre aux personnes sourdes un accès à des documents, sur des supports transportables et dans leur langue. Deuxièmement, cet outil s'avère un moyen à privilégier aux fins de recherches ultérieures. L'avaglyphe permet l'accessibilité à de l'information, à des connaissances diversifiées qui permettront le développement de l'autonomie des Sourds (1). En effet, l'isolement et le manque de communication empêchent les Sourds d'être informés au même titre que les personnes entendantes et par conséquent, de participer pleinement à la vie de société. L'avaglyphe est disponible sur des supports qui permettent la diffusion d'information et la transmisson de divers messages. L'avaglyphe est un médium : un interprète revêt ses traits et rend un message en langue des signes sans qu'on ne puisse l'identifier soit, sans caractéristiques personnalisantes. Des interprètes différents peuvent le revêtir sans qu'on ne perçoive de changements en suivant des normes préétablies dans cette étude. Des recherches antérieures ont étudié les aspects linguistiques et la compréhension du discours avec l'avaglyphe ainsi que les processus impliqués dans l'acte d'interpréter en langue des signes. Cette recherche s'attarde à la création de gabarits pouvant être utilisés par différents interprètes. Les résultats de la recherche démontrent que l'avaglyphe a une apparence humaine, qu'il est anonyme, fidèle et uniforme grâce aux gabarits. Par contre, seul le visage de l'avaglyphe est analysé. Des commentaires permettent de signaler que les avant-bras de l'avaglyphe devront être ajustés aux différentes caractéristiques physiques des interprètes. Il est essentiel de poursuivre les recherches pour contribuer au développement d'outil, qui peut permettre une meilleure intégration d'une communauté isolée, dans la société actuelle." (1) Woodward (1972) a suscité un consensus autour de l'emploi du substantif "Sourd", avec un S majuscule, pour désigner les personnes dont la langue des signes constitue un fondement culturel. Le substantif "sourd", avec un "s" minuscule, est utilisé en référence aux aspects physiologiques de la surdité.
2

Intégration des aspects sensoriels dans la conception des emballages en verre: mise au point d'un instrument méthodologique à partir des techniques d'évaluation sensorielle

Dumenil-Lefebvre, Anne 26 January 2006 (has links) (PDF)
Les nouvelles exigences de l'individu, associées à l'accroissement de l'offre proposée par les entreprises, entraînent un éclatement des besoins. Chaque individu devient de plus en plus regardant quant à l'offre de produits proposée, obligeant ainsi les entreprises à replacer le consommateur au cœur de leurs préoccupations. L'emballage, ayant pour mission d'acheminer les produits, tout en les mettant en valeur aux yeux du consommateur sous des modes de conditionnement les plus divers, n'échappe pas à cette tendance. Une optimisation du concept emballage implique d'étudier précisément les stimuli sensoriels dont l'interprétation cognitive entraînera l'achat ou non d'un produit. Dans le cadre de nos travaux nous nous sommes donc intéressés à l'application de l'évaluation sensorielle aux emballages. Cette méthode a été développée dans les années 30 pour remédier à l'absence de méthodes instrumentales efficaces dans le secteur agro-alimentaire pour quantifier le goût. Elle fait appel à tous les sens, l'olfaction, le gustatif, le toucher, l'ouie ou la vue et utilise l'Homme comme "instrument de mesure". Le but final de cette étude sera la mise au point d'une méthodologie permettant de prendre en compte les différents aspects sensoriels tactiles et visuels des emballages, en adaptant la méthode de l'évaluation sensorielle notamment par l'apport d'autres sciences ou disciplines, telle que l'ergonomie.
3

Conception et évaluation de nouvelles techniques d'interaction dans le contexte de la télévision interactive / New gestural interaction techniques for interactive television

Vo, Dong-Bach 24 September 2013 (has links)
La télévision n’a cessé de se populariser et d’évoluer en proposant de nouveaux services. Ces services de plus en plus interactifs rendent les téléspectateurs plus engagés dans l’activité télévisuelle. Contrairement à l’usage d’un ordinateur, ils interagissent sur un écran distant avec une télécommande et des applications depuis leur canapé peu propice à l’usage d’un clavier et d’une souris. Ce dispositif et les techniques d’interaction actuelles qui lui sont associées peinent à répondre correctement à leurs attentes. Afin de répondre à cette problématique, les travaux de cette thèse explorent les possibilités offertes par la modalité gestuelle pour concevoir de nouvelles techniques d’interaction pour la télévision interactive en tenant compte de son contexte d’usage.
Dans un premier temps, nous présentons le contexte singulier de l’activité télévisuelle. Puis, nous proposons un espace de caractérisation des travaux de la littérature cherchant à améliorer la télécommande pour, finalement, nous focaliser sur l’interaction gestuelle. Nous introduisons un espace de caractérisation qui tente d’unifier l’interaction gestuelle contrainte par une surface, mains libres, et instrumentée ou non afin de guider la conception de nouvelles techniques. Nous avons conçu et évalué diverses techniques d’interaction gestuelle selon deux axes de recherche : les techniques d’interaction gestuelle instrumentées permettant d’améliorer l’expressivité interactionnelle de la télécommande traditionnelle, et les techniques d’interaction gestuelles mains libres en explorant la possibilité de réaliser des gestes sur la surface du ventre pour contrôler sa télévision. / Television has never stopped being popularized and offering new services to the viewers. These interactive services make viewers more engaged in television activities. Unlike the use of a computer, they interact on a remote screen with a remote control from their sofa which is not convenient for using a keyboard and a mouse. The remote control and the current interaction techniques associated with it are struggling to meet viewers’ expectations. To address this problem, the work of this thesis explores the possibilities offered by the gestural modality to design new interaction techniques for interactive television, taking into account its context of use.
More specifically, in a first step, we present the specific context of the television usage. Then, we propose a litterature review of research trying to improve the remote control. Finally we focus on gestural interaction. To guide the design of interaction techniques based on gestural modality, we introduce a taxonomy that attempts to unify gesture interaction constrained by a surface and hand-free gesture interaction.
Therefore, we propose various techniques for gestural interaction in two scopes of research : gestural instrumented interaction techniques, which improves the traditional remote control expressiveness, and hand-free gestural interaction by exploring the possibility o performing gestures on the surface of the belly to control the television set.
4

Du mouvement à l'interaction et au geste : études, techniques, outils et périphériques

Casiez, Géry 12 November 2012 (has links) (PDF)
L'amélioration des outils informatiques devient davantage tributaire de l'enrichissement et du développement de nouvelles interfaces homme-machines que de l'augmentation de la puissance des machines. Les périphériques et techniques d'interaction font partie intégrante des interfaces homme-machines et sont au coeur de nos travaux. Nos recherches s'inscrivent dans cet axe de développement de l'interaction homme-machine en considérant à la fois les aspects matériels, logiciels et les capacités humaines liés aux interfaces homme-machines. Dans ce cadre, nos travaux ont mis en évidence l'importance des fonctions de transfert pour les périphériques de pointage indirects et montrent qu'il existe une marge d'optimisation de ces fonctions. La prise en compte des caractéristiques physiques des périphériques, des capacités des utilisateurs et d'une reconsidération de la gestion des périphériques dans les systèmes actuels permettent en effet d'améliorer les tâches existantes et d'effectuer des tâches auparavant impossibles à réaliser avec des techniques d'interaction standards. Nous nous sommes également intéressés aux périphériques d'interaction directs pour lesquels nous avons montré que la prise en compte de l'occultation permet d'améliorer l'interaction sur écrans tactiles, tout comme une meilleure compréhension des capacités de séparation et d'intégration des degrés de liberté améliore les tâches de manipulation 3D sur écrans multipoints. Le développement de nouvelles interfaces homme-machine est également au coeur de nos travaux. La compréhension des limites des périphériques isotoniques et élastiques existants nous a conduit à développer le périphérique hybride isotonique-élastique RubberEdge. Nos travaux portent également sur l'utilisation du retour tactile avec frottement programmable pour développer de nouvelles techniques d'interaction, l'amélioration des changements de mode sur écrans tactiles avec le développement du périphérique Conté et l'exploitation de l'interaction sur et au dessus d'une surface tactile avec le système Mockup Builder. Le dernier volet de nos travaux concerne l'estimation de la difficulté perçue d'exécution de gestes et l'analyse de la dynamique de gestes pour distinguer les tâches de sélection de celles de saisie d'objets dans le cadre d'interfaces sans contact.
5

La langue comme outil de prévention des troubles musculo-squelettiques chez des interprètes français/langue des signes québécoise : analyse d'aménagements linguistiques, biomécaniques et temporels

Villeneuve, Suzanne 12 1900 (has links) (PDF)
Cette étude propose un nouvel angle de réflexion à la compréhension multidisciplinaire des TMS en ce sens qu'elle présente une description qualitative et quantitative d'éléments de la structure linguistique de la langue des signes québécoise (dorénavant LSQ) qui peuvent avoir une incidence chez les interprètes dont la langue des signes est une des langues de travail. Cinq aspects ont été pris en compte dans ce mémoire: 1° temporel, 2° biomécanique, 3° phonologique, 4° morphosyntaxique et 5° discursif. Les études pointent généralement différents facteurs de risque biomécaniques, cognitifs et psychosociaux pour expliquer les blessures professionnelles des interprètes en langue des signes. L'utilisation de la langue comme facteur influençant la charge musculo-squelettique n'a pas encore été étudiée par les chercheurs. Les principales questions que soulève cette recherche se résument dans ces deux points: 1° Quel type d'utilisation de la langue en contexte d'interprétation peut contribuer à prévenir les blessures aux membres supérieurs? et 2° Quels sont les aménagements permis par la LSQ et inscrits dans la grammaire de la langue qui pourraient être faits par les interprètes? De ces questions a découlé une série d'hypothèses (8). Les 10 sujets sélectionnés pour cette étude sont des interprètes dont l'interprétation constitue la principale activité professionnelle et qui n'ont jamais eu de diagnostic de TMS. II s'agit de 5 sujets débutants et 5 sujets experts. Dans ce cadre, l'expertise est définie par un minimum de 10 années de pratique active sans avoir développé de blessures. Les débutants sont des interprètes qui ont terminé leur formation et qui travaillent en moyenne depuis 2 ans. La tâche expérimentale consistait à interpréter en LSQ deux discours de 20 minutes chacun : le premier est un discours de registre familier et le second est plus formel et plus complexe (de niveau scientifique). Chacun des éléments produits a été encodé en fonction des catégories préalablement définies. Il ressort de l'analyse des résultats que les interprètes experts produisent significativement plus d'aménagements morphosyntaxiques et phonologiques que les interprètes débutants. Quoique ces aménagements leur permettent de réduire le nombre de signes produits sur la main dominante, les experts n'utilisent pas ce temps pour prendre des pauses, mais pour raffiner la précision du message en réalisant divers types d'ajouts au discours. Nous proposons un modèle d'équilibre des charges musculo-squelettiques qui prenne en compte les aménagements linguistiques pour une économie articulatoire et qui donne ainsi encore plus de pouvoir à l'interprète sur sa pratique professionnelle. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : langue des signes, troubles musculo-squelettiques, interprétation, aménagement linguistique, santé et sécurité, économie articulatoire.
6

Interaction basée sur des gestes définis par l'utilisateur : Application à la réalité virtuelle

Jego, Jean-François 12 December 2013 (has links) (PDF)
Ces travaux de recherche proposent une nouvelle méthode d'interaction gestuelle. Nous nous intéressons en particulier à deux domaines d'application : la thérapie à domicile par la réalité virtuelle et les arts scéniques numériques. Nous partons du constat que les interfaces standardisées ne sont pas adaptées à ces cas d'usage, car elles font appel à des gestes prédéfinis et imposés. Notre approche consiste à laisser la possibilité à l'utilisateur de faire apprendre ses gestes d'interaction par le système. Cela permet de prendre en compte ses besoins et aptitudes sensorimotrices. L'utilisateur réutilise ensuite son langage gestuel appris par le système pour interagir dans l'environnement virtuel. Cette approche pose des questions de recherche centrées sur la mémorisation, la rétroaction visuelle et la fatigue. Pour aborder ces trois aspects, nous étudions d'abord le rôle de l'affordance visuelle des objets et celui de la colocalisation dans la remémoration d'un corpus de gestes. Ensuite, nous évaluons l'influence de différents types de rétroactions visuelles sur l'évolution des gestes répétés par l'utilisateur dans une série de tâches de manipulation. Nous comparons également les performances entre des gestes d'amplitude réaliste et des gestes d'amplitude faible pour effectuer la même action. Aussi, nous attachons une importance à rendre l'interface accessible en utilisant des dispositifs bas coûts et peu intrusifs. Nous explorons les moyens de pallier les contraintes techniques liées aux systèmes peu performants. Pour cela, nous avons conduit des expériences où plus de six mille gestes proposés par une quarantaine d'utilisateurs ont été étudiés.
7

Métaphore d’interaction gestuelle en environnement virtuel : application à l’apprentissage de gestes / Gestural interaction metaphor in virtual environments : application to gesture learning

Jeanne, Florian 13 December 2017 (has links)
Au cours de nos travaux, nous nous sommes intéressés à l’apprentissage de gestes techniques en environnement virtuel. Ces environnements permettent en effet de se former à un geste réalisable dans un environnement réel, en ayant des aides qui ne seraient quant à elle pas disponibles, comme la trace en trois dimensions du geste par exemple, ou la possibilité de voir son geste d’un point de vue différent. Toutefois dans le cadre du guidage de geste, il s’avère que la plupart des métaphores visuelles usuelles ne tiennent pas ou peu compte du problème de dépendance qu’elles génèrent. L’hypothèse de guidage issue des théories sur l’apprentissage moteur, stipule en effet que l’utilisation continue d’aides pendant l’apprentissage génère une dépendance de l’apprenant vis-à-vis de ces aides. Ce dernier n’est alors plus capable de reproduire correctement le geste ou la tâche demandée sans l’aide de ces aides. Néanmoins, en réalité virtuelle l’utilisation d’aides d’apprentissage reste nécessaire pour la formation. Pour répondre à cette problématique nous proposons une nouvelle métaphore dynamique d’interaction 3D en environnement virtuel, basée sur la modalité visuelle. Notre approche consiste à axer l’apprentissage sur le ressenti de l’utilisateur, en nous basant sur une pédagogie essai-erreur dans le cadre théorique du paradigme de l’énaction. Notre métaphore indique à l’apprenant ses erreurs de trajectoire en temps réel, l’incitant implicitement à se corriger. Notre hypothèse est que lorsque l’aide n’est plus affichée, l’apprenant est capable de reproduire le geste convenablement en se basant sur ses sensations passées. Nous avons conduit une première expérimentation afin de vérifier que notre métaphore permet bien de reproduire un geste présenté au préalable tout en corrigeant les erreurs de trajectoire. Puis, dans un second temps une deuxième expérimentation a démontré que la métaphore permettait d’obtenir de meilleures performances et qu’elle réduisait davantage la dépendance que des métaphores usuelles de guidage. / In the light of our work, we were interested in precise gesture learning in virtual environment. In these environments, learners can train in safer and longer training sessions than in real environments, using augmented feedback that wouldn’t be available otherwise—such as a 3D trace of canonical movements or the opportunity to see your gesture from a different point of view. However, in the context of gesture guidance, most of the usual visual metaphors do not tackle the dependency they generate. The guidance hypothesis, from motor learning theories, states that the continuous use of feedback during early phases of learning leads to a dependency on the feedback. Learners are no longer able to properly reproduce the requested gesture or task without the help of this feedback. However, in virtual environments the use of augmented feedback remains necessary for training. To deal with this issue, we propose a new dynamic metaphor for 3D interaction in virtual environments, based on the visual modality. Our approach is focus users’ training on their intrinsic feedback, by using a trial-and-error strategy. Our metaphor shows users’ trajectory errors in real time, implicitly spurring them to correct these errors. We assume that when the metaphor is no longer visible, learners are able to properly reproduce the gesture using their past experiences. We conducted a first experiment to evaluate the capacity of our metaphor to properly guide learners during gesture training. Then, a second experiment showed that the metaphor allowed learners to improve their performance and that it further reduced the dependency than usual guiding metaphors.
8

Rich multi-touch input with passive tokens / Objets passifs pour une entrée multi-points riche

Morales González, Rafael 09 October 2017 (has links)
L'entrée multi-points offre un canal d'interaction très expressif pour les dispositifs équipés d'une technologie tactile multi-points. Cependant, alors que la taille du canal de communication est, en théorie, très grande, la plupart des systèmes n'en font, en pratique, qu'un usage très limité. Cet état de fait est probablement dû à la difficulté de gérer un grand nombre de gestes multi-points pour deux raisons principales: (1) les limites cognitives et motrices des humains et (2) les difficultés techniques pour l'élaboration de systèmes de reconnaissance robustes. Cette thèse étudie une nouvelle technique d'entrée, TouchTokens, pour enrichir le vocabulaire de gestes multi-points, en se basant sur la position relative des points de contact et des objets (tokens) passifs. Un TouchToken est un "token" passif avec des encoches qui indiquent à l'utilisateur comment l'attraper, et qui est donc associé à une configuration de doigts qui lui est propre. Ainsi, lorsque les utilisateurs tiennent un token tout en étant en contact avec la surface, le système reconnaît le schéma de points de contact correspondant avec une grande robustesse. Nous commençons par présenter le principe avec des tokens rigides de forme basique. L'algorithme de reconnaissance et la conception des tokens sont issus des conclusions d'une étude formative dans laquelle nous avons collecté et analysé des schémas de points de contact lorsque les utilisateurs tiennent des tokens de taille et de forme variable. Cette première étude montre que les utilisateurs ont des stratégies individuelles cohérentes, mais que ces stratégies dépendent de l'utilisateur. Ces conclusions nous ont menés à l'élaboration de tokens avec des encoches afin que les utilisateurs attrapent un même token toujours de la même façon. L'expérience que nous avons menée sur ce nouvel ensemble de tokens démontre que nous pouvons les reconnaître avec un niveau de robustesse supérieur à 95%. Nous discutons les rôles que peuvent jouer les TouchTokens dans les systèmes interactifs, et nous présentons un échantillon d'applications de démonstration. La conception initiale des TouchTokens ne supporte qu'un ensemble d'interactions se limitant au modèle à deux états de l'interaction directe. Dans un second projet, nous décrivons une technique de fabrication avec une découpeuse laser qui permet de faire des tokens flexibles que les utilisateurs peuvent, par exemple, courber ou compresser en plus de les faire glisser sur la surface. Nous augmentons notre reconnaisseur pour analyser les micro-mouvements des doigts pendant la manipulation du token afin de reconnaître ces manipulations. Cette approche basée sur l'analyse des micro-mouvements des doigts nous permet également de discriminer, lorsque l'utilisateur enlève ses doigts de la surface, le cas où il enlève le token de la surface, du cas où le token est resté sur la surface. Nous rapportons sur les expériences que nous avons menées pour déterminer la valeur des paramètres de nos différents reconnaisseurs, et tester leur robustesse. Nous obtenons des taux de reconnaissance supérieurs à 90% sur les données collectées. Nous finissons cette thèse par la présentation de deux outils qui permettent de construire et reconnaître des tokens de forme arbitraire, TouchTokenBuilder and TouchTokenTracker. TouchTokenBuilder est une application logicielle qui permet de placer des encoches sur des contours vectoriels de forme arbitraire, et qui alerte en cas de conflit de reconnaissance entre tokens. TouchTokenBuilder produit deux fichiers en sortie: une description vectorielle des tokens pour leur construction, et une description numérique servant à leur reconnaissance. TouchTokenTracker est une librairie logicielle qui prend cette description numérique en entrée, et qui permet aux développeurs de traquer la géométrie (position, orientation et forme) des tokens au cours de leur manipulation sur la surface. / This thesis investigates a novel input technique for enriching the gesture vocabulary on a multi-touch surface based on fingers' relative location and passive tokens. The first project, TouchTokens, presents a novel technique for interacting with multi-touch surfaces and tokens. The originality is that these tokens are totally passive (no need for any additional electronic components) and their design features notches that guide users' grasp. The purpose of the notches is to indicate a finger spatial configuration (touch pattern) that is specific to the token. When users hold a token and place it on the surface, touching them simultaneously, the system can recognize the resulting touch patterns with a very high level of accuracy (>95%). This approach works on any touch-sensitive surface and makes it possible to easily build low-cost interfaces that combine no-conductive tangibles and gestural input. This technique supports a new multi-touch input that the system can recognize. However, the interaction is limited to the two-state model of touch interaction as the system only knows the tokens' position and cannot detect tokens that are not touched. In the second project of the thesis, we introduce a laser-cut lattice hinge technique for making the tokens flexible. We then develop a new recognizer that analyzes the micro-movements of the fingers while user are holding and deforming those tokens on the surface. We run three experiments to design and calibrate algorithms for discriminating the three following types of manipulations: (1) when a token is left on the surface rather than taken off it (On/Off); (2) when a token has been bent, and (3) when it is squeezed. Our results show that our algorithms can recognize these three manipulations with an accuracy of: On/Off 90.1%, Bent 91.1% and Squeezed 96,9%.The thesis concludes with the presentation of two tools, TouchTokenBuilder and TouchTokenTracker, for facilitating the development of tailor-made tangibles using a simple direct-manipulation interface. TouchTokenBuilder is a software application that assists interface designers in placing notches on arbitrarily-shaped vector contours for creating conflict-free token sets and warning them about potential conflicts. It outputs two files: a vector-graphics description of all tokens in the set and a numerical description of the geometry of each token. TouchTokenTracker is a software library that takes as input the numerical description produced by TouchTokenBuilder, and enables developers to track the tokens' full geometry (location, orientation and shape) throughout their manipulation on the multi-touch surface.
9

Supporting collaborative practices across wall-sized displays with video-mediated communication / Communication médiatisée par la vidéo pour les pratiques collaboratives à distance entre murs d’écrans

Avellino, Ignacio 12 December 2017 (has links)
La collaboration entre plusieurs personnes peut prendre plusieurs formes, et la technologie soutient depuis longtemps ces pratiques. Mais lorsque la collaboration doit se faire à distance, est-elle aussi bien assistée par la technologie ? Dans ce travail, je soutiens l'idée selon laquelle le succès d'un système de télécommunications ne dépend pas de sa capacité à imiter une collaboration colocalisée, mais dans sa capacité à faciliter les pratiques collaboratives découlant des caractéristiques spécifiques de la technologie. J'explore cet argument en utilisant un mur d'écrans en tant que technologie collaborative. J'ai commencé par observer des collaborateurs effectuer leur travail quotidien à distance en utilisant des prototypes. Ensuite j'ai conduit des expériences et j'ai trouvé que les utilisateurs peuvent interpréter avec précision les instructions déictiques à distance et le regard direct quand un collaborateur à distance est affiché par une vidéo, même si celle-ci n'est pas placée directement devant l'observateur. À partir de ces résultats, j'ai créé CamRay, un outil de télécommunication qui utilise une rangée de caméras pour enregistrer le visage des utilisateurs lorsqu'ils parcourent physiquement les données le long de l'écran et présente cette vidéo sur un autre mur d'écrans distant par dessus le contenu existant. Je propose deux possibilités pour afficher la vidéo: Follow-Local, où le flux vidéo de l'utilisateur distant suit l'utilisateur local, et Follow-Remote où il suit l'utilisateur distant. Je montre que Follow-Remote préserve les relations spatiales entre le collaborateur à distance et le contenu de l'écran, créant ainsi la possibilité de désigner les objets par des gestes de pointage, tandis que Follow-Local facilite les conversations grâce à un face-à-face virtuel qui transmet plus facilement la communication gestuelle. Finalement, je me base sur ces résultats pour guider la conception de futurs systèmes de communications à distance entre murs d'écrans, et dégager des considérations à suivre lorsque des capacités de communication à distance sont ajoutées à de nouvelles technologies. / Collaboration can take many forms, for which technology has long provided digital support. But when collaborators are located remotely, to what extent does technology support these activities? In this dissertation, I argue that the success of a telecommunications system does not depend on its capacity to imitate co-located conditions, but in its ability to support the collaborative practices that emerge from the specific characteristics of the technology. I explore this using wall-sized displays as a collaborative technology. I started by observing collaborators perform their daily work at a distance using prototypes. I then conducted experiments and found that people can accurately interpret remote deictic instructions and direct gaze when performed by a remote collaborator through video, even when this video is not placed directly in front of the observer. Based on these findings, I built CamRay, a telecommunication system that uses an array of cameras to capture users' faces as they physically navigate data on a wall-sized display, and presents this video in a remote display on top of existing content. I propose two ways of displaying video: Follow-Local, where the video feed of the remote collaborator follows the local user, and Follow-Remote, where it follows the remote user. I find that Follow-Remote preserves the spatial relations between the remote speaker and the content, supporting pointing gestures, while Follow-Local enables virtual face-to-face conversations, supporting representational gestures. Finally, I summarize these findings to inform the design of future systems for remote collaboration across wall-sized displays.
10

Gestural interaction techniques for handheld devices combining accelerometers and multipoint touch screens / Techniques d'interaction gestuelles pour dispositifs mobiles combinant accéléromètres et écrans tactiles multipoints

Scoditti, Adriano 28 September 2011 (has links)
Dans cette thèse, j'aborde la question de l'interaction gestuelle sur dispositif mobile. Ces dispositifs, à présent communs, se distinguent des ordinateurs conventionnels principalement par leurs périphériques d'interaction avec l'utilisateur (écrans de taille restreinte mais tactiles, capteurs divers tels que les accéléromètres) ainsi que par le contexte dans lequel ils sont utilisés. Le travail que je présente est une exploration du vaste domaine des techniques d'interaction sur ces dispositifs mobiles. Je structure cet espace en me concentrant sur les techniques à base d'accéléromètres pour lesquelles je propose une taxonomie. Son pouvoir descriptif et discriminant est validé par la classification de trente-sept techniques d'interaction de la littérature. La suite de mon travail se penche sur la réalisation de techniques d'interaction gestuelles pour ces dispositifs mobiles. Avec TouchOver, je montre qu'il est possible de tirer parti de manière complémentaire de deux canaux d'entrée (écran tactile et accéléromètres) pour ajouter un état au glissé du doigt, permettant ainsi d'enrichir cette interaction. Enfin, je m'intéresse aux menus sur dispositif mobile et propose une nouvelle forme de menus gestuels. Je présente leur réalisation avec la bibliothèque logicielle GeLATI qui permet leur intégration à une boîte à outils de développement d'interface graphique préexistante. * / In this thesis, we address the question of gesture interaction on mobile device. These devices, now common, differ from conventional computers primarily by the input devices the user interact with (screen size small but tactile, various sensors such as accelerometers) as well as the context in which they are used. The work presented here is an exploration of the vast area of interaction techniques on these mobile devices. First we try to structure this space by focusing on the techniques based on accelerometers for which we propose a taxonomy. Its descriptive and discriminant power is validated by and the classification of thirty-seven interaction techniques in the literature. Second we focus on the achievement of gestural interaction techniques for these mobile devices. With TouchOver, we show that it is possible to take advantage of complementary two-channels input (touch screen and accelerometers) to add a state to the finger-drag, thus enriching the interaction. Finally, we focus on mobile device menus and offer a new form of sign language menus. We discuss their implementation with the GeLATI software library that allows their integration into a pre-existing GUI toolkit.

Page generated in 0.0415 seconds