Spelling suggestions: "subject:"1interaction comme cachine"" "subject:"1interaction comme amachine""
81 |
Interactions et communications contextuelles dans les environnements informatiques pour l'apprentissage humainGeorge, Sébastien 30 November 2010 (has links) (PDF)
L'objet principal de nos recherches est la prise en compte du contexte dans les Environnements Informatiques pour l'Apprentissage Humain (EIAH). Les problématiques traitées concernent la création de modèles considérant le contexte des apprenants et des enseignants pour faciliter leurs communications et le partage d'informations, ainsi que la conception de situations informatisées favorisant des apprentissages par des mises en contexte. Notre activité s'est organisée autour de projets de recherche ayant pour préoccupation d'améliorer la formation en ligne et les learning games. Dans le cadre de la formation en ligne, les contributions majeures se situent au niveau de la conception et l'expérimentation de modèles pour inciter et soutenir des communications contextuelles, c'est à dire liant des messages à des éléments de contexte (ressources, connaissances, activités d'apprentissage ou d'enseignement). Dans le cadre des learning games, les contributions principales concernent la définition d'un processus de création de jeux d'entreprise et son instrumentation informatique intégrant des contrôles qualité. Nous adoptons une démarche de recherche qui place l'utilisateur, ses activités et ses besoins au centre des préoccupations. La méthode globale de conception de nos systèmes peut être qualifiée d'itérative et de participative. Une attention particulière est portée sur la construction des interactions homme-machine qui doivent refléter les modèles et concepts sous-jacents.
|
82 |
Un modèle d'interaction en entrée pour des systèmes interactifs multi-dispositifs hautement configurablesDragicevic, Pierre 09 March 2004 (has links) (PDF)
Aujourd'hui, les applications comme les outils de développement demeurent câblés pour une utilisation exclusive et stéréotypée du clavier et de la souris, et ignorent tout autre paradigme d'interaction. Bien qu'avérés, les problèmes liés à l'adaptabilité en entrée ont encore fait l'objet de très peu d'études. Dans cette thèse, nous proposons un modèle basé sur des configurations d'entrée, où des dispositifs d'entrée sont librement connectés aux applications à travers des adaptateurs, et où la traditionnelle file d'événements est remplacée par un paradigme à flot de données réactif. Ce modèle a donné lieu à la boîte à outils en entrées ICON (Input Configurator), qui permet de construire des applications interactives entièrement configurables en entrée, capables d'exploiter des dispositifs et des techniques d'interaction non-standard. Son éditeur visuel permet au développeur de créer rapidement des configurations pour des entrées appauvries ou enrichies, que les utilisateurs avancés peuvent ensuite adapter à leurs besoins.
|
83 |
Integrating cultural factors in user-interface design : the case of the Nasa Colombian native peopleRUANO RINCON, Santiago 22 February 2013 (has links) (PDF)
Le contexte de recherche de cette thèse est le développement d'outils informatiques dans un cadre interculturel. La thèse prend comme cas d'étude le peuple nasa, aborigène de Colombie conservant d'importantes caractéristiques culturelles. La problématique de recherche est née à partir des différences culturelles entre ce peuple rural et la société productrice des dispositifs informatiques. Les processus d'adaptation culturelle se concentrent en général sur la traduction textuelle et sur des éléments faciles à étudier. Cependant, la culture est implicite dans une large gamme d'aspects de la conception et utilisation d'un système informatique. Par exemple, la métaphore du bureau est basée sur des éléments typiques d'un environnement de travail urbain. Toutefois, les dossiers, fichiers et autres composants de l'interface sont moins courants dans le contexte nasa. Cette thèse réalise deux contributions majeures. Premièrement, un modèle culturel qui aide à l'étude de caractéristiques socioculturelles importantes dans le développement d'outils informatiques (la langue, l'environnement et la technologie, l'organisation sociale, la structuration de l'espace, et les signes non-linguistiques). Deuxièmement, une méthode de description de conception intégrant les caractéristiques culturelles à des patrons de conception. Ceux-ci rendent possible la représentation de l'influence de la culture sur la production d'un outil. Ces contributions ont été appliquées dans le contexte nasa et deux outils ont été mis en oeuvre dans deux écoles en suivant une méthode de conception participative. Un catalogue initial de patrons décrit la résolution de différents problèmes de conception.
|
84 |
Interaction tangible sur table interactive : application aux géosciences / Tangible interaction on tabletops : applied in geoscienceRivière, Guillaume 09 September 2009 (has links)
Cette thèse traite des interfaces utilisateur tangibles (TUI). La première partie de ce manuscrit concerne l'interaction tangible sur table interactive. Nous introduisons tout d'abord les TUIs et les tables interactives. Nous validons une hypothèse concernant la spécialisation de la forme des interacteurs tangibles et nous en tirons les conséquences pour la conception des TUIs. Nous proposons une solution de boîtier à boutons pour y déporter certaines opérations dans le contexte d'une TUI sur table interactive. Nous abordons la construction et le développement d'un système de tables interactives tangibles transportables et à faible coût permettant de faire du prototypage rapide de TUIs. Nous terminons en soulignant les particularités de l'évaluation expérimentale des TUIs. La seconde partie de ce manuscrit traite un cas d'application d'une TUI pour les géosciences : GeoTUI. Nous commençons par présenter le contexte métier des géophysiciens et leurs besoins en terme de nouveaux moyens d'interaction. Nous présentons les résultats de notre conception d'une TUI pour les géosciences. Nous précisons le détail du développement de notre prototype. Pour terminer, nous présentons les deux expérimentations utilisateurs qui ont été conduites pour valider nos choix de conception. / This thesis focuses on tangible user interfaces (TUI). The first part of this manuscript is about tangible interaction on tabletop. We first introduce TUIs and tabletops. We validate an hypothesis about the specialization of the form of the tangible objects, and conclude from that consequences on TUIs design. We propose the solution of a button box to deport some operations in the context of tabletop TUI. We present the construction and development of a transportable and low cost tabletop TUI system that allows rapid TUI prototyping. We end pointing out the special features of user experiments of TUIs. The second part of this manuscript deals with an application case of a TUI for geoscience: GeoTUI. We start presenting the context of the geophysicists work and their need in term of new way of interation. We present the results of our design of a TUI for geoscience. We detail the development of our prototype. To finish, we present two user experiments we conducted to validate our design choices.
|
85 |
Spécification d'exigences physico-physiologiques en ingénierie d'un système support de maintenance aéronautique / Improving physical-physiological interaction requirements for maintenance enabling systems specificationLieber, Romain 06 November 2013 (has links)
Le cadre prescrit de l'ingénierie système, avant tout centré sur les systèmes techniques, doit évoluer pour permettre de prendre en compte dès la phase de spécification système les interactions critiques des systèmes homme-machine tels que le système de maintenance aéronautique. L'objectif est d'assurer que le comportement de ce type de système, dépendant des synergies entre les différentes interactions qui prennent place entre les constituants techniques et humains, soit maintenu dans un domaine de performances acceptables. La démarche d'intégration des facteurs humains en Ingénierie Système consiste alors à s'intéresser à la performance globale des diverses interfaces des systèmes homme-machine. Ces interfaces sont le siège d'interactions émergeantes complexes, dont certaines sont recherchées pour faciliter la performance globale visée et la résilience face à un environnement perturbateur non anticipé, et d'autres construites pour finaliser le système en regard de sa mission. Le paradigme exploré par nos travaux se fonde sur la possibilité de faire inter-opérer des modèles de processus physiologiques avec des modèles de processus techniques en spécification d'interaction homme-machine, en combinant un cadre de Modélisation Système avec celui Mathématique et Computationnel de la Physiologie Intégrative. Notre travail se focalise sur la spécification d'exigences physico-physiologiques d'une interaction de perception visuelle, modélisées avec SysML, pour que l'opérateur humain perçoive bien les propriétés symboliques "affordées" par les objets techniques qu'il doit maintenir dans des contextes opérationnels variables. Les résultats de ces travaux de spécification nous amène à proposer une nouvelle organisation d'une ingénierie système support de maintenance basée sur les modèles / Current Systems Engineering framework must evolve in order to take into account the critical interactions of human-machine systems since the specification phase. The objective is to ensure that the behavior of such systems is kept within an accepted domain of performances whatever is the context of use. Those performances depend on the synergies of the different interactions that take place between technical and human systems when operating a common object. Human Factors Integration in Systems Engineering also known as Human Systems Integration implies to start working on the overall performance of all the interfaces of a human-machine system. These different interfaces exhibit emerging complex interactions. Some of them are inquired to ease the whole system performances and facilitate system resilience capabilities within disruptive unanticipated environment. Other ones are designed to finalize the system mission according to the purpose of its context of use. The paradigm we have explored in our work is based on the hypothesis of possible inter-operations between physiological and technical processes for human-machine interaction specification by coupling a System Modeling Framework with the Mathematical Theory of Integrative Physiology one. Our work focuses on the physical and physiological requirements specification (modeled with SysML) of a visual perceptive interaction for human to perceive right the meaning of symbolic properties technical objects afford when they are being maintained in variable contextualized situations. Our specification work results lead us to propose a Model-Based Support Systems Engineering organization
|
86 |
Prediction of user action in moving-target selection tasks / Etude de la prédiction de l'action de l'utilisateur dans une tâche de sélection de cibles en mouvementCasallas suarez, Juan Sebastian 26 June 2015 (has links)
La sélection de cibles en mouvement est une tâche courante et complexe dans l'interaction homme-machine (IHM) en général et en particulier dans le domaine de la réalité virtuelle (RV). La prédiction de l'action est une solution intégrale pour aborder les problèmes liés à l'interaction. Cependant, les techniques actuelles de prédiction sont basées sur le suivi continu des actions de l'utilisateur sans prendre en compte la possibilité que les actions d'atteinte d'une cible puissent avoir une composante importante préprogrammée—cette théorie est appelé la théorie du contrôle préprogrammé.En se basant sur la théorie du contrôle préprogrammé, cette thèse explore la possibilité de prédire les actions, avant leur exécution, de sélection d'objets en mouvement. Plus spécifiquement, trois niveaux de prédiction d'action sont étudiés : 1) la performance des actions, mesurée par le temps de mouvement (TM) nécessaire pour atteindre une cible, 2) la difficulté prospective (DP), qui représente la difficulté subjective de la tâche estimée avant son exécution, 3) l'intention de l'utilisateur, qui indique la cible visée par l'utilisateur.Dans le cadre de cette thèse, des modèles de prédiction d'intention sont développés à l'aide des arbres de décision ainsi que des fonctions de classement—ces modèles sont évalués dans deux expériences en RV. Des modèles 1-D et 2-D de DP pour des cibles en mouvement basés sur la loi de Fitts sont développés et évalués dans une expérience en ligne. Enfin, des modèles de TM avec les mêmes caractéristiques structurelles des modèles de DP sont évaluées dans une expérience 3-D en RV. / Selection of moving targets is a common, yet complex task in human–computer interaction (HCI), and more specifically in virtual reality (VR). Action prediction has proven to be the most comprehensive enhancement to address moving-target selection challenges. Current predictive techniques, however, heavily rely on continuous tracking of user actions, without considering the possibility that target-reaching actions may have a dominant pre-programmed component—this theory is known as the pre-programmed control theory.Thus, based on the pre-programmed control theory, this research explores the possibility of predicting moving-target selection prior to action execution. Specifically, three levels of action prediction are investigated: 1) action performance measured as the movement time (MT) required to reach a target, 2) prospective difficulty (PD), i.e., subjective assessments made prior to action execution; and 3) intention, i.e., the target that the user plans to reach.In this dissertation, intention prediction models are developed using decision trees and scoring functions—these models are evaluated in two VR studies. PD models for 1-D, and 2-D moving- target selection tasks are developed based on Fitts' Law, and evaluated in an online experiment. Finally, MT models with the same structural form of the aforementioned PD models are evaluated in a 3-D moving-target selection experiment deployed in VR.
|
87 |
Conception, développement et évaluation de techniques d'interactions fluides pour des environnements multidimensionnels : application aux logiciels du service public / Conception, development and evaluation of fluid interaction techniques for multidimensional environments : application on public services' softwarePerelman, Gary 02 October 2018 (has links)
Les travaux de cette thèse s'inscrivent dans une collaboration avec l'entreprise Berger-Levrault, acteur majeur du développement de logiciels de gestion administrative pour les services publics. Ces travaux s'appuient sur deux constats. D'une part, la politique de numérisation des services publics induit la nécessité de disposer de logiciels adaptés aux métiers de l'ensemble des établissements publics. Ces logiciels sont complexes et particulièrement riches comparativement aux logiciels de bureautique classiquement utilisés. D'autre part, on observe que les dispositifs utilisés pour interagir avec ces logiciels n'évoluent que très peu. Depuis plusieurs décennies, la souris et le clavier restent la norme dans un environnement fixe. Or, ces dispositifs ne possèdent que peu de degrés de libertés en entrée. La manipulation de données multidimensionnelles avec ceux-ci induit un plus grand nombre d'étapes pour réaliser une tâche, rallongeant ainsi le chemin d'interaction. Dans ce contexte, l'objectif de ces travaux de thèse est de contribuer à la fluidification de l'interaction avec des données multidimensionnelles, contenues dans les logiciels du service public, au travers de l'augmentation des degrés de libertés en entrée proposés par les dispositifs. En effet, une plus grande quantité de degrés de libertés en entrée réduirait le nombre d'étapes nécessaires à la réalisation d'une tâche donnée, fluidifiant ainsi l'interaction. Nous proposons 3 contributions majeures : un dispositif à multiples degrés de libertés, la Roly-Poly Mouse ; un espace de conception, DECO ; ainsi qu'un ensemble de techniques d'interaction avec dispositifs mobiles basées sur le principe du stacking. Une première contribution de nos travaux consiste en la conception d'un nouveau dispositif à multiples degrés de liberté : la Roly-Poly Mouse (RPM). Ce dispositif, dont la base est arrondie, vise à remplacer la souris traditionnelle. Il possède 6 degrés de libertés (3 translations dont 2 exploitées et 3 rotations). Nous avons évalué ses performances et l'avons comparé à d'autres dispositifs pour une tâche nécessitant 6 degrés de libertés (manipulation d'objet 3D). Une seconde contribution de nos travaux consiste en la définition d'un espace de conception se focalisant sur l'aspect physique de la composition de dispositifs : DECO. DECO s'appuie sur deux axes : l'arrangement physique et la manipulation physique. À partir de cet espace de conception, nous avons conçu un dispositif composé : la Roly-Poly Mouse 2, un dispositif composé d'une Roly-Poly Mouse et d'une souris traditionnelle. Nous avons évalué ses performances et l'avons comparé à d'autres dispositifs au travers d'une tâche de RST (Rotate-Scale-Translate, tâche 5D). [...] / The work of this thesis is part of a collaboration with the company Berger-Levrault, a major actor in the development of administrative management software for public services. This work is based on two observations. On the first hand, the policy of digitization of public services induces the need for software adapted to the professions of all public institutions. These software are complex and particularly rich compared to classically used office software (Office, mailbox, etc.). On the other hand, we observe that the devices used to interact with these software did not evolve. Since several decades, the mouse and the keyboard remain the norm in a fixed environment. However, these devices have only few input degrees of freedom. The manipulation of multidimensional data with these devices induces a greater number of steps to perform a task, thus lengthening the interaction path. In this context, the objective of these thesis work is to improve the interaction flow with multidimensional data contained in the software of the public service through the increase of the input degrees of freedom proposed by the devices. Indeed, a larger amount of input degrees of freedom would reduce the number of steps necessary to the accomplishment of a given task, thus improving the interaction flow. We propose three major contributions: a device with multiple degrees of freedom, the Roly-Poly Mouse; a design space, DECO; as well as a set of interaction techniques with mobile devices based on the principle of stacking. A first contribution of our work is the design of a new device with multiple degrees of freedom: the Roly-Poly Mouse (RPM). This device, whose base is rounded, aims to replace the traditional mouse. It has 6 degrees of freedom (3 translations of which 2 exploited and 3 rotations). We evaluated its performance and compared it to other devices for a task requiring 6 degrees of freedom (3D object manipulation). A second contribution of our work is the definition of a design space focusing on the physical aspect of the composition of devices: DECO. DECO relies on two axes: physical arrangement and physical manipulation. From this design space, we designed a compound device: the Roly-Poly Mouse 2, a device consisting of the combination of a Roly-Poly Mouse and a traditional mouse. We evaluated its performance and compared it to other devices through a RST task (Rotate-Scale-Translate, 5D task). [...]
|
88 |
Conception et évaluation de techniques d'interaction pour l'exploration de données complexes dans de larges espaces d'affichage / Desing and evaluation of interaction techniques for exploring complexe data in large display-spacesSaïdi, Houssem Eddine 16 October 2018 (has links)
Les données d'aujourd'hui deviennent de plus en plus complexes à cause de la forte croissance de leurs volumes ainsi que leur multidimensionnalité. Il devient donc nécessaire d'explorer des environnements d'affichage qui aillent au-delà du simple affichage de données offert par les moniteurs traditionnels et ce, afin de fournir une plus grande surface d'affichage ainsi que des techniques d'interaction plus performantes pour l'exploration de données. Les environnements correspondants à cette description sont les suivants : Les écrans large ; les environnements multi-écrans (EME) composés de plusieurs écrans hétérogènes spatialement distribués (moniteurs, smartphones, tablettes, table interactive ...) ; les environnements immersifs. Dans ce contexte, l'objectif de ces travaux de thèse est de concevoir et d'évaluer des solutions d'interaction originales, efficaces et adaptées à chacun des trois environnements cités précédemment. Une première contribution de nos travaux consiste en Split-focus : une interface de visualisation et d'interaction qui exploite les facilités offertes par les environnements multi-écrans dans la visualisation de données multidimensionnelles au travers d'une interface overview + multi-detail multi-écrans. Bien que plusieurs techniques d'interaction offrent plus d'une vue détaillée en simultané, le nombre optimal de vues détaillées n'a pas été étudié. Dans ce type d'interface, le nombre de vues détaillées influe grandement sur l'interaction : avoir une seule vue détaillée offre un grand espace d'affichage mais ne permet qu'une exploration séquentielle de la vue d'ensemble?; avoir plusieurs vues détaillées réduit l'espace d'affichage dans chaque vue mais permet une exploration parallèle de la vue d'ensemble. Ce travail explore le bénéfice de diviser la vue détaillée d'une interface overview + detail pour manipuler de larges graphes à travers une étude expérimentale utilisant la technique Split-focus. Split-focus est une interface overview + multi-détails permettant d'avoir une vue d'ensemble sur un grand écran et plusieurs vues détaillées (1,2 ou 4) sur une tablette. [...] / Today's ever-growing data is becoming increasingly complex due to its large volume and high dimensionality: it thus becomes crucial to explore interactive visualization environments that go beyond the traditional desktop in order to provide a larger display area and offer more efficient interaction techniques to manipulate the data. The main environments fitting the aforementioned description are: large displays, i.e. an assembly of displays amounting to a single space; Multi-display Environments (MDEs), i.e. a combination of heterogeneous displays (monitors, smartphones/tablets/wearables, interactive tabletops...) spatially distributed in the environment; and immersive environments, i.e. systems where everything can be used as a display surface, without imposing any bound between displays and immersing the user within the environment. The objective of our work is to design and experiment original and efficient interaction techniques well suited for each of the previously described environments. First, we focused on the interaction with large datasets on large displays. We specifically studied simultaneous interaction with multiple regions of interest of the displayed visualization. We implemented and evaluated an extension of the traditional overview+detail interface to tackle this problem: it consists of an overview+detail interface where the overview is displayed on a large screen and multiple detailed views are displayed on a tactile tablet. The interface allows the user to have up to four detailed views of the visualization at the same time. We studied its usefulness as well as the optimal number of detailed views that can be used efficiently. Second, we designed a novel touch-enabled device, TDome, to facilitate interactions in Multi- display environments. The device is composed of a dome-like base and provides up to 6 degrees of freedom, a touchscreen and a camera that can sense the environment. [...]
|
89 |
Navigation multimodale dans une vue bifocale sur dispositifs mobiles / Multimodal navigation in a bifocal view on mobile devicesPelurson, Sébastien 02 September 2016 (has links)
Les dispositifs mobiles sont aujourd’hui omniprésents dans notre quotidien. Leurs évolutions technologiques ainsi que les moyens de communication toujours plus rapides font que les utilisateurs manipulent toujours plus d’informations sur leurs dispositifs mobiles, modifiant ainsi l’usage qu’ils en font, et remplaçant petit à petit les ordinateurs de bureau. Cependant les dispositifs mobiles ne s’utilisent pas de la même manière que les ordinateurs de bureau et doivent faire face à des contraintes qui leur sont propres. En particulier, les écrans de taille réduite ne permettent pas d’afficher autant d’information que sur l’écran d’un ordinateur de bureau. De plus, ces écrans, tactiles pour la plupart, sont utilisés à la fois comme périphérique d’entrée et de sortie, entraînant ainsi des problèmes d’occultation d’une partie de l’écran lors de l’interaction. Ces constats et limitations posent ainsi le problème de la visualisation interactive de grandes quantités d’information sur dispositifs mobiles.Le problème s’articule donc selon deux axes fortement liés : d’une part la visualisation d’information et d’autre part l’interaction sur dispositifs mobiles. Pour le premier axe, nous nous sommes intéressés aux techniques de visualisation permettant de visualiser à la fois une vue globale de l’espace d’information et une sous-partie détaillée de celui-ci. En effet, visualiser uniquement une sous-partie de l’espace d’information rend sa compréhension difficile du fait du manque de contexte. A l’inverse, visualiser l’espace d’information complet à l’écran le rend illisible.Pour le second axe, nous nous sommes interessés aux techniques d’interaction pour naviguer dans l’espace d’information. En effet, la variété des capteurs disponibles aujourd’hui dans les dispositifs mobiles définit un large espace de possibilités en termes de modalités d’interaction.Nos travaux apportent deux types de contribution : conceptuelles et pratiques. Nous présentons tout d’abord un espace de conception des modalités de navigation en l’instanciant au cas des dispositifs mobiles : cet espace permet de décrire, comparer et concevoir des modalités d’interaction pour la tâche de navigation. Nous présentons ensuite un modèle conceptuel de navigation multimodale permettant de naviguer dans un espace d’information multi-échelles.Basé sur un état de l’art des techniques de visualisation sur dispositifs mobiles, nous avons conçu et évalué expérimentalement une technique de visualisation bifocale. Enfin, en nous reposant sur deux espaces conceptuels et l’état de l’art des modalités d’interaction sur dispositifs mobiles, nous proposons plusieurs techniques d’interaction multimodale conçues et évaluées expérimentalement pour naviguer dans un espace d’information multi-échelles. / Mobile devices are now ubiquitous in everyday computing. Technological advances and increasing mobile network performance allow users to manipulate more and more information on their mobile devices, changing the use they make of these types of devices, which are gradually replacing desktop computers. However mobile devices are not used in the same way as desktops and face specific constraints. In particular, smaller screens fail to display as much information as a computer screen. In addition, these screens, mostly tactile, are used as both input and output devices, leading to occlusion of a portion of the screen during touch interaction. These findings and limitations give rise to the problem of interactive visualization of large amounts of information on mobile devices.We addressed this problem by considering two related research axes: on the one hand information visualization and on the other hand interaction on mobile devices.For the first axis, we focused on visualization techniques that provide an overview of the information space and a detailed subset of it. Indeed, only one view of a subset of the information space makes it difficult to understand it because of the lack of context. Conversely, visualizing the complete information space on the screen of a mobile device makes it unreadable.For the second axis, we studied interaction techniques for navigating an information space. Facing the variety of sensors available in todays mobile devices, there is a vast set of possibilities in terms of interaction modalities.We provide two types of contribution: conceptual and practical.First we present a design space of navigation techniques on mobile devices: this design space enables us to describe, compare and design interaction modalities for the task of navigation in an information space. Second we propose a conceptual model of multimodal navigation for navigating a multiscale information space.Based on a state of the art of visualization techniques on mobile devices, we designed, developed and experimentally tested a bifocal view on a mobile device. By relying on our design space and by operationalizing our conceptual model of navigation, we designed developed and experimentally compared several multimodal interaction techniques for navigating a multiscale information space.
|
90 |
Modèles psychophysiques d'atteintes de cibles pour les personnes souffrant de troubles neuromusculairesVella, Frédéric 18 December 2008 (has links) (PDF)
Des études sur des personnes valides montrent que la saisie est plus rapide sur un clavier physique de type AZERTY (75 mots par minute) plutôt que sur un clavier virtuel de type AZERTY par désignation (25 mots par minute). Cette réduction de vitesse est aussi observée lors d'activités de saisie par des personnes handicapées avec le clavier ambigu UKO. Au contraire, d'autres travaux ont montré l'apport de l'optimisation de l'agencement spatial des touches pour la saisie, en situation de mobilité pour le clavier OPTI et le clavier Metropolis et en situation de bureau pour le clavier GAG.<br /><br />Ainsi, pour comprendre et qualifier ces troubles moteurs, nous avons besoin d'étudier les activités motrices en situation en appliquant la loi de psychomotricité. <br />Cette étude a un double enjeu (intérêt théorique et technologique) : la compréhension des troubles moteurs et la conception des systèmes de suppléance (tels que les claviers virtuels) fondés sur des techniques d'interaction de pointage. <br /><br />L'objectif est de proposer une modélisation des performances motrices (et perceptives à termes) de notre population d'étude pour prédire le temps de déplacement et de recherche de cibles. Pour atteindre cet objectif, nous avons étudié l'atteinte de cibles à 1 dimension. Ces modèles sont ensuite appliqués à l'étude de l'utilisabilité d'un clavier logiciel.
|
Page generated in 0.1344 seconds