1 |
Application d’une nouvelle taxonomie à la conception et l’évaluation ergonomique de systèmes de réalité augmentée pour le fantassin / Application of a new taxonomy to ergonomic design and evaluation of augmented reality systems for infantrymanDazenière, Thomas 03 March 2014 (has links)
Que ce soit dans le domaine civil ou militaire, les progrès technologiques de ces dernières décennies ont permis l’émergence de nouveaux systèmes de communication facilitant grandement les échanges d’information. Ces nouvelles capacités de partage d’informations tactiques ont fait alors émerger des questionnements sur les moyens de restituer ces données dans le contexte du combattant débarqué. Le concept de « Réalité Augmentée » ou RA a notamment exploré, afin de fournir ces informations tactiques directement dans le champ de vision du soldat via l’emploi de « lunettes » de RA ou Head-Mounted Display (HMD).Rapidement, l’usage de ce type de dispositif souleva de nombreuses problématiques techniques mais aussi de l’ordre des Facteurs humains. En effet, ces nouvelles interfaces émergentes sont fondamentalement différentes des IHM classiques en deux dimensions sur écrans. Elles soulèvent donc des problématiques ergonomiques spécifiques qui doivent être étudiées afin de concevoir des systèmes de RA pertinents et adaptés à l’activité du fantassin débarqué du futur.Afin de pouvoir fournir des recommandations ergonomiques pour la conception, les travaux de cette thèse se sont orientés vers l’élaboration d’un cadre d’analyse de la RA, la taxonomie WOTSH&R. Ensuite, cette dernière a été appliquée pour l’évaluation ergonomique, au travers de différentes études exploratoires de système de RA pour le fantassin. Elle a notamment permis d’identifier et de traiter par la suite la problématique de la perception des distances. Enfin, la taxonomie a aussi été utilisée à des fins de conception et a permis le développement de deux preuves concepts d’IHM innovantes en réalité augmentée. / Whether in the civil or military field, technological progress in these last decades allowed the emergence of new communication systems improving greatly information exchanges. These new capabilities raise issues concerning the relevant display modalities in the context of the dismounted soldier. The concept of "Augmented Reality" or AR, has been explored to provide tactical information directly into the soldier's field of view through the use of of AR "glasses" or Head-Mounted Display (HMD). Soon, the use of this type of device raised many technical issues as well as Human Factors ones. Indeed, these emerging interfaces fundamentally differ from traditional two-dimensional screen-based HCI. It therefore raises specific ergonomic issues that need to be studied to design relevant AR systems adapted to the future infantry land warfare. In order to provide ergonomic design guidelines, the work of this thesis focused first on the development of a methodological framework tailored to AR. This taxonomy, named WOTSH&R, was then applied to the ergonomic evaluation, through various exploratory studies on military AR systems. It was successful in identifying and addressing the major problem of depth perception in particular. Finally, this taxonomy was also used for design purposes and allowed the development of two innovative augmented reality proofs of concept.
|
2 |
Proposition pour la prise en compte des déformations métiers dans un système de CAOIoana, Ciuciu 05 November 2009 (has links) (PDF)
L'évolution technologique et scientifique à l'heure actuelle se répercute, en tout ou en partie, sur le domaine de la CAO. On assiste à une universalisation des techniques de conception, qui se basent souvent sur les mêmes algorithmes, que ce soit pour l'industrie aéronautique, pour la médecine ou pour d'autres domaines. Cette pluridisciplinarité naît des différentes vues de la conception, qui ne se fait plus seulement par des ingénieurs, mais par un public très varié, et qui entraîne, à son tour, des différentes techniques d'interaction. Pour répondre à cette diversité, les systèmes de CAO devraient assister l'utilisateur par des outils de modélisation adaptés. Une approche dans ce sens serait d'intégrer les déformations avec des contraintes métier. Ainsi, le concepteur pourrait se concentrer sur son métier plutôt que sur le modèle géométrique, laissant au système la tache du passage des paramètres métier aux paramètres géométriques, applicables au modèle. L'étude présente se place dans le contexte du projet DIJA, avec le but de créer un modeleur de déformation de surfaces avec un comportement métier bien précis, non pas en utilisant le modèle géométrique sous-jacent, tel que réalisé jusqu'à présent, mais en prenant en compte une triangulation de la surface aussi fine que nécessaire. L'étude permet de démontrer également le passage des paramètres métier aux paramètres géométriques et l'interaction avec l'utilisateur des différents niveaux de l'architecture du système, selon ses compétences.
|
3 |
Formal Specification and Verification of Interactive Systems with Plasticity : Applications to Nuclear-Plant Supervision / Spécification formelle et vérification de systèmes interactifs avec plasticité : applications à la supervision nucléaireOliveira, Raquel Araùjo de 03 December 2015 (has links)
L'informatique ubiquitaire et la variété croissante des plates-formes et dispositifs changent les attentes des utilisateurs en termes d'interfaces utilisateur. Les systèmes devraient être en mesure de s'adapter à leur contexte d'utilisation, à savoir, la plate-forme (par exemple un PC ou une tablette), les utilisateurs qui interagissent avec le système (par exemple, les administrateurs ou les utilisateurs réguliers), et l'environnement dans lequel le système s'exécute (par exemple une pièce sombre ou en extérieur). La capacité d'une interface utilisateur à s'adapter aux variations de son contexte d'utilisation tout en préservant son utilisabilité est appelée plasticité.La plasticité fournit aux utilisateurs différentes versions d'une interface utilisateur. Bien qu'elle enrichisse les interfaces utilisateur, la plasticité complexifie leur développement: la cohérence entre plusieurs versions d'une interface donnée (une pour chaque contexte d'utilisation) devrait être assurée. Étant donné le grand nombre de versions possibles d'une interface utilisateur, il est coûteux de vérifier ces exigences à la main. Des automatisations doivent être alors fournies afin de vérifier la plasticité.Cette complexité est accentuée quand il s'agit de systèmes critiques. Les systèmes critiques sont des systèmes dans lesquels une défaillance a des conséquences graves (par exemple, décès ou blessures de personnes, dommages à l'environnement, perte ou endommagement de l'équipement, etc.). La complexité de ces systèmes se reflète dans les interfaces utilisateur, qui doivent maintenant non seulement fournir des moyens corrects, intuitifs, non ambiguës et adaptables pour les utilisateurs pour atteindre un but, mais qui doivent aussi faire face aux exigences de sécurité visant à assurer que les systèmes sont raisonnablement sûrs avant d'être mis sur le marché.Plusieurs techniques existent afin d'assurer la qualité des systèmes en général, qui peuvent être également appliquées pour les systèmes critiques. La vérification formelle fournit un moyen d'effectuer une vérification rigoureuse, qui est adaptée pour les systèmes critiques. Notre contribution est une approche de vérification des systèmes interactifs critiques et plastiques à l'aide de méthodes formelles. Avec l'utilisation d'un outil performant, notre approche permet :- La vérification d'ensembles de propriétés sur un modèle du système. Reposant sur la technique de "model checking", notre approche permet la vérification de propriétés sur la spécification formelle du système. Les propriétés d'utilisabilité permettent de vérifier si le système suit de bonnes propriétés ergonomiques. Les propriétés de validité permettent de vérifier si le système suit les exigences qui spécifient son comportement attendu.- La comparaison des différentes versions du système. Reposant sur la technique "d'équivalence checking", notre approche vérifie dans quelle mesure deux interfaces utilisateur offrent les mêmes capacités d'interaction et la même apparence. Nous pouvons ainsi montrer si deux modèles d'une interface utilisateur sont équivalents ou non. Dans le cas où ils ne sont pas équivalents, les divergences de l'interface utilisateur sont listées, offrant ainsi la possibilité de les sortir de l'analyse. De plus, l'approche permet également de montrer qu'une interface utilisateur peut contenir au moins toutes les capacités d'interaction d'une autre interface utilisateur.Nous présentons également dans cette thèse trois études de cas industriels dans le domaine des centrales nucléaires dans lesquelles l'approche a été appliquée. Ces études de cas montrent ainsi de nouvelles applications des méthodes formelles dans un contexte industriel. / The advent of ubiquitous computing and the increasing variety of platforms and devices change user expectations in terms of user interfaces. Systems should be able to adapt themselves to their context of use, i.e., the platform (e.g. a PC or a tablet), the users who interact with the system (e.g. administrators or regular users), and the environment in which the system executes (e.g. a dark room or outdoor). The capacity of a UI to withstand variations in its context of use while preserving usability is called plasticity.Plasticity provides users with different versions of a UI. Although it enhances UI capabilities, plasticity adds complexity to the development of user interfaces: the consistency between multiple versions of a given UI should be ensured. Given the large number of possible versions of a UI, it is time-consuming and error prone to check these requirements by hand. Some automation must be provided to verify plasticity.This complexity is further increased when it comes to UIs of safety-critical systems. Safety-critical systems are systems in which a failure has severe consequences. The complexity of such systems is reflected in the UIs, which are now expected not only to provide correct, intuitive, non-ambiguous and adaptable means for users to accomplish a goal, but also to cope with safety requirements aiming to make sure that systems are reasonably safe before they enter the market.Several techniques to ensure quality of systems in general exist, which can also be used to safety-critical systems. Formal verification provides a rigorous way to perform verification, which is suitable for safety-critical systems. Our contribution is an approach to verify safety-critical interactive systems provided with plastic UIs using formal methods. Using a powerful tool-support, our approach permits:-The verification of sets of properties over a model of the system. Using model checking, our approach permits the verification of properties over the system formal specification. Usability properties verify whether the system follows ergonomic properties to ensure a good usability. Validity properties verify whether the system follows the requirements that specify its expected behavior.-The comparison of different versions of UIs. Using equivalence checking, our approach verifies to which extent UIs present the same interaction capabilities and appearance. We can show whether two UI models are equivalent or not. When they are not equivalent, the UI divergences are listed, thus providing the possibility of leaving them out of the analysis. Furthermore, the approach shows that one UI can contain at least all interaction capabilities of another.We also present in this thesis three industrial case studies in the nuclear power plant domain which the approach was applied to, providing additional examples of successful use of formal methods in industrial systems.
|
4 |
Plasticité de l'interaction Homme-Machine : présentation à l'utilisateur, une question de compromis / Smooth adaptation in Human Computer InteractionBouzit, Sara 15 June 2017 (has links)
La thèse s'inscrit dans le domaine de l'ingénierie de l'interaction Homme-Machine. Elle porte sur la plasticité des Interfaces Homme-Machine (IHM), c'est-à-dire leur capacité à s'adapter à leur contexte d'usage dans le respect des bonnes propriétés pour l'humain. Plus précisément, l'objet d'étude est la transformation de l'IHM pour accélérer l'interaction. / Research contributes to the engineering of Human Computer Interaction. It deals with the plasticity property, i.e. the ability of User Interfaces to withstand variations of the context of use while preserving user centered properties. More specifically, the object under study is the UI transformation for speeding up interaction.
|
5 |
Analyse de la latence et de sa compensation pour l'interaction au toucher direct : aspects techniques et humains / Analysis of the latency and of its compensation for direct-touch interaction : technical and human aspectsCattan, Elie 26 September 2017 (has links)
La latence, c'est-à-dire le délai entre l'action d'un utilisateur en entrée d'un système et la réponse correspondante fournie par le système, est un problème majeur pour l'utilisabilité des dispositifs interactifs. La latence est particulièrement perceptible pour l’interaction au toucher et détériore la performance de l'utilisateur même à des niveaux de l'ordre de la dizaine de millisecondes. Or, la latence des écrans tactiles actuels (smartphones ou tablettes) est en général supérieure à 70 ms.Notre objectif est d'améliorer nos connaissances sur la latence (ses causes, ses effets) et de trouver des méthodes pour la compenser ou en diminuer les effets négatifs. Nous proposons un état de l'art des travaux en IHM sur le sujet, puis nous effectuons un rapprochement avec la littérature du contrôle moteur qui a aussi étudié le comportement humain face à des perturbations visuomotrices et en particulier l’adaptation des mouvements à un retard du retour visuel.Nous détaillons ensuite nos quatre contributions. Nos résultats contribuent de manière à la fois pratique et théorique à la résolution du problème de la latence lors de l'interaction au toucher direct. Deux contributions complètent le diagnostic de la latence : la première est une nouvelle technique de mesure de latence; la seconde est une étude de l'effet de la latence sur l'interaction bimanuelle, importante pour l'interaction sur les grandes surfaces tactiles. Nous montrons que l'interaction bimanuelle est autant touchée par la latence que l'interaction à une main, ce qui suggère que des tâches plus complexes, qui augmenterait la charge cognitive, ne réduisent pas nécessairement l'effet de la latence. Nos deux autres contributions portent sur la réduction des effets de la latence. D'une part, nous proposons un système à faible latence (25 ms) associé à une compensation prédictive logicielle, et nous mettons en évidence que ce système permet d'améliorer la performance des utilisateurs comme s'ils utilisaient un système à 9 ms de latence. D'autre part nous étudions la capacité des utilisateurs à s'adapter à la latence pour améliorer leur performance sur une tâche de suivi de cible et nous montrons que l'impact négatif de la latence se réduit sur le long terme grâce aux capacités d'adaptation humaine. / Latency, the delay between a user input on a system and the corresponding response from the system, is a major issue for the usability of interactive systems. In direct-touch interaction, latency is particularly perceivable and alters user performance even at levels in the order of ten milliseconds. Yet, current touch devices such as smartphones or tablet-pc exhibit in general latencies over 70 ms.Our goal is to improve the knowledge on latency (its causes, its effects) and to find strategies to compensate it or to decrease its negative effects. We present a review of the HCI literature on the topic, then we link this literature with the motor control research field that has studied human behaviour when facing visuomotor perturbations, and in particular the adaptation to feedback delay.We then present our four contributions. We contribute both in a practical and a theoretical manner to the problem of latency in direct-touch interaction. Two of our contributions supplement the diagnosis of latency: the first one is a new latency measurement technique; the second one is a study of the impact of latency on bimanual interaction, which is important when interacting on large tactile surfaces. We show that bimanual interaction is as much affected by latency as a single hand interaction, suggesting that more complex tasks, suppose to increase the cognitive load, do not necessarily reduce the effect of latency. Our two other contributions address the reduction of the effects of latency. On one hand, we introduce a low latency system (25 ms) associated with a predictive software compensation, and we show that the system enables users to improve their performances as if they were using a system with 9 ms of latency. On the other hand we study users' ability to adapt to latency in order to improve their performance on a tracking task, and we show that the negative impact of latency is reduced with long-term training thanks to human adaptability.
|
6 |
Guidage Gestuel pour des Robots Mobiles / Gestural Control for Mobile RobotsTaralle, Florent 09 November 2016 (has links)
Utiliser une interface visuo-tactile peut être une gêne lorsqu'il est nécessaire de rester mobile et conscient de son environnement. Cela s'avère particulièrement problématique en milieu hostile comme pour la commande d'un drone militaire de contact.Dans ces travaux nous faisons l'hypothèse que le geste est une modalité de commande moins contraignante puisqu'elle n'impose pas de visualiser ni de manipuler une interface physique.Ainsi, différents travaux nous ont permis de confirmer d'une part, les avantages pratiques, et d'autre part, la faisabilité technique de la commande d'un robot mobile par geste.Tout d'abord, l'étude théorique du geste a permis de construire un modèle d'interaction. Celui-ci consiste en l'activation de commandes automatiques par la réalisation de gestes sémaphoriques normalisés. Des messages sonores permettent de renseigner l'opérateur et un mécanisme de confirmation sécurise l'interaction.Ensuite, le dictionnaire des gestes à utiliser a été constitué. Pour cela, une méthodologie a été proposée et appliquée : des utilisateurs proposent puis élisent les gestes les plus pertinents.Notre modèle d'interaction et le vocabulaire gestuel ont ensuite été évalués. Une étude en laboratoire nous a permis de montrer que l'interaction gestuelle telle que proposée est simple à apprendre et utiliser et qu'elle permet de conserver une bonne conscience de l'environnement.Un système interactif complet a ensuite été développé. Son architecture a été déduite du modèle d'interaction et une brique de reconnaissance gestuelle a été mise en oeuvre. En marge des méthodes classiques, la brique proposée utilise un principe de description formelle des gestes avec une grammaire régulière.Finalement, ce système a été évalué lors de tests utilisateurs. L'évaluation par des participants militaires a confirmé notre hypothèse de la pertinence du geste pour une interaction visuellement et physiquement moins contraignante. / Using a visuo-tactil interface may be restrictive when mobility and situation awareness are required. This is particularly problematic in hostile environment as commanding a drone on a battlefield.In the work presented here, we hypothesize that gesture is a less restrictive modaility as it doesn't require to manipulate nor to look at a device.Thus we followed a user-centered approach to confirm practical advantages and technical feasibility of gestural interaction for drones.First, the theoretical study of gestures allowed us to design an interaction model. It consists on activating commands by executing standardized semaphoric gestures. Sound messages inform the user and a confirmation mechanism secure the interaction.Second, a gestural vocabulary has been built. To do so, a methodology has been proposed and used : end users elicited then elected the most appropriate gestures.Then, the interaction model and the selected gestures have been evaluated. A laboratory study showed that they are both easy to learn and use and helps situation awareness.An interactive system as then been developed. It's architecture has been deducted from our interaction model and a gesture recognizer as been buit. Different from usual methods, the recognizer we proposed is based on formal description of gestures using regular expressions.Finaly, we conducted a user testing of the proposed system. The evaluation by end-users confirmed our hypothesis that gestures are a modality less distractive both visualy and physicaly.
|
7 |
Conception de vues métiers dans les collecticiels orientés service. Vers des multi-vues adaptées pour la simulation collaborative 4D/nD de la construction / Business views design in service-oriented information systems. Towards adapted multiviews for collaborative 4D/nD construction simulationBoton, Conrad 20 March 2013 (has links)
La planification est essentielle pour la réussite des projets d'Architecture, Ingénierie et Construction (AIC). La simulation 4D de la construction est une approche innovante qui associe un modèle 3D de l'ouvrage au planning des activités de manière à en simuler la réalisation à travers le temps. Plusieurs travaux ont montré que la simulation 4D est particulièrement intéressante pour la comparaison de la constructibilité des ouvrages et des méthodes de travail, pour l'identification des conflits et des chevauchements, mais aussi comme un outil de collaboration pour les différents acteurs afin de discuter et planifier l'avancement du projet. La planification de la construction est une activité largement collaborative. Pourtant, l'usage collaboratif de la simulation 4D reste limité, notamment à cause du manque d'adaptation des vues manipulées. En effet, la plupart des outils 4D actuels, même s'ils proposent cette « simulation collaborative » comme argument commercial, se contentent de proposer les mêmes vues « standards » à tous les acteurs. Pourtant les méthodes de travail traditionnelles dans le secteur s'appuient sur différentes représentations visuelles que les professionnels ont l'habitude de choisir en fonction de leurs besoins particuliers. L'hypothèse de cette recherche doctorale considère que les vues proposées dans les outils de simulation collaborative 4D devraient être adaptées aux besoins de chacun des acteurs impliqués. L'objectif est de proposer une méthode de conception de vues multiples adaptées aux réels besoins métiers des participants à une simulation collaborative 4D. À cet effet, la recherche étudie les pratiques de planification dans le secteur de la construction, les théories de visualisation de l'information et de conception de vues, ainsi que le travail collaboratif assisté par ordinateur / Planning is crucial for the success of Architecture, Engineering and Construction (AEC) projects. 4D construction simulation is an innovative approach that combines a 3D model of the building with the planning of activities in order to simulate its realization over time. Several studies have shown that 4D simulations are particularly useful for comparing the constructability of structures and working methods for the identification of conflict and overlap, but also as a collaborative tool for stakeholders to discuss and plan the project progress. The construction planning is largely collaborative. However, the use of collaborative 4D simulation is still limited, mainly because of the lack of adaptation of views proposed to users. Indeed, most current 4D tools, even if they offer this ?collaborative simulation? as sales argument, simply offer the same "standard" views to all users. Yet traditional working methods in the sector rely on different visual representations that professionals usually choose according to their specific needs. The hypothesis of this doctoral research considers that the views proposed in 4D collaborative simulation tools should be adapted to the needs of each stakeholder involved. The objective is to propose a method to design 4D multiple views adapted to the real business needs of participants in a collaborative 4D simulation. Thus, the research examines planning practices in the construction sector, and theories from Information Visualization, views design, and Computer-Supported Collaborative Work fields
|
8 |
Interface homem-máquina para supervisão de um CLP em controle de processos através da WWW. / Supervision of a PLC in control of a process through Web-oriented man-machine interface.Pupo, Maurício Santos 10 April 2002 (has links)
O Controlador Lógico Programável foi criado na década de 70 para automatizar o acionamento seqüencial de relés em linhas de manufatura, controle e automação de processos do tipo liga/desliga. Eram então equipamentos isolados e dedicados a uma tarefa específica. Os CLPs evoluíram e hoje incorporam recursos de controle analógico em processos contínuos, estão integrados aos outros equipamentos da fábrica na hierarquia de controle e podem ser facilmente re-configurados através de programação remota em redes industriais proprietárias. O surgimento da Internet e de redes corporativas semelhantes (Intranet) tornou possível o acesso remoto aos equipamentos de controle dos processos usando uma arquitetura aberta. Neste contexto, a Web, com sua interface gráfica intuitiva e universal, é muito indicada para a supervisão remota de processos de chão-de-fábrica. Como equipamentos importantes em automação industrial, os CLPs seguem essa tendência adquirindo acessibilidade pela Web. Esse trabalho tem por objetivo o desenvolvimento de uma IHM (Interface Homem-Máquina) de supervisão de um CLP implementado em software (SoftPLC) em controle de um processo simulado através de uma interface WWW. A proposta servirá também como incentivo a projetos futuros para implementação de uma interface de configuração com CLP real. / The Programmable Logical Controller was introduced in the 70's to replace the relay logic in manufacturing lines and in on/off control. They were devices isolated and dedicated to one specific task. The PLC's evolution introduced analog control capabilities for continuous processes and integrated them with other devices in the factory's control hierarchy, which can be remotely reconfigured through proprietary industrial networks. The appearance of the Internet and similar corporate networks (Intranets) made it possible to remotely access control devices through an open architecture. The browser and its intuitive graphical interface is a natural appeal to the remote supervision of processes in the plant. As important industrial automation equipment, the PLC follow this trend and acquire web accessibility. The objective of this work is the development of a supervising MMI (Man-Machine Interface) using the Web for a SoftPLC in control of a simulated process . It will also be an incentive to the future development of a dedicated configuration module for a real PLC.
|
9 |
Intégration de l’interaction au regard dans des systèmes optroniques : évaluation de l’influence du contexte / Integration of eye-gaze based interaction in optronic systems : evaluating the contextGrosse, Romain 09 April 2018 (has links)
Les nouvelles versions de produits optroniques de Safran Electronic & Defense comme les jumelles multifonctions ou les lunettes de visée disposent de plus en plus de fonctionnalités, ce qui rend nécessaire une amélioration des dispositifs d’interaction mis à disposition des utilisateurs. L’intégration du regard comme modalité d’interaction semble notamment intéressante en raison de son caractère rapide, naturel et disponible. Si pour des utilisateurs handicapés, l'interaction au regard est déjà bien développée, elle n'est pas encore une technologie mature pour des personnes valides. Lors d'interactions actives au regard, expressions explicites de l'intention d'agir d'un utilisateur, un problème appelé Midas Touch apparait : il s'agit de l'incapacité pour un utilisateur de dissocier les phases d'analyse et les phases d'action, parce que l’œil est avant tout un organe senseur. Plusieurs modalités d'interaction au regard cherchent à outrepasser ce problème : on peut par exemple utiliser un temps de fixation minimum sur un item pour l'activer (DwellTime) ou un temps de fixation minimum sur un item spécifique disposé à côté de l'item d'intérêt (DwellTime délocalisé) ou encore associer une autre modalité d'interaction pour spécifier l'intention d'activation (multimodalité oeil-bouton). Chacune de ces modalités dispose d'avantages et d'inconvénients spécifiques, et déterminer la modalité d'interaction la plus adaptée n'est pas une question triviale. C'est d'autant plus difficile que les performances des modalités semblent dépendre de facteurs extérieurs variables, c'est-à-dire du contexte d'utilisation de la modalité. Afin de mieux intégrer le suivi du regard dans des systèmes et de choisir quelle modalité utiliser, il est nécessaire de bien comprendre quels sont les éléments du contexte de l'interaction et comment ils agissent sur les modalités. Le but de cette thèse est de modéliser le contexte de la modalité d'interaction, c'est-à-dire de déterminer l'ensemble de éléments extérieurs à la modalité pouvant en influencer les performances. A partir d'un état de l'art et d'une étude de l'interaction au regard, nous proposons une séparation de ce contexte en quatre axes : l'utilisateur, la tâche, le système et l'environnement. Chacun de ces axes correspond à un ensemble de caractéristiques dont l'influence est justifiée par des travaux antérieurs ou par des raisonnements théoriques. Malgré une préférence des utilisateurs novices pour la multimodalité, en étudiant le contexte des modalités d'interaction, nous montrons qu'une interaction à base de temps de fixation est surement plus adaptée pour une intégration dans des systèmes optroniques. L'étude d'autres caractéristiques du contexte permettra d'affiner ces résultats et d'identifier la modalité d'interaction adéquate à une situation donnée. / New versions of Safran Electronics & Defense optronic products such as infrared binoculars or firearm sights are endowed with more and more functionalities. This leads to a need in the improvement of the user interface of those systems. The integration of eye-gaze bases interaction modalities seems interesting because of the speed, the naturalness and the availability of the eye. The eye-gaze based interaction is already well developed for impaired people but is not a mature technology for healthy people yet. During active eye-based interactions, which are explicit input from the user, a problem named Midas Touch arises. It consists in the in the incapacity of the system to differentiate scene analysis and voluntary user input. This is because the eye is a sensory organ over all. To overcome this problem, several interaction modalities have been designed: Dwell Time uses for example a minimum gaze dwell duration to trigger input, but the fixation area may also be located near the item to activate (relocated Dwell Time). It is also possible to associate the eye with another input modality such as a press button to indicate the intent from the user (multimodality eye-button). Each of these modalities has pros and cons and cherry-picking the most suitable to a given situation is not trivial. Moreover, the performances of the interaction modalities seem dependent from external variables, which represents the context of an interaction modality. To integrate eye-based interaction in systems and to choose which modality to use, it is necessary to identify what are the context characteristics and how they affect the modalities. Our goal is to propose an interaction modality context model,; that is to define all the external characteristics affecting the modality performances. From a state of the art of the eye-based interaction, we propose a description of the context following four axes: the user, the task, the system and the environment. Each of these axes decomposed in characteristics whose influence is justified by previous works or theoretical reasonings. Then we studied three characteristics which appeared to us as critical for the integration in optronic products, and we compared the performances of precited modalities against these characteristics. The first one is the type of menu (linear or circular). Contrary to the mouse, the tested interaction modalities present no significative differences depending on the type of menu they are used on. The second characteristic is linked to the user task. The aim is to evaluate the adequacy of interaction modalities with one’s ability to split his/her visual attention, that is, to fixate an area while being visually focused elsewhere. This skill is necessary during target following tasks. The fixation-based modalities seemed more permissive concerning this ability. The third characteristic is about peripheral visual alert detection in order to ensure that the user can be warned at all time. Fixation based modalities seemed to less reduce the visual field than others. Despite novice user preferences for the use of multimodality, we showed that fixation-based modalities may be more adequate for use in optronic systems. The further study of other characteristics of the context will allow to highlight the modality to use for each situation.
|
10 |
Approches directes et planifiées de l'interaction 3D sur terminaux mobilesDecle, Fabrice 23 September 2009 (has links) (PDF)
Les récentes évolutions technologiques des terminaux mobiles tels que les téléphones portables, assistants personnels ou GPS, ont été très importantes. Il est aujourd'hui possible d'afficher en temps réel des scènes 3D complètes sur de tels appareils.<br />Cependant, les spécificités ergonomiques et techniques des appareils mobiles risquent de rendre l'interaction avec l'environnement 3D difficile à réaliser efficacement. En particulier, les techniques d'interaction 3D développées pour les ordinateurs de bureau risquent de souffrir de l'absence de souris.<br /><br />Dans ce mémoire, nous nous intéresserons aux contraintes et aux spécificités des terminaux mobiles et étudierons leur influence pour des tâches d'interaction 3D. La première partie du mémoire constitue une introduction aux différents domaines abordés dans cette thèse. Nous y définirons le terme de ``terminal mobile'' et aborderons les spécificités technologiques et ergonomique de ces appareils. Nous introduirons également les notions essentielles de géométrie et d'interaction 3D.<br /><br />Nous nous intéresserons dans un second temps à l'interaction 3D avec un contrôle direct, utilisé dans beaucoup d'applications 3D. Dans ce mode d'interaction, les actions de l'utilisateur produisent des modifications dans l'environnement 3D en temps réel. Après une analyse de l'existant, nous présenterons nos travaux avec une technique d'inspection de modèles 3D qui utilise des informations telles que la profondeur ou la présence de contours dans l'image afin de calculer des mouvements de caméra adaptés au contexte. La suite de la deuxième partie sera consacrée à l'étude de l'apport de l'utilisation de deux doigts sur un écran tactile multi-points.<br /><br />La troisième et dernière partie de ce mémoire est consacrée à l'interaction 3D ``planifiée''. Ce mode d'interaction est plus adapté aux contraintes des terminaux mobiles et possède l'avantage d'offrir une interaction d'un plus haut niveau que ne l'offre le contrôle direct. Nous verrons dans cette partie la définition exacte de ce mode d'interaction, ainsi que les différences, les forces et les faiblesses de cette manière d'interagir avec un environnement 3D. Nous présenterons dans cette partie nos contributions, à savoir une technique de sélection de point 3D utilisable à l'aide des touches de l'appareil, ainsi qu'une technique de placement de caméra simple à utiliser mais offrant un contrôle avancé, qui permet aux utilisateurs, novices ou experts, de spécifier un point de vue à l'aide de quelques gestes simples seulement.
|
Page generated in 0.0512 seconds