• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 180
  • 67
  • 43
  • Tagged with
  • 296
  • 296
  • 125
  • 118
  • 117
  • 116
  • 63
  • 61
  • 58
  • 44
  • 42
  • 39
  • 39
  • 38
  • 37
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
141

Rôle de multiples affordances dans la prise de décision et la régulation de l'action chez le conducteur : L'exemple du franchissement d'intersection / Role of multiple affordances in the selection and the control of the driver’s action while attempting to cross an intersection

Marti, Geoffrey 28 May 2015 (has links)
La traversée d’intersection constitue une tâche typique dans laquelle plusieurs affordances coexistent, l’une traduisant les possibilités de franchir l’intersection, l’autre traduisant les possibilités d’immobiliser le véhicule afin d’éviter une collision. En nous inspirant des travaux de Gibson et Crooks (1938), nous avons formalisé les affordances Field of Safe Travel (FST) et Minimum Stopping Zone (MSZ) en termes de temps critique pour réussir le franchissement d’intersection et l’immobilisation du véhicule, respectivement. Grâce à un dispositif de réalité virtuelle et un simulateur de conduite, nous avons testé la prise en compte de ces affordances par un agent engagé dans la tâche de référence à travers trois expérimentations. Les résultats, appuyés par notre modèle de prise de décision, montrent que le conducteur intègre non seulement l’affordance FST, mais aussi l’affordance MSZ, dans sa décision de franchir l’intersection. De plus, l’utilisation conjointe de ces deux affordances rend compte des régulations de vitesses produites par un agent devant réaliser la tâche de franchissement en présence d’un véhicule préprogrammée ou soumis au contrôle d’un autre agent. Ces différents résultats montrent que les agents prennent en compte les différentes possibilités qui leur sont offertes (affordances FST et MSZ) pour faire un choix adapté et réguler leur vitesse. / Crossing an intersection is a typical task in which several affordances coexist, one offering the possibilities to safely cross the intersection (the main goal) and another offering the possibilities to stop the driving car to avoid a collision (the alternative goal). Based on Gibson and Crooks’ works (1938), we formalized the so-called Field of Safe Travel (FST) and Minimum Stopping Zone (MSZ) affordances in terms of critical time for safe crossing and for safe stopping, respectively. Using a virtual reality set-up with a driving simulator, three experiments have been designed to test the role of these two affordances on the decision-making and the regulation of action process. Our results, supported by a model of decision-making, reveal that drivers rely not only on the FST affordance, but also on the MSZ affordance, to choose to cross-or-not the intersection. Moreover, the joint use of these affordances is still observed when drivers have to control their velocity to perform the task when either a vehicle with a computed kinematic or a car driven by another agent is approaching. Put together, these results show that drivers take into account several possibilities for action offered by the environment (FST and MSZ affordances) to make a suitable choice and to control their speed when approaching an intersection.
142

Naviguer en vision prothétique simulée : apport de la vision par ordinateur pour augmenter les rendus prothétiques de basse résolution / Navigation in simulated prosthetic vision : augmenting low resolution prosthetic renderings with computer vision

Vergnieux, Victor 02 December 2015 (has links)
La cécité touche 39 millions de personnes dans le monde et génère de nombreuses difficultés dans la vie quotidienne. Plus précisément, les capacités de navigation (incluant orientation et mobilité) sont fortement diminuées, ce qui amène les personnes non-voyantes à limiter, voire à cesser leurs déplacements. Pour restaurer des sensations "visuelles", et par-delà, une certaine autonomie, il est possible de stimuler directement le système visuel résiduel d'une personne non-voyante à l'aide d'un implant administrant des micro-stimulations électriques. Le dispositif complet se compose d'une micro-caméra portée sur des lunettes et reliée à un ordinateur de poche, qui lui-même est connecté à l'implant. Lors des micro-stimulations, les sujets perçoivent des tâches grises, blanches ou jaunâtres appelées phosphènes. Ainsi la qualité de la vision restaurée est directement dépendante de la résolution et de la position de l'implant. Le nombre d'électrodes étant faible pour les implants en développement (moins d'une centaine), il est nécessaire de réduire drastiquement la résolution du flux vidéo pour la faire correspondre à la faible résolution de l'implant. Actuellement, l'Argus II de la société Second Sight est l'implant dont le développement est le plus avancé et sa résolution est de 60 électrodes, ce qui permet aux patients implantés de percevoir 60 phosphènes différents. Cette vision restaurée est donc très pauvre et un travail d'optimisation du signal est nécessaire pour pouvoir utiliser l'implant de manière fonctionnelle. Les sujets implantés sont impliqués dans des protocoles cliniques fermés ne permettant pas de les inclure dans d'autres expériences. Malgré cela, il est possible d'étudier les possibilités offertes par ces implants visuels en simulant la vision prothétique dans un casque de réalité virtuelle porté par des sujets voyants. Il s'agit du domaine de la vision prothétique simulée (VPS). La navigation n'a jamais été étudiée chez les patients implantés et très rarement en VPS. Il s'avère qu'avec des implants de très faible résolution, elle pose de grandes difficultés liées à la mobilité mais également des difficultés liées à l'orientation. Les travaux entrepris dans ce doctorat se concentrent sur l'étude de la navigation en VPS. Différentes théories en psychologie nous ont permis d'identifier les éléments importants pour les sujets afin qu'ils se repèrent et se construisent une représentation mentale fiable de l'environnement lors de la navigation. À partir de ces modèles, différents rendus prothétiques utilisant la vision par ordinateur ont été conçus et testés dans une tâche de navigation réalisée dans un environnement virtuel. Les expérimentations effectuées avaient pour objectif d'optimiser la perception et la compréhension de l'espace parcouru avec un implant de faible résolution. Ces évaluations reposaient sur la performance de temps des sujets pour effectuer la tâche de navigation et sur leur représentation mentale de l'environnement. Après la tâche de navigation, il leur était demandé de dessiner la carte des environnements explorés, afin d'évaluer ces représentations. Cette double évaluation a permis d'identifier les indices importants permettant de faciliter la perception et la mémorisation de la structure des environnements dans une tâche de navigation en VPS. Pour améliorer les performances des personnes non-voyantes implantées, il apparaît notamment nécessaire de limiter la quantité d'information présentée, tout en préservant la structure de l'environnement grâce à des algorithmes de vision par ordinateur. Lorsque l'accès à des patients implantés sera plus ouvert, il deviendra nécessaire de valider ces différents résultats en les faisant naviguer en environnement virtuel puis en environnement réel. / Blindness affects thirty nine millions people in the world and generates numerous difficulties in everyday life. Specifically, navigation abilities (which include wayfinding and mobility) are heavily diminished. This leads blind people to limit and eventually to stop walking outside. Visual neuroprosthesis are developed in order to restore such "visual" perception and help them to get some autonomy back. Those implants generate electrical micro-stimulations which are focused on the retina, the optic nerve or the visual cortex. Those stimulations elicit blurry dots called "phosphenes". Phosphenes can be mainly white, grey or yellow. The whole stimulation device contains a wearable camera, a small computer and the implant which is connected to the computer. The implant resolution and position impact directly the quality of the restored visual perception. Current implants include less than a hundred electrodes so it is mandatory to reduce the resolution of the visual stream to match the implant resolution. For instance, the already commercialized Argus II implant from the company Second Sight (Seymar, California) is the leading visual implant worldwide and uses only sixty electrodes. This means that Argus II blind owners can perceive only sixty phosphenes simultaneously. Therefore this restored vision is quite poor and signal optimization is required to get to a functional implant usage. Blind people with implants are involved in restricted clinical trials and are difficult to reach. Yet, studying those implant possibilities is at our reach by simulating prosthetic vision and displaying it in a head mounted display for sighted subjects. This is the field of simulated prosthetic vision (SPV). Navigation was never studied with people with implant, and only a few studies approached this topic in SPV. In this thesis, we focused on the study of navigation in SPV. Computer vision allowed us to select which of the scene elements to display in order to help subjects to navigate and build a spatial representation of the environment. We used psychological models of navigation to conceive and evaluate SPV renderings. Subjects had to find their way and collect elements in a navigation task in SPV inspired by video games for the blind. To evaluate their performance we used a performance index based on the completion time. To evaluate their mental representation, we asked them to draw the environment layout after the task for each rendering. This double evaluation lead us to spot which elements can and should be displayed in low resolution SPV in order to navigate. Specifically those results show that to be understandable in low vision, a scene must be simple and the structure of the environment should not be hidden. When blind people with implant will become available we will be able to confirm or deny those results by evaluating their navigation in virtual and real environments.
143

Enaction, interaction multisensorielle : théorie, technologie et expériences pour les arts numériques / Enaction, multisensory interaction : theory, technology and experiments for digital arts

Christou, Maria 16 October 2014 (has links)
Cette recherche interdisciplinaire se situe à l'intersection des sciences cognitives, de l'informatique et des arts. Nous y traitons de questions relatives à la perception et compréhension d'une expérience artistique dans le contexte des technologies numériques. Nous considérons l'ordinateur comme un outil puissant de création et nous nous posons la question du comment son rôle peut être fonctionnellement introduit dans les arts numériques. Une des clés de la réponse à cette question se situe dans la notion d'incorporation (embodiment). Il s'agit d'un aspect de la perception et de la cognition humaine que nous ne pouvons pas approcher de façon directe, car il s'agit d'un processus émergent qui se construit avec l'action. Dans cette thèse, nous avons fait émerger quatre critères pour qualifier puis tenter d'évaluer les processus d'incorporation en situation créative, soit de réception soit de réception et d'action. Ces critères sont : la cohérence des retours sensoriels proposée par le système technologique, par exemple la cohérence entre le son et l'image ou entre le son, le geste et l'image ; la nature de l'action telle que perçue ou effectuée ; la sensation d'immersion cognitive des participants ; le potentiel évocateur de la situation sensori-motrice proposée à la perception et/ou à l'action.Nous avons mis en œuvre une méthode qualitative pour l'analyse d'expériences multisensorielles et interactives. Des entretiens ouverts ont permis de récolter un corpus de données sous forme d'enregistrements audiovisuels et de textes transcrits de ces entretiens. Un des objectifs de ces entretiens est de favoriser l'expressivité du sujet sur la manière dont il a vécu la situation en amont, voire au-delà, d'un quelconque jugement esthétique. Cette méthode a été utilisée dans de deux types de situations. Dans la première situation, nous avons mené des entretiens avec des spectateurs ayant participé à un concert effectué dans le cadre des Journées d'Informatique Musicale à Grenoble. Pour cela, nous avons choisi sept pièces audiovisuelles d'auteurs différents, qui étaient soit des œuvres jouées sur scène, soit des œuvres enregistrées. Le deuxième cas comporte des entretiens réalisés avec des participants d'une œuvre interactive audio-visio-haptique intitulée « Geste réel sur matière simulée ». Cette installation a été conçue dans le cadre du projet Créativité Instrumentale pour étudier les transformations du processus de création induit par les technologies de la simulation interactive numérique. Elle se décline en trois scènes de simulation multisensorielle réalisées par modèle physique permettant l'interaction instrumentale. Les entretiens avaient lieu pendant et après l'expérience. L'analyse des discours recueillis, nous a permis de mettre en évidence la relation entre l'outil technologique et l'homme. Dans cette thèse, nous proposons un cadre théorique composé de quatre éléments : Cohérence, Immersion, Action et Evocation, à l'aide desquels nous avons analysé les discours de sujets confrontés à des situations multisensorielles numériques actives et ainsi cerner l'embodiment dans telles situations. L'usage de ces quatre éléments dans l'analyse des discours nous a permis de mettre en évidence une multitude de liaisons entre eux qui se déclinent selon les paramètres des scènes virtuelles. Différents mécanismes de compréhension de ces scènes se mettent en place selon la manière dont les sensorialités sont stimulées et nos analyses nous ont permis de qualifier comment le visuel, l'audio et l'haptique pris séparément ou réunis permettent d'appréhender des différentes dimensions de la scène dans sa complexité. / L'auteur n'a pas fourni de résumé en anglais
144

Impact de l’expérience immersive sur la prise en compte du kansei en design industriel amont / Impact of the immersive experience on kansei during the early industrial design

Rieuf, Vincent 17 July 2013 (has links)
Dans un contexte industriel en constante évolution, le designer industriel utilise la représentation comme un vecteur lui permettant de s’inspirer et d’opérer des choix stylistiques afin d’imaginer l’expérience induite par les concepts de produits qu’il développe. Ce travail doctoral présente l'étude comparative entre l'activité de design amont traditionnelle et l'activité de design amont immersive, permettant l'évaluation et la modélisation de l'activité de Kansei Design Virtuel. Mes travaux portent essentiellement sur l'application et l'expérimentation de théories fondamentales à travers la conception de deux outils consécutifs du processus de design:• Les Univers de Tendance sont des environnements inspirationnels spatiaux immersifs dédies à la compréhension d'une tendance stylistique et conçu pour substituer et augmenter le rôle des planches de tendances traditionnelles.• Le Dessin Tridimensionnel Immersif est un environnement générationnel permettant au designer de déposer, effacer, manipuler… un tracé dans l'espace et dédié aux premiers croquis d'idéation.Ces recherches ont pour but de développer des outils et un workflow digital immersif permettant d'une part, d'anticiper le Kansei (relation holistique designer/client-produit) afin d'optimiser les choix stylistiques stratégiques et d'autre part, de maximiser la fidélité de retranscription entre espace d'inspiration et espace de génération tout en augmentant la capacité du designer à produire des concepts esthétiques et innovants. / In an ever-changing context, the industrial design uses representation as a vector for inspiration and as a tool to operate stylistic choices which in turn enable the shaping of the experience induced by the designed product.This doctoral research presents the comparative study of traditional early design activity and immersive early design activity. This enables the evaluation and modeling of Virtual Kansei Design. My work essentially address the application and experimentation of fundamental theories through the design of two successive tools composing and innovative early design process.• The Immersive Moodboards are spatial immersive inspirational environments dedicated to the understanding of a stylistic trend, designed to substitute and enhance traditional moodboards.• The Immersive sketching is a generational environment enabling the design to position, erase, manipulate… a graphical mark in a three dimensional space planned for the creation of the first ideation sketches.This research aim to develop tools and a digital immersive workflow which first of all enables the design to anticipate Kansei (holistic relationship between the designer/user and the product) in order to optimize strategic style related choices and secondly enhances the fidelity between inspiration and generation while increasing the ability of the designer to produce innovating and aesthetic concepts.
145

Influence de modulations sensorielles sur la navigation et la mémoire spatiale en réalité virtuelle : Processus cognitifs impliqués / Influence of sensory modulations on virtual spatial navigation and memory : Cognitive Processes involved

Cogné, Mélanie 18 October 2017 (has links)
Se déplacer selon un but déterminé est une activité courante de la vie quotidienne. Des capacités cognitives variées sont associées aux déplacements, comme la navigation, la mémoire ou encore l’orientation spatiale. De nombreux patients cérébro-lésés ou atteints par une maladie neuro-dégénérative présentent des difficultés topographiques qui retentissent sur leur autonomie en vie quotidienne. Les outils de réalité virtuelle permettent d’évaluer la navigation et la mémoire spatiale à grande échelle, avec une bonne corrélation entre cette évaluation et celle qui serait réalisée dans un environnement réel. La réalité virtuelle permet également d’ajouter des stimuli à la tâche proposée. Ces stimuli additionnels peuvent être contextuels, c’est à dire reliés à la tâche à réaliser dans l’environnement virtuel, ou noncontextuels, soit sans lien avec la tâche à accomplir. Ce travail de thèse s’est attaché à évaluer l’impact de stimuli auditifs et visuels sur la navigation et la mémoire spatiale de patients cérébro-lésés ou présentant une maladie neuro-dégénérative, dans des expériences de réalité virtuelle. Les deux premiers volets de cette thèse ont étudié l’effet de stimuli auditifs contextuels ou non-contextuels lors d’une tâche de courses au sein du supermarché virtuel VAP-S. Le premier volet a montré que des stimuli auditifs contextuels de type effet sonar et énoncé du nom du produit facilitaient la navigation spatiale de patients cérébro-lésés impliqués dans cette tâche de courses. Le second volet a mis en évidence que des sons non-contextuels avec une importante saillance cognitive ou perceptuelle péjoraient la performance de navigation de patients ayant présenté un accident vasculaire cérébral. Les deux volets suivants de cette thèse ont étudié l’effet d’indiçages visuels ou auditifs dans une tâche de navigation spatialedans un quartier virtuel. Ainsi, le troisième volet de la thèse a démontré que des indices visuels comme des flèches directionnelles ou des points de repère sursignifiés facilitaient la navigation spatiale et certains aspects de mémoire spatiale de patients avec des troubles cognitifs légers (MCI) ou présentant une Maladie d’Alzheimer. Enfin, le quatrième volet a mis en évidence qu’un indiçage auditif par des bips indiquant la direction à chaque intersection améliorait la navigation spatiale de patients cérébro-lésés droits présentant une héminégligence visuelle et auditive controlatérale. Ces résultats suggèrent que des stimuli auditifs et visuels pourraient être utilisés lors de prises en charge rééducatives et réadaptatives de patients présentant des difficultés topographiques, ainsi qu’en vie quotidienne par le biais de la réalité augmentée afin de faciliter leurs déplacements. L’impact des stimuli chez les sujets sains et chez les cérébrolésés est différent et justifie une analyse spécifique de processus probablement distincts impliqués lors des déficits cognitifs. / Navigating in a familiar or unfamiliar environment is a frequent challenge for human beings. Many patients with brain injury suffer from topographical difficulties, which influences their autonomy in daily life. Virtual Reality Tools enable the evaluation of largescale spatial navigation and spatial memory, resembling a real environment. Virtual reality also permits to add stimuli to the software. These stimuli can be contextual, that is to say linked to the task that participants have to accomplish in the Virtual Environment, or non-contextual, i.e. with no link with the require task. This thesis investigates whether visual or auditory stimuli influence spatial navigation and memory in Virtual Environments of patients with brain injury or with a neurodegenerative disease. The first part of the thesis showed contextual auditory stimuli type a sonar effect and the names of products of the shopping list improved spatial navigation of brain-injured patients during a shopping task in the virtual supermarket VAP-S. The second part of this thesis highlighted that non-contextual auditory stimuli with a high perceptual or cognitive salience decreased spatial navigation performance of brain-injured patients during a shopping task in the VAP-S. The third part of this thesis showed that visual cues like directional arrows and salient landmarks improved spatial navigation and some aspects of spatial memory of patients with Alzheimer’s disease or Mild Cognitive Impairments during a navigation task in a virtual district. The last part of this thesis demonstrated that auditory cues, i.e. beeping sounds indicating the directions, increased spatial navigation in a virtual district of patients who have had a stroke with contra-lesional visual and auditory neglect. These results suggest that some visual and auditory stimuli could be helpful for spatial navigation and memory tasks in patients with brain injury of neuro-degenerative disease. It further offers new research avenues for neuro-rehabilitation, such as the use of augmented reality in real-life settings to support the navigational capabilities of these patients.
146

Une évolution permanente : nouveaux essais artistiques et nouveaux médias - Études de Mons 2015 et du Festival d’Art Numérique de Taipei / A permanent evolution : new artistic trials and new media - Studies of Mons 2015 and Taipei Digital Art Festival

Chiu, Hsiao-Chen 21 October 2016 (has links)
Cette thèse est une méditation sur l’art numérique et la perception, qui espère offrir un regard approfondi sur ces sujets. L’évolution technologique, comme le feu de Prométhée, apporte la lumière, et change le mode de vie humain, mais aussi les critères de l’art, en plus de nous introduire dans un monde inimaginable d’hyper-sensations. Science et technologie se déploient dans tous les domaines de la vie, le développement de l’interaction homme-machine nous inonde de dispositifs numériques et multimédia au quotidien, et nous rend familiers des mondes virtuels. Cette recherche explore les interactions entre l’art numérique et ses environnements de création et d’exposition.Deux études de terrain sont ici mises en relation : Le Festival d’Art Numérique de Taipei et Mons 2015, et soulignent un rapport art-science-société comme problématique. D’un point de vue sociologique, l’art numérique représente un microcosme de la société virtuelle et un macrocosme du monde réel, par la création d’une communauté virtuelle invisible.La science technologique incarne l’esprit humain et l’espace-temps, car la relation entre l’homme et la technologie marque la société contemporaine, où le scientifique et l’artiste peuvent créer des mondes imaginaires tout en traversant les oppositions dichotomiques entre la réalité et la virtualité. Ce travail de thèse permet ainsi d’explorer des entrecroisement entre le spectateur et l’œuvre, entre les mondes intelligible et sensible, réel et virtuel, visible et invisible. / This research is a meditation between digital art and perception of real-life, which hopes to offer a comprehensive look on these issues. Technology developments, such as the fire of Prometheus, not only bring the lights and changes in nature’s way into our daily life, but also the Principles and criteria of art. In addition, the new media bring us into unimaginable and hyper-sensations world. Science and technology are deployed and infiltrated in all area, the development of man-machine interaction flooded with digital devices and media every day, and make us rely on virtual worlds unconsciously. This research explores the interactions between digital art, digital art creation and exhibition environments.Two case studies are made here is related to: The Taipei Digital Art Festival and Mons 2015, and highlight a report art-science-society as problematic definition. From sociological point of view, digital art represents a microcosm of the virtual society and a macrocosm of the real world, by creating an invisible virtual community.Technological science embodies the human spirit and the space-time, because the relationship between man and technology marks contemporary society, where the scientist and the artist can create imaginary worlds while crossing dichotomous oppositions between reality and virtuality. This work allows us to explore the intersection between the viewer and the work, between intelligible and sensible worlds, real and virtual, visible and invisible.
147

Design of a radio direction finder for search and rescue operations : estimation, sonification, and virtual prototyping / Navigation guidée par sonification des signaux GSM dans un contexte de secours

Poirier-Quinot, David 18 May 2015 (has links)
Cette thèse étudie le design et la conception d’un Goniomètre Radio Fréquence (GRF) visant à assister les services de secours à la personne (e.g. équipes de sauvetage déblaiement), exploitant les téléphones des victimes à retrouver comme des balises de détresse radio. La conception est focalisée sur une interface audio, utilisant le son pour guider progressivement les sauveteurs vers la victime. L’ambition de la thèse est d’exploiter les mécanismes naturels propres à l’audition humaine pour améliorer les performances générales du processus de recherche plutôt que de développer de nouvelles techniques d’Estimation de Direction de Source (EDS).Les techniques d’EDS classiques sont tout d’abord exposées, ainsi qu’une série d’outils permettant d’en évaluer les performances. Basée sur ces outils, une étude de cas est proposée visant à évaluer les performances attendues d’un GRF portable, adapté aux conditions d’emploi nominales envisagées. Il est montré que les performances des techniques dites « à haute résolution » généralement utilisées pour l’EDS sont sérieusement amoindries lorsqu’une contrainte de taille/poids maximum est imposée sur le réseau d’antennes associé au GRF, particulièrement en présence de multi-trajets de propagation entre le téléphone ciblé et le tableau d’antenne.Par la suite, une étude bibliographique concernant la sonification par encodage de paramètres (Parameter Mapping Sonification) est proposée. Plusieurs paradigmes de sonification sont considérés et évalués en rapport à leur capacité à transmettre une information issue de différents designs de GRF envisagés. Des tests d’écoute sont menés, suggérant qu’après une courte phase d’entrainement les sujets sont capables d’analyser plusieurs flux audio en parallèle ainsi que d’interpréter des informations de haut niveau encodées dans des flux sonores complexes. Lesdits tests ont permis de souligner le besoin d’une sonification du GRF basée sur une hiérarchie perceptive de l’information présentée, permettant aux débutants de focaliser leur attention sans efforts et uniquement sur les données les plus importantes. Une attention particulière est portée à l’ergonomie de l’interface sonore et à son impact sur l’acceptation et la confiance de l’opérateur vis-à-vis du GRF (e.g. en ce qui concerne la perception du bruit de mesure pendant l’utilisation du GRF pendant la navigation).Finalement, un prototype virtuel est proposé, simulant une navigation basée sur le GRF dans un environnement virtuel pour en évaluer les performances (e.g. paradigmes de sonification proposés plus haut). En parallèle, un prototype physique est assemblé afin d’évaluer la validité écologique du prototype virtuel. Le prototype physique est basé sur une architecture radio logicielle, permettant d’accélérer les phases de développement entre les différentes versions du design de GRF étudiées. L’ensemble des études engageant les prototypes virtuels et physiques sont menées en collaboration avec des professionnels des opérations de recherche à la personne. Les performances des designs de GRF proposés sont par la suite comparées à celles des solutions de recherche existantes (géo-stéréophone, équipes cynotechniques, etc.).Il est montré que, dans le contexte envisagé, un simple GRF basé sur la sonification en parallèle des signaux provenant de plusieurs antennes directionnelles peut offrir des performances de navigations comparables à celles résultantes de designs plus complexes basés sur des méthodes à haute résolution. Puisque l’objectif de la tâche est de progressivement localiser une cible, la pierre angulaire du système semble être la robustesse et la consistance de ses estimations plutôt que sa précision ponctuelle. Impliquer l’utilisateur dans le processus d’estimation permet d’éviter des situations critiques où ledit utilisateur se sentirait impuissant face à un système autonome (boîte noire) produisant des informations qui lui semblent incohérentes. / This research investigates the design of a radio Direction Finder (DF) for rescue operation using victims' cellphone as localization beacons. The conception is focused on an audio interface, using sound to progressively guide rescuers towards their target. The thesis' ambition is to exploit the natural mechanisms of human hearing to improve the global performance of the search process rather than to develop new Direction-Of-Arrival (DOA) estimation techniques.Classical DOA estimation techniques are introduced along with a range of tools to assess their efficiency. Based on these tools, a case study is proposed regarding the performance that might be expected from a lightweight DF design tailored to portable operation. It is shown that the performance of high-resolution techniques usually implemented for DOA estimation are seriously impacted by any size-constraint applied on the DF, particularly in multi-path propagation conditions.Subsequently, a review of interactive parameter mapping sonification is proposed. Various sonification paradigms are designed and assessed regarding their capacity to convey information related to different levels of DF outputs. Listening tests are conducted suggesting that trained subjects are capable of monitoring multiple audio streams and gather information from complex sounds. Said tests also indicate the need for a DF sonification that perceptively orders the presented information, for beginners to be able to effortlessly focus on the most important data only. Careful attention is given to sound aesthetic and how it impacts operators' acceptance and trust in the DF, particularly regarding the perception of measurement noise during the navigation.Finally, a virtual prototype is implemented that recreates DF-based navigation in a virtual environment to evaluate the proposed sonification mappings. In the meantime, a physical prototype is developed to assess the ecological validity of the virtual evaluations. Said prototype exploits a software defined radio architecture for rapid iteration through design implementations. The overall performance evaluation study is conducted in consultation with rescue services representatives and compared with their current search solutions.It is shown that, in this context, simple DF designs based on the parallel sonification of the output signal of several antennas may produce navigation performance comparable to these of more complex designs based on high-resolution methods. As the task objective is to progressively localize a target, the system's cornerstone appears to be the robustness and consistency of its estimations rather than its punctual accuracy. Involving operators in the estimation allows avoiding critical situations where one feels helpless when faced with an autonomous system producing non-sensical estimations. Virtual prototyping proved to be a sensible and efficient method to support this study, allowing for fast iterations through sonifications and DF designs implementations.
148

Cinematic discourse for interactive 3D storytelling / Propriétés du discours de la caméra virtuelle

Wu, Hui-Yin 07 October 2016 (has links)
Cette thèse porte sur les propriétés du discours de la caméra virtuelle autour de trois axes: le temps, l'histoire, et la présentation visuelle. Nous nous répondrons principalement à la question sur la façon d'analyser, d'exploiter des données, et de générer automatiquement des arrangements temporels de l'histoire et des contenus visuels. Nos techniques proposées peuvent être appliquées aux problèmes de planification automatique de la caméra dans des environnements 3D, et ouvrent des perspectives pour l'analyse cognitive du cinéma et de la narration visuelle. / This thesis concerns the discourse properties of cinematographic storytelling around three axes: time, story, and visual presentation. We address the question of how to analyse and gain knowledge from data, and automatically generate temporal arrangements of story and their visual content. We work with actual film data to understand the good practices of visual storytelling. The techniques in this thesis target applications to automatic camera planning problems in 3D environments, and also open perspectives for cognitive analysis of film and visual storytelling.
149

Développement de méthodes et outils basés sur la réalité augmentée et virtuelle pour l'assistance ou l'apprentissage d'opérations dans un contexte industriel / Development of methods and tools based on augmented and virtual reality for the assistance and learning of operations in an industrial environment

Havard, Vincent 09 February 2018 (has links)
L’adoption du numérique au sein des industries et les évolutions des technologies ouvrent de nouvelles perspectives d’usages de la réalité augmentée (RA) et de la réalité virtuelle (RV). Ainsi, ces technologies peuvent faciliter l’assistance des opérateurs travaillant sur des systèmes industriels complexes en utilisant la RA et permettre la mise en œuvre de formations en RV, améliorant donc leur efficience. Cependant, intégrer ces nouveaux outils aux processus existants de l’entreprise reste complexe, de par les aspects technologiques et le continuum de données à mettre en œuvre, de par l’identification des cas d’usages et des gains associés et de par la diversité d’acteurs et d’experts métiers à impliquer dans ce processus : l’expert du système industriel, l’opérateur, le concepteur et le développeur informatique.Afin d’aborder ces différentes problématiques industrielles et en se basant sur un état de l’art scientifique et technologique, nos travaux de recherche ont porté sur la proposition d’un modèle de données permettant de faciliter la création de contenu en réalité augmentée pour les opérations sur des systèmes industriels. Ces travaux ont également permis de mettre en place un environnement expérimental basé sur une chaîne de production didactique et une application créée grâce à ce modèle.Dans une seconde partie de ce travail, afin d’évaluer l’efficacité de cette technologie, nous avons mis en place une méthode permettant d’évaluer l’usage de la réalité augmentée pour la maintenance de systèmes industriels complexes selon des critères de performances et de satisfactions. L’analyse de deux études de cas montre que la contextualisation de l’information en réalité augmentée permet à l’opérateur de comprendre plus rapidement l’opération à effectuer qu’avec guide papier tout en réduisant certains types d’erreur. De plus, nous proposons des recommandations pour améliorer la pertinence de l’information fournie en réalité augmentée et identifions le type d’opération permettant d’obtenir un gain significatif, grâce à la réalité augmentée. Ces travaux s’intéressent également à l’influence et à la sélection des dispositifs de rendus.Enfin, en nous basant sur le modèle de données de RA, nous proposons une ontologie permettant d’unifier la création de contenu en réalité augmentée et virtuelle afin de former et guider un opérateur dans ses tâches. Nous étudions l’usage de cette ontologie pour exploiter d’autres données et connaissances de l’entreprise telles que celles liées à la maintenance. Cette ontologie est utilisée pour des scénarios de formation dans des environnements industriels et pour l’assistance sur des opérations. / The adoption of digital technologies within industries and the evolution of technologies are opening new perspectives for using augmented reality (AR) and virtual reality (VR). Therefore, those technologies can facilitate the operators’ tasks working on complex industrial systems, either by bringing them some contextualised information in AR or by helping them with VR trainings. Thus they would improve their efficiency. However, integrating these new tools into existing processes of the company remains complex, due to the technologies and the data continuum needed, through the identification of use cases and the associated gains and by the diversity of actors and business experts involved in this process: the expert of the industrial system, the operator, the designer and the computer scientist.In order to develop those different industrial problematics, we first study the state of the art of scientific publications and existing technologies. Then, our research work has proposed a data modelling facilitating content authoring of augmented reality operations on industrial system. This work has also allowed to set up an experimental environment based on an educational production line and an augmented reality application developed thanks to that model.In a second part of this work, and in order to evaluate the efficiency of this technology, we have proposed a methodology allowing to evaluate augmented reality usage for maintenance, repair and operations on industrial systems according to performance, satisfaction and behavioural criteria. We analyse two case studies. They shows that contextualisation of information with augmented reality allows the operator to faster understand the task he needs to carry out than with paper instructions while reducing some kind of errors. Moreover we are proposing some guidelines in order to improve the augmented reality information efficiency. Besides, we are identifying which types of operation are improved with augmented reality. The work is also describing the rendering device influence on the use of augmented reality.Finally, and based on the augmented reality modelling, we are proposing an ontology allowing to unify content authoring of augmented and virtual reality so as to train or guide operator in their tasks. We are studying the use of this ontology for exploiting others data and company knowledge, as maintenance. This ontology is used for training scenarios in industrial environment and for guiding operator during their work.
150

Sélection de cibles en mouvement : contexte, modèles, et paradigmes d'aide à la sélection / Selection of moving targets : context, models, and paradigms for assisted selection

Kouyoumdjian, Alexandre 10 December 2018 (has links)
La sélection de cibles en mouvement a été peu abordée dans la littérature scientifique, car les facteurs qui caractérisent ce mouvement sont nombreux. Si certains modèles tels que la loi de Fitts permettent d’estimer le temps de sélection de cibles statiques, ils en sont incapables pour des cibles mobiles, et l’influence de la nature des mouvements d’une cible sur les performances de sélection reste à déterminer. Nous proposons un état de l’art des techniques de sélection de cibles, dont nous avançons une proposition de taxinomie, ainsi qu’une classification des cibles mobiles et de leurs environnements. Nous avons proposé un modèle de description et de génération de mouvement, et l’avons exploité pour extraire les paramètres de mouvement essentiels de cibles mobiles, afin d’estimer la difficulté de les sélectionner. Ce modèle (VFA) comprend la vitesse(V), la période entre chaque changement de direction et la fréquence (F) correspondante, ainsi que l’amplitude angulaire maximale (A) de ces changements de direction. Le modèle VFA nous a permis de mesurer l’influence de ces paramètres sur les performances de sélection, les impressions subjectives des utilisateurs, et leurs stratégies d’anticipation. Ces résultats ont conduit à rechercher des critères dépendant des paramètres VFA, comme l’aire de l’enveloppe convexe de la trajectoire de la cible sur une période donnée, permettant de prédire les performances de sélection. Nous observons que la distance du modèle de Fitts n’a que peu d’influence sur les performances de sélection de cibles mobiles vives et imprévisibles, et validons notre prédiction des performances de sélection en montrant qu’il est possible de les améliorer en ajustant les tailles des cibles selon la difficulté prédite, ou d’utiliser celle-ci pour biaiser l’heuristique d’une technique de prédiction de l’intention. Nous étudions également l’apport d’une assistance pseudo-haptique ajoutée à une technique de prédiction de l’intention, et observons qu’il dépend du compromis vitesse-précision choisi par l’utilisateur. Nous montrons enfin qu’une technique fondée sur l’ élimination manuelle des distracteurs en parallèle de la prédiction de l’intention permet d’obtenir d’excellentes performances de sélection avec un effort physique très réduit. Ces résultats conduisent à la proposition de recommandations pour la conception de nouvelles techniques de sélection plus adaptées aux cibles mobiles. / The selection of moving targets has received little attention in the literature, as the factors that influence motion are numerous and complex. Though models such as Fitts’ Law can estimate selection time for static targets, they fail to do so for moving ones, and the influence of a target’s movements on its associated selection performance remains to be determined. Here we propose a state of the art of moving target selection techniques, a taxonomy thereof, as well as a classification of moving targets and their environments. We propose a model for the description and generation of movement, a use it to extract essential motion parameters from moving targets, in order to estimate their selection difficulty. This model (SFA) includes speed (S), the period between each change in direction and its associated frequency (F), as well as the maximum angular amplitude of these changes (A).Thanks to the SFA model, we measured the influence of these parameters on selection performance, the subjective impressions of users, and their anticipation strategies. These results led us to look for SFA dependent criteria, such as the area of the target’s trajectory’s convex hull over a given period of time, which can predict selection performance. We note that Fitts’s distance has little influence on selection performance for quick, unpredictable moving targets, and validate our estimate of selection performance by showing that this estimate can be used to improve selection performance by adjusting the size of targets accordingly, or by using it to bias an intention prediction heuristic. We also assess the benefits of pseudo-haptic assistance coupled with intention prediction, and show that it depends on the speed accuracy trade-off chosen by a given user. We finally show that a technique based on the manual elimination of distractors running concurrently with intention prediction allows for excellent selection performance, and drastically reduced physical effort. We conclude by offering advice on the design of new selection techniques that would be better suited to moving targets.

Page generated in 0.0578 seconds