• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 215
  • 77
  • 45
  • Tagged with
  • 346
  • 346
  • 153
  • 152
  • 126
  • 119
  • 67
  • 63
  • 62
  • 46
  • 45
  • 41
  • 40
  • 39
  • 38
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Apport des modalités vibratoires pour la navigation en environnement virtuel / Contribution of vibrational modalities for navigation in virtual environments

Plouzeau, Jérémy 02 December 2016 (has links)
La navigation en environnement virtuel est susceptible d’induire le mal du simulateur selon les conditions et le profil des utilisateurs. Le caractère potentiellement multimodal de la réalité virtuelle est susceptible d’apporter des solutions à ces problèmes tout en améliorant le sentiment de présence. Dans ce contexte, l’objectif de ce travail de recherche est de déterminer quel est l’impact sur la simulation de l’apport des modalités vibratoires pour l’aide à la navigation dans un environnement virtuel.Pour cela une taxonomie des méthodes de navigation est proposée. Il en résulte 4 types, concrète égo-centrée, concrète exo-centrée, abstraite égo-centrée et abstraite exo-centrée. Dans un premier temps, des vibrations utilisées pour simuler des bandes rugueuses lors d’une simulation de conduite sont étudiées. L’expérimentation permet de conclure que ces vibrations rendent le conducteur plus attentif à l’environnement et donc sa conduite plus sûre. Par la suite nous avons développé les 3 modalités vibratoires suivantes, vibrations proprioceptives, vibrations synchronisées sur le pas et vibrations continues. L’évaluation de ces vibrations combinées avec différents types de méthode de navigation ont permis de montrer que les vibrations permettent de diminuer le mal du simulateur et d’augmenter le sentiment de présence. Ces travaux ont mis en évidence l’importance du choix de la modalité vibratoire à utiliser suivant l’effet souhaité en fonction de la méthode de navigation utilisée dans la simulation. Enfin, deux langages vibratoires ont été développés et évalués, le « Pushing Pattern » et le « Compass Pattern ». L’évaluation de ces langages a montré que le « Compass Pattern » était plus performant pour guider l’utilisateur dans un environnement virtuel. / The virtual environment navigation may induces the simulator sickness depending on conditions and user’s profile. The potential virtual reality multimodality may provide solutions to these problems while improving the sense of presence. In this context, the objective of this research is to determine what is the impact of vibrational modalities for navigation in virtual environments on the simulation.A taxonomy of navigation methods is proposed. It results in 4 types, specific egocentric, specific exocentric, abstract egocentric and abstract exocentric. First we simulate rumble strip vibrations during a driving simulation. The experimentation exposed that these vibrations make driver more aware about the environment and his driving safer. We also develop 3 vibratory modalities, proprioceptive vibrations, footstep vibrations and continuous vibrations. Experimentations show that vibrations help to reduce simulator sickness and to increase the sense of presence depending on the used navigation method in the simulation. Last we develop and evaluate 2 vibration languages for guidance, Pushing pattern and Compas pattern. The evaluation exposes that Compass pattern is better in guiding the user.
102

Planification interactive de mouvement avec contact

Blin, Nassime 12 December 2017 (has links) (PDF)
La conception de nouveaux produits industriels nécessite le développement de prototypes avant leur déploiement grand public. Afin d'accélérer cette phase et de réduire les coûts qui en découlent, une solution intéressante consiste a utiliser des prototypes virtuels le plus longtemps possible en particulier dans la phase de conception. Certaines des étapes de la conception consistent à effectuer des opérations d'assemblage ou de désassemblage. Ces opérations peuvent être effectuées manuellement ou automatiquement à l'aide d'un algorithme de planification de mouvement. La planification de mouvement est une méthode permettant à un ordinateur de simuler le déplacement d'un objet d'un point de départ à un point d'arrivée tout en évitant les obstacles. Le travail de recherche de cette thèse apporte des solutions pour l'interaction entre un humain et un algorithme de planification de mouvement pendant l'exploration de l'espace libre. Le temps de recherche est partagé entre l'humain et la machine selon un paramètre de partage d'autorité permettant de déterminer le pourcentage d'allocation du temps à l'une ou l'autre entité. L'utilisation de ces deux entités en même temps permet d'accélérer grandement la vitesse d'exploration par rapport à la vitesse d'un humain seul ou d'un algorithme seul. Ces travaux apportent ensuite une nouvelle méthode de planification de mouvement avec contact permettant de générer des trajectoires à la surface des obstacles au lieu de les générer uniquement dans l'espace libre. La planification au contact permet d'effectuer des opérations spécifiques telles que le glissement ou l'insertion utiles pour la résolution de problèmes de planification dans des environnements encombrés. Enfin, détecter les intentions d'un utilisateur lorsqu'il interagit avec une m achine permet de lui fournir des ordres efficacement et intuitivement. Dans le cadre de la planification interactive au contact, un algorithme de détection d'intention est proposé. Ce dernier s'appuie sur l'utilisation d'un robot haptique permettant à un opérateur de ressentir les obstacles virtuels lors de la manipulation d'un objet virtuel dans un environnement de réalité virtuelle. L'algorithme interactif s'adapte en temps réel aux actions de l'opérateur pour une exploration pertinente de la surface des obstacles. Ces travaux ont été menés en partie au laboratoire toulousain LAAS au sein de l'équipe Gepetto et en partie dans le laboratoire LGP de l'ENIT au sein de l'équipe DIDS. Nous remercions la région Midi-Pyrénées pour avoir financé ces recherches.
103

Aide à la sélection de cibles pour des environnements de réalité virtuelle / Assistance tools for target selection in virtual reality environments

Wonner, Jonathan 16 December 2013 (has links)
La sélection d'entités est une des tâches courantes et fondamentales de l'interaction. En environnement de réalité virtuelle, cette tâche s'effectue dans les trois dimensions, mais s'accompagne de difficultés inhérentes à ces environnements, comme une mauvaise perception de la profondeur. Des techniques existent pour pallier ces obstacles. Nous présentons trois nouvelles méthodes améliorant les performances de l'utilisateur durant les différentes étapes du processus de sélection. Le principe du Ring Concept permet de localiser des objets non visibles dans la scène. La technique Starfish guide le mouvement de l'utilisateur vers sa cible. Enfin, l'algorithme SPEED prédit le point d'arrivée d'un mouvement de sélection. / Selection is one of the most current and fundamental interaction tasks. In a virtual reality environment, this task is performed in the three dimensions, but is accompanied by difficulties inherent in these environments, such as poor depth perception. Several techniques exist to overcome these obstacles. We present three new methods for improving the performance of the user during the various phases of the selection process. The Ring Concept principle can locate non-visible objects in the scene. The Starfish technique guides the movement of the user to the target. Finally, the SPEED algorithm predicts the endpoint of a selection movement.
104

Awareness Model for Asymmetric Remote Collaboration in Mixed Reality / Modèle de conscience situationnelle pour la collaboration distante asymétrique en réalité mixte

Le Chenechal, Morgan 21 July 2016 (has links)
Etre capable de collaborer à distance avec d'autres personnes peut fournir de précieuses capacités pour effectuer des tâches qui ont besoin de plusieurs utilisateurs pour être accomplies. De plus, les technologies de Réalité Mixte (RM) sont des outils intéressants pour développer de nouveaux types d'applications offrant des interactions et des possibilités de perception plus naturelles comparées aux systèmes classiques. Dans cette thèse, nous proposons d'améliorer la collaboration distante en utilisant ces technologies de RM qui profitent de nos capacités naturelles à effectuer des tâches en environnements 3D. En particulier, nous nous concentrons sur les aspects asymétriques impliqués par ce type de collaboration : les rôles, le point de vue (PdV), les dispositifs et le niveau de virtualité de l'application de RM. Premièrement, nous nous intéressons aux problèmes d'awareness et nous proposons un modèle générique capable de décrire précisément une application de RM collaborative en prenant en compte les potentielles dimensions asymétriques. Afin de traiter toutes ces dimensions, nous séparons notre modèle final en deux niveaux qui distingue espaces réels et virtuels pour chaque utilisateur. Dans ce modèle, chaque utilisateur peut générer différents types d'entrées et recevoir des retours de significations différentes dans le but de maintenir leur propre awareness de l'Environnement Virtuel (EV) partagé. Puis, nous présentons une étude utilisateur exploratoire qui s'intéresse aux conséquences de l'asymétrie des PdVs et aux implications induites par la représentation des utilisateurs sur le niveau d'awareness des autres collaborateurs. Deuxièmement, nous appliquons ces observations dans un contexte de guidage à distance qui implique un guide distant aidant un opérateur à réaliser une tâche de maintenance. Pour ce cas d'usage, nous proposons à l'expert d'utiliser une interface de Réalité Virtuelle (AV) pour aider l'opérateur au travers d'une interface de Réalité Augmentée (RA). Nous contribuons à ce domaine en améliorant les capacités de perception de l'environnement distant par l'expert et en proposant des interactions plus naturelles pour guider l'opérateur au travers d'indications non intrusives et intégrées à son environnement réel. Finalement, nous abordons la tâche de co-manipulation qui est une situation encore plus sensible vis-à-vis de l'awareness en collaboration distante. Cette tâche requiert de viser une synchronisation parfaite entre les collaborateurs pour l'accomplir efficacement. Ainsi, le système doit fournir des retours appropriés pour maintenir un haut niveau d'awareness, spécialement concernant l'activité courante des autres. En particulier, nous proposons une technique de co-manipulation hybride, inspirée de notre cas d'utilisation précédent sur la guidage distant, qui mixe la manipulation d'objet virtuel et du PdV d'un autre utilisateur. / Being able to collaborate remotely with other people can provide valuable capabilities in performing tasks that require multiple users to be achieved. Moreover, Mixed Reality (MR) technologies are great tools to develop new kinds of applications with more natural interactions and perception abilities compared to classical desktop setups. In this thesis, we propose to improve remote collaboration using these MR technologies that take advantages of our natural skills to perform tasks in 3D environments. In particular, we focus on asymmetrical aspects involved by these kind of collaboration: roles, point of view (PoV), devices and level of virtuality of the MR application. First, we focus on awareness issues and we propose a generic model able to accurately describe a collaborative MR application taking into account potential asymmetry dimensions. In order to address all these dimensions, we split our final model into two layers that separate real and virtual spaces for each user. In this model, each user can generate different kind of input and receive feedbacks with different meanings in order to maintain their own awareness of the shared Virtual Environment (VE). Then, we conduct an exploratory user study to explore the consequences of asymmetric PoVs and the involvement of users' representation in the level of awareness of others' collaborators. Second, we apply our findings to a remote guiding context that implies a remote guide to help an operator in performing a maintenance task. For this use case, we propose to the expert to use a Virtual Reality (VR) interface in order to help the operator through an Augmented Reality (AR) interface. We contribute to this field by enhancing the expert's perceptual abilities of the remote workspace as well as by providing more natural interactions to guide the operator through not intrusive guiding cues integrated to the real world. Last, we address an even more sensitive situation for awareness in remote collaboration that is virtual co-manipulation. It requires to target a perfect synchronization between collaborators in order to achieve the task efficiently. Thus, the system needs to provide appropriate feedbacks to maintain a high level of awareness, especially about what others are currently doing. In particular, we propose a hybrid co-manipulation technique, inspired from our previous remote guiding use case, that mixes virtual object and other's PoV manipulation in the same time.
105

Planification interactive de trajectoire en Réalité Virtuelle sur la base de données géométriques, topologiques et sémantiques / Interactive path planning in Virtual Reality based on geometric, topological and semantic data.

Cailhol, Simon 22 June 2015 (has links)
Pour limiter le temps et le coût de développement de nouveaux produits, l’industrie a besoin d’outils pour concevoir, tester et valider le produit avec des prototypes virtuels. Ces prototypes virtuels doivent permettre de tester le produit à toutes les étapes du Product Lifecycle Management (PLM). Beaucoup d’opérations du cycle de vie du produit impliquent la manipulation par un humain des composants du produit (montage, démontage ou maintenance du produit). Du fait de l’intégration croissante des produits industriels, ces manipulations sont réalisées dans un environnement encombré. La Réalité Virtuelle (RV) permet à des opérateurs réels d’exécuter ces opérations avec des prototypes virtuels. Ce travail de recherche introduit une nouvelle architecture de planification de trajectoire permettant la collaboration d’un utilisateur de RV et d’un système de planification de trajectoire automatique. Cette architecture s’appuie sur un modèle d’environnement original comprenant des informations sémantiques, topologiques et géométriques. Le processus de planification automatique de trajectoire est scindé en deux phases. Une planification grossière d’abord exploitant les données sémantique et topologiques. Cette phase permet de définir un chemin topologique. Une planification fine ensuite exploitant les données sémantiques et géométriques détermine un trajectoire géométrique dans le chemin topologique défini lors de la planification grossière. La collaboration entre le système de planification automatique et l’utilisateur de RV s’articule autour de deux modes : en premier lieu, l’utilisateur est guidé sur une trajectoire pré-calculée à travers une interface haptique ; en second lieu, l’utilisateur peut quitter la solution proposée et déclencher ainsi une re-planification. L’efficacité et l’ergonomie des ces deux modes d’interaction est enrichie grâce à des méthodes de partage de contrôle : tout d’abord, l’autorité du système automatique est modulée afin de fournir à la fois un guidage prégnant lorsque l’utilisateur le suit, et plus de liberté à l’utilisateur (un guidage atténué) lorsque celui-ci explore des chemins alternatifs potentiellement meilleurs. Ensuite, lorsque l’utilisateur explore des chemins alternatifs, ses intentions sont prédites (grâce aux données géométriques associées aux éléments topologiques) et intégrées dans le processus de re-planification pour guider la planification grossière. Ce mémoire est organisé en cinq chapitres. Le premier expose le contexte industriel ayant motivé ces travaux. Après une description des outils de modélisation de l’environnement, le deuxième chapitre introduit le modèle multi-niveaux de l’environnement proposé. Le troisième chapitre présente les techniques de planification de trajectoire issues de la robotique et détaille le processus original de planification de trajectoire en deux phases développé. Le quatrième introduit les travaux précurseurs de planification interactive de trajectoire et les techniques de partage de contrôle existantes avant de décrire les modes d’interaction et les techniques de partage de contrôle mises en œuvre dans notre planificateur interactif de trajectoire. Enfin le dernier chapitre présente les expérimentations menées avec le planificateur de trajectoire et en analyse leurs résultats. / To save time and money while designing new products, industry needs tools to design, test and validate the product using virtual prototypes. These virtual prototypes must enable to test the product at all Product Lifecycle Management (PLM) stages. Many operations in product’s lifecycle involve human manipulation of product components (product assembly, disassembly or maintenance). Cue to the increasing integration of industrial products, these manipulations are performed in cluttered environment. Virtual Reality (VR) enables real operators to perform these operations with virtual prototypes. This research work introduces a novel path planning architecture allowing collaboration between a VR user and an automatic path planning system. This architecture is based on an original environment model including semantic, topological and geometric information. The automatic path planning process split in two phases. First, coarse planning uses semantic and topological information. This phase defines a topological path. Then, fine planning uses semantic and geometric information to define a geometrical trajectory within the topological path defined by the coarse planning. The collaboration between VR user and automatic path planner is made of two modes: on one hand, the user is guided along a pre-computed path through a haptic device, on the other hand, the user can go away from the proposed solution and doing it, he starts a re-planning process. Efficiency and ergonomics of both interaction modes is improved thanks to control sharing methods. First, the authority of the automatic system is modulated to provide the user with a sensitive guidance while he follows it and to free the user (weakened guidance) when he explores possible better ways. Second, when the user explores possible better ways, his intents are predicted (thanks to geometrical data associated to topological elements) and integrated in the re-planning process to guide the coarse planning. This thesis is divided in five chapters. The first one exposes the industrial context that motivated this work. Following a description of environment modeling tools, the second chapter introduces the multi-layer environment model proposed. The third chapter presents the path planning techniques from robotics research and details the two phases path planning process developed. The fourth introduce previous work on interactive path planning and control sharing techniques before to describe the interaction modes and control sharing techniques involved in our interactive path planner. Finally, last chapter introduces the experimentations performed with our path planner and analyses their results.
106

Séquencement d'actions en environnement virtuel collaboratif / Actions sequencing incollaborative virtual environment

Claude, Guillaume 12 July 2016 (has links)
Nous nous intéressons au problème de la spécification du séquencement des actions dans un environnement virtuel collaboratif. Il s’agit de définir puis de contrôler ce qui peut ou doit se passer au cours de la simulation dans un contexte potentiellement multiutilisateur. Ceci passe, entre autres, par la spécification (puis l’exécution) d’un ensemble de scénarios possibles lors d’une session de simulation ainsi que par la distribution des actions réalisables entre les différents acteurs (réels ou virtuels) intervenant dans la simulation.Nous présentons #SEVEN, un modèle fondé sur les réseaux de Petri, permettant de décrire des agencements temporels et causaux des actions dans un environnement. #SEVEN est ensuite utilisé pour répondre aux problèmes de la spécification de l’ensemble des scénarios possibles et de la distribution des actions entre les acteurs. Les propriétés de #SEVEN en font un modèle capable de s’adapter facilement aux besoins de la spécification de scénarios notamment, car il permet de fournir différents niveaux de guidage. Il peut par exemple définir précisément les actions à réaliser et l’ordre qu’elles doivent avoir ou encore indiquer les changements d’état de l’environnement devant avoir lieu sans préciser les actions nécessaires. Ensuite, nous abordons le problème de la distribution des actions en proposant un modèle d’équipe permettant de modéliser les comportements et règles liés à l’organisation d’un groupe d’acteur. Ce modèle permet de faire évoluer les possibilités d’action offertes aux acteurs au cours de la simulation suivant leurs compétences, leur position dans l’équipe, les ressources auxquelles ils ont accès. / We are interested in the problem of the specification of the sequencing of actions in collaborative virtual environments. It is about defining, then controlling what must or can occur during the simulation in a potentially multi-user context. It is done, partly by the specification (and the execution) of a set of possible scenarios during a simulation session, and partly by the distribution of the feasible actions between the different actors (reals or virtuals) in the simulation.We present #SEVEN, a Petri nets based model, allowing to describe causal and temporal sequencing of actions in an environment. #SEVEN is then used to answer to the problem of the specification of the possible scenarios and of the distribution of the actions between the actors. #SEVEN’s properties made it a model able to be adapted to the needs of the specification of scenarios, especially because it can provide different guidance levels. As an example, it can define precisely the actions that need to be performed or indicates the changes that must occur in the state of the environment without defining precisely the actions to perform. Then, we address the problem of the distribution of the actions from perspective of the role theory, proposing a team model allowing to model the behaviours and rules related to a group of actors. This model allows to make evolve the possibilities of actions offered to the actors during the simulation depending on their abilities, their position in the team or the resources they have access to.
107

Comportement moteur induit visuellement et spontané chez la larve du poisson zèbre / Visually induced and spontaneous behavior in the zebrafish larva

Jouary, Adrien 09 October 2015 (has links)
Le comportement animal est souvent conçu comme résultant d'une association entre un stimulus et une réponse. Selon cette vision, comprendre le cerveau revient à dénouer les liens entre les entrées sensorielles et les sorties motrices. Toutefois, dans des conditions naturelles, l'influence entre l'action motrice et la perception sensorielle est réciproque. Les animaux utilisent constamment les rétroactions sensorielles causées par leurs actions pour ajuster les commandes motrices. Par ailleurs, le comportement n'est pas seulement une réponse à l'environnement sensoriel mais peut être généré par l'activité endogène du cerveau. Afin de comprendre le dialogue sensorimoteur en observant de larges régions cérébrales à une résolution cellulaire, j'ai étudié les comportements induits et spontanés chez la larve du poisson-zèbre. Les atouts de la larve du poisson zèbre sont sa petit taille et sa transparence. On peut utiliser des méthodes d'imagerie fonctionnelle optique, comme la microscopie par nappe laser, afin d'enregistrer l'activité dans une large portion des neurones. Afin d'étudier le comportement de navigation chez la larve dans des conditions compatibles avec l'observation du cerveau, j'ai développé un système de réalité virtuelle visuelle pour la larve du poisson zèbre. L'environnement visuel est mis à jour en fonction des mouvements du poisson. Cette rétroaction peut être choisie comme étant similaire à la rétroaction visuelle que le poisson expérimente en nage libre. En modifiant la rétroaction visuelle naturelle, on peut étudier la manière dont la larve s'adapte aux perturbations. Dans cette optique, j'ai d'abord généré une librairie de mouvements de nage libre. A partir de celle-ci, j'ai extrait la relation entre la trajectoire de la larve et la cinématique de ses mouvements de queue. Cette relation permet de décoder les intentions de déplacements chez une larve dont la tête est restreinte dans un gel et de mettre à jour un environnement visuel selon ses mouvements de queue. Dans un environnement virtuel, la larve parvient à contrôler son orientation et sa vitesse afin de suivre un mouvement d'ensemble ou bien à générer une séquence de mouvements nécessaires à atteindre une cible mobile. Lorsque la rétroaction visuelle n'est pas mise à jour continuellement mais à la fin de chaque mouvement, on observe que les mouvements sont alors plus longs. Cette faible perturbation réduit significativement le succès des déplacements du poisson vers des cibles virtuelles. Le comportement peut aussi résulter de l'activité endogène du cerveau. En absence de stimulus externe, la larve produit des mouvements stéréotypés similaires à ceux produits lorsqu'elle navigue en réponse à un stimulus. Après avoir établit une nouvelle méthode de classification des mouvements de queue, j'ai analysé la séquence des mouvements générés spontanément. Ces séquences sont composées de successions quasi rythmiques qui alternent avec de longues périodes de repos. Les mouvements consécutifs sont davantage similaires lorsqu'ils s’enchaînent rapidement (~10s). Afin d'étudier les mécanismes neuronaux responsables de la décision d'effectuer un mouvement spontané, j'ai couplé l’imagerie par nappe laser à l'analyse des mouvements. Des résultats préliminaires mettent en évidence des groupes de neurones dont l'activité prédit la direction des mouvements des virages. Deux groupes repartis bilatéralement oscillent en opposition de phase et l'état de cet oscillateur avant un mouvement prédit sa direction. Les neurones responsables de la décision du type de mouvement à effectuer spontanément sont différents des neurones qui contrôlent le timing de leur déclenchement. Ensemble, ces résultats éclairent les processus de rétroaction et de dynamique interne qui façonnent le comportement et ouvre la voie à l'étude de processus sensorimoteurs complexes dans des systèmes simples. / Behavior is often conceived as resulting from a stimulus-response association. Under this paradigm, understanding the nervous system is reduced to finding the relation between a sensory input and a motor output. Yet, in naturally behaving animals, motor actions influence sensory perceptions just as much as the other way around. Animals are continuously relying on sensory feedback to adjust motor commands. On the other hand, behavior is not only induced by the sensory environment, but can be generated by the brain's rich internal dynamics. My goal is to understand the sensory-motor dialogue by monitoring large brain regions, yet, with a single-neuron resolution. To tackle this question, I have used zebrafish larva to study visually induced and internally driven motor behaviors. Zebrafish larvae have a small and transparent body. These features enable using large-scale optical methods, such as selective plane illumination microscopy (SPIM), to record brain dynamics. In order to study goal-driven navigation in conditions compatible with imaging, I developed a visual virtual reality system for zebrafish larva. The visual feedback can be chosen to be similar to what the animal experiences in natural conditions. Alternatively, alteration of the visual feedback can be used to study how the brain adapts to perturbations. For this purpose, I first generated a library of free-swimming behaviors from which I learned the relationship between the trajectory of the larva and the shape of its tail. I then use this technique to infer the intended displacements of head-fixed larvae. The visual environment was updated accordingly. In the virtual environment, larvae were capable of maintaining the proper speed and orientation in the presence of whole-field motion and produced fine changes in orientation and position required to capture virtual preys. I demonstrate the sensitivity of larvae to visual feedback by updating the visual world only after the discrete swimming episodes. This feedback perturbation induced a decay in the performance of prey capture behavior, suggesting that larva rely on real-time visual feedback during swimming. Behavior can also be induced by the internal dynamics of the brain. In the absence of salient sensory cues, zebrafish larva spontaneously produces stereotypical tail movements, similar to those produced during goal-driven navigation. After having developed a new method to classify tail movements, I analyzed the sequence of spontaneously generated tail movements. The latter switched between period of quasi-rhythmic activity and long episodes of rest. Moreover, consecutive movements were more similar when executed at short time intervals (~10s). In order to study the mechanisms responsible for the spontaneous decisions to move, I coupled SPIM to tail movement analysis. Using dimensionality reduction, I identified clusters of neurons predicting the direction of spontaneous turn movements but not their timings. This Preliminary result suggests that distinct pathways could be responsible for the timing (when) and the selection (what) of spontaneous actions. Together, the results shed light on the role of feedback and internal dynamics in shaping behaviors and open the avenue for investigating complex sensorimotor process in simple systems.
108

Développement des outils pour la formation à l'hystérectomie totale par voie coelioscopique sur un simulateur de réalité virtuelle / Development of educational tools for total laparoscopic hysterectomy training on a virtual reality simulator

Crochet, Patrice 09 May 2017 (has links)
L’intérêt de la simulation pour apprendre les gestes de base est démontré en chirurgie gynécologique. Objectifs : Évaluer la validité d’un programme reproduisant une hystérectomie cœlioscopique (HC) sur un simulateur de réalité virtuelle (RV), et développer un parcours d’entraînement basé sur des preuves. Développer une échelle d’évaluation spécifique des compétences techniques pour l’HC (H-OSATS).Méthodes : Étude 1. 40 participants ont été évalués. La preuve de validité retenue était la capacité à différencier 3 niveaux d’expérience. Les performances étaient évaluées par les paramètres quantitatifs et par une échelle OSATS de qualité opératoire. Étude 2. H-OSATS a été développée par une analyse séquentielle, puis une méthode Delphi auprès d’experts. La validité d’H-OSATS a été testée sur un simulateur de RV.Résultats : Étude 1. Il y avait une différence entre les groupes expérimentés, intermédiaires et inexpérimentés pour le temps (1369, 2385 et 3370s; p<0.001), le nombre de mouvements (2033, 3195 et 4056; p= 0.001), et le nombre de plaies vésicales. Les scores OSATS étaient différents entre les groupes (25.5, 19.5 et 14 ; p<0.001). Étude 2. L’analyse séquentielle identifia 76 étapes. 14 experts ont répondu au Delphi, et un consensus fut obtenu pour l’intégration de 64 étapes. Il y avait une différence entre les 3 groupes pour le score H-OSATS (178.25, 155.9 et 133; p=0.002). Conclusion : Le programme de RV pour l’HC a montré des preuves de validité et permis la construction d’un curriculum d’entraînement. L’échelle H-OSATS est valide pour évaluer les performances sur le simulateur de RV. Elle permettra de faciliter la pratique délibérée lors de la formation. / Background: Substantial evidence supports the use of simulation for training on basic skills in gynecology. Objectives: To evaluate the validity of a laparoscopic hysterectomy (LH) program on a virtual reality (VR) simulator, and to develop an evidence-based training curriculum. To develop an objective scale specific for the assessment of technical skills for LH (H-OSATS).Methods: Study 1. 40 participants were tested on a VR simulator. Validity evidence was proposed as the ability to differentiate between 3 levels of experience. Outcomes were simulator-derived metrics and OSATS scores. Study 2. The H-OSATS scale was developed using a hierarchical task analysis (HTA) and a Delphi panel of experts. H-OSATS was evaluated by reviewing LH performed on a VR simulator.Results: Study 1. There was differences between experienced intermediate and inexperienced groups for time (1369, 2385 and 3370 s; p<0.001), number of movements (2033, 3195 and 4056; p= 0.001), and number of bladder injuries. Qualitative analysis found intergroup OSATS score differences (25.5, 19.5 and 14; p<0.001). Study 2. 76 steps were identified by the HTA. 14 experts answered the Delphi. 64 steps reached consensus. There was a significant difference between the 3 groups for H-OSATS scores (178.25, 155.9 and 133; p=0.002). Conclusion: The LH program accrued validity evidence and allowed the development of a VR training curriculum. A next step will be to evaluate whether this training program leads to improved operative skills when transferred to the OR. H-OSATS scale is a valid instrument for performances assessment on a simulator. H-OSATS is expected to facilitate deliberate practice during LH training.
109

L'exposition et la prévention de la réponse dans la thérapie cognitive comportementale du trouble obsessionnel-compulsif: Utilité et efficacité de la réalité virtuelle

Laforest, Mylène January 2014 (has links)
Le trouble obsessionnel-compulsif (TOC) se caractérise par la présence de pensées, images ou impulsions qui provoquent une détresse (obsessions) qui est habituellement soulagée par des rituels mentaux ou comportementaux (compulsions). De nos jours, le traitement reconnu comme étant le plus efficace est la thérapie cognitive comportementale (TCC), et plus particulièrement la technique d’exposition et de prévention de la réponse (EX/PR). Dans la plupart des études ainsi que dans les contextes pratiques, les individus souffrant du TOC sont habituellement traités par l’exposition in vivo, c’est-à-dire qu’ils sont exposés à des stimuli contaminés réels. Toutefois, ce traitement comporte des limites. Les études récentes démontrent l’efficacité des environnements virtuels à induire une réaction d’anxiété chez les phobiques ainsi que son potentiel comme outil dans le cadre d’exposition dans le traitement de troubles anxieux (Robillard et al., 2003). Dans un premier temps, une recension des écrits portant sur la possibilité de l’utilisation de cette technologie dans le traitement du TOC est effectuée et la question de la contribution de la réalité virtuelle dans la TCC du TOC est explorée. Dans un deuxième temps, nous examinons l’efficacité d’un environnement virtuel à induire une détresse chez les personnes souffrant d’un TOC (n = 12) à sous-type de contamination en comparant les résultats aux mesures subjectives et objectives à ceux d’un groupe contrôle (n = 20). Les résultats aux ANOVAs à mesures répétées ont démontré une réaction d’anxiété significativement plus élevée chez le groupe souffrant du TOC comparé au groupe contrôle. Dans un troisième temps, nous examinons à l’aide d’un devis à niveaux de bases multiples en fonction des individus l’efficacité d’un traitement cognitif comportemental d’une durée de 12 sessions avec exposition in virtuo quant à la réduction des symptômes chez trois participantes souffrant d’un TOC à sous-type principal de contamination. Des analyses de séries chronologiques ont été menées sur les données et ont révélées une amélioration statistiquement significative chez les participantes. Ces études préparent le terrain pour des études contrôlées effectuées à partir d’un échantillon plus large en plus de montrer le potentiel de la réalité virtuelle dans le traitement de troubles anxieux chroniques et complexes.
110

Collaboration in Multi-user Immersive Virtual Environment / Collaboration en Environnement Virtuel Immersif Multi-utilisateur

Chen, Weiya 15 December 2015 (has links)
Les Environnements Virtuels Immersifs (EVI) peuvent être utilisés pour amener des utilisateurs, répartis géographiquement ou co-localisés, à partager un même monde virtuel pour collaborer. Si l’on compare aux situations distantes, les utilisateurs d’une immersion co-localisée collaborent aussi dans le monde virtuel, mais a contrario, partagent physiquement un même espace de travail. Cette co-localisation facilite le travail collaboratif en permettant des communications directes et des interactions sans médiation informatique entre les utilisateurs.Avec le développement de l'affichage multi-utilisateur et de la technologie de tracking, les dispositifs immersifs classiques basés sur la rétroprojection (ex. CAVE) peuvent offrir maintenant l'immersion pour plusieurs utilisateurs co-localisés en affichant différentes vues stéréoscopiques sans distorsion visuelle pour chacun d’eux. Dans ce contexte, la coexistence de l'information du monde virtuel et réel, en particulier lorsque les utilisateurs ne partagent pas un référentiel spatial commun, offre aux utilisateurs une nouvelle expérience perceptive et cognitive. Dans cette thèse nous nous sommes intéressés à la façon dont les utilisateurs se perçoivent et communiquent entre eux pour atteindre un contexte commun pour la collaboration, et aux moyens permettant d’élargir des scénarios collaboratifs déjà pris en charge dans ce type de dispositifs, basés sur des techniques de contrôle plus flexible des points de vue des utilisateurs. Cette thèse de doctorat traite donc principalement des problèmes perceptifs et de cohabitation que nous avons identifiés dans l’objectif d’assurer la sécurité et l’efficacité des collaborations co-localisées dans les environnements virtuels immersifs. Tout d'abord, nous avons mené une étude de cas pour examiner comment les conflits perceptifs modifieraient la communication entre les utilisateurs et leur performance. Deuxièmement, nous avons conçu et évalué des paradigmes de navigation appropriés pour permettre la navigation virtuelle individuelle tout en résolvant les problèmes de la cohabitation dans un espace de travail partagé physiquement limité. Enfin, sur la base des résultats de ces travaux, nous avons proposé un modèle dynamique générique qui intègre des contraintes de l'espace de travail physique et aussi ceux du monde virtuel pour gérer la collaboration co-localisée dans les systèmes immersifs multi-utilisateurs. / Immersive virtual environment can be used to bring both geographically distributed and co-located users to the same virtual place for collaboration. Compared to remote situations, co-located users collaborate in the same virtual world on top of a shared physical workspace. This collocation allows direct user communication and interaction without computer mediation which facilitates collaborative work. With the development of multi-user display and tracking technology, classical projection-based immersive setups (e.g. CAVE) can now support group immersion for co-located users by offering individual stereoscopic views without visual distortion. In this context, the coexistence of information from the virtual and real world, especially when users do not share a common spatial reference frame, provides users with a new kind of perceptual and cognitive experience. We are interested in how users perceive and communicate with each other to achieve a shared context for collaboration, and how we can broaden supported collaborative scenarios with more flexible viewpoint control.This PhD thesis mainly addresses perceptual and cohabitation issues that we identified in the aim of supporting safe and efficient co-located collaboration in immersive virtual environment. First, we conducted a case study to examine how perceptual conflicts would alter user communication and task performance. Second, we concentrated on the design and evaluation of appropriate navigation paradigms to allow individual virtual navigation while solving cohabitation problems in a shared limited physical workspace. At last, based on the results of previous studies, we designed a generic dynamic navigation model which integrates constrains from the physical workspace and also the virtual world to enable co-located collaboration in multi-user immersive systems.

Page generated in 0.0784 seconds