Spelling suggestions: "subject:"réalité"" "subject:"idéalité""
201 |
Analyse de visibilité et géolocalisation en milieu urbain avec un modèle numérique 3D / Visibility analysis and geolocation in urban areas with a 3D digital modelSuleiman, Wassim 25 September 2013 (has links)
L'analyse de visibilité est une question importante de la recherche qui peut trouver des applications dans de nombreux domaines: sécurité, conception de réseau sans fil, gestion du paysage, mise en oeuvre d'accès piétonniers .... La prise en compte de la troisième dimension dans le calcul de visibilité est un réel défi. Seules quelques solutions peuvent détecter les obstacles 3D qui limitent l'isovist. Dans cette communication, nous présentons un nouvel algorithme qui peut détecter tous les objets qui bloquent la vue dans un environnement 30 reconstitué numériquement intégrant le relief. Une démonstration avec des données SIG est également effectuée.La reconnaissance automatique des bâtiments est une étape essentielle pour la réalité augmentée et un outil possible pour la géolocalisation d'une prise de vue. Les recherches dans ce domaine n'utilisent pas la localisation par contenu de l'image. Cet article présente une méthodologie pour l'enrichissement d'une base de données urbaine SIG grâce à un descripteur de texture de façade calculé sur des images de référence. Cet indicateur est ensuite utilisé pour retrouver ce bâtiment dans une nouvelle image et le localiser dans une base de données SIG 3D afin d'estimer sa position et son orientation dans le repère de l'appareil photographique qui a pris le cliché. La qualité des résultats obtenus fait l'objet d'une discussion. / The isovist or vision field is an interesting topic with many applications in different fields: security, wireless networkdesign, landscape management and analysis, pedestrian access .... Taking in account 3D environment is a verychallenging task. Only a few solutions can detect 3D obstacles that limit the vision field. We present in this paper a newalgorithm that can detect all the objects which block the sight in a 3D environment including the ground surface. A demonstration with GIS data is also given.Building recognition is the first step for augmented reality and the geolocation of the camera. Research in this field usually does not use the content of the image to locate it. This paper presents a methodology for enhancing and complementing a GIS database of buildings with a texture descriptor of the facades by using information extracted from reference images. This descriptor is used to locate any other image by searching similar texture in the image and locate it through the 3D GIS data base. The absolute position and orientation of the camera of the new image can then be computed if camera parameters (i.e. focal length) are known. The quality of the results is presented and discussed.
|
202 |
Planification interactive de mouvement avec contactBlin, Nassime 12 December 2017 (has links) (PDF)
La conception de nouveaux produits industriels nécessite le développement de prototypes avant leur déploiement grand public. Afin d'accélérer cette phase et de réduire les coûts qui en découlent, une solution intéressante consiste a utiliser des prototypes virtuels le plus longtemps possible en particulier dans la phase de conception. Certaines des étapes de la conception consistent à effectuer des opérations d'assemblage ou de désassemblage. Ces opérations peuvent être effectuées manuellement ou automatiquement à l'aide d'un algorithme de planification de mouvement. La planification de mouvement est une méthode permettant à un ordinateur de simuler le déplacement d'un objet d'un point de départ à un point d'arrivée tout en évitant les obstacles. Le travail de recherche de cette thèse apporte des solutions pour l'interaction entre un humain et un algorithme de planification de mouvement pendant l'exploration de l'espace libre. Le temps de recherche est partagé entre l'humain et la machine selon un paramètre de partage d'autorité permettant de déterminer le pourcentage d'allocation du temps à l'une ou l'autre entité. L'utilisation de ces deux entités en même temps permet d'accélérer grandement la vitesse d'exploration par rapport à la vitesse d'un humain seul ou d'un algorithme seul. Ces travaux apportent ensuite une nouvelle méthode de planification de mouvement avec contact permettant de générer des trajectoires à la surface des obstacles au lieu de les générer uniquement dans l'espace libre. La planification au contact permet d'effectuer des opérations spécifiques telles que le glissement ou l'insertion utiles pour la résolution de problèmes de planification dans des environnements encombrés. Enfin, détecter les intentions d'un utilisateur lorsqu'il interagit avec une m achine permet de lui fournir des ordres efficacement et intuitivement. Dans le cadre de la planification interactive au contact, un algorithme de détection d'intention est proposé. Ce dernier s'appuie sur l'utilisation d'un robot haptique permettant à un opérateur de ressentir les obstacles virtuels lors de la manipulation d'un objet virtuel dans un environnement de réalité virtuelle. L'algorithme interactif s'adapte en temps réel aux actions de l'opérateur pour une exploration pertinente de la surface des obstacles. Ces travaux ont été menés en partie au laboratoire toulousain LAAS au sein de l'équipe Gepetto et en partie dans le laboratoire LGP de l'ENIT au sein de l'équipe DIDS. Nous remercions la région Midi-Pyrénées pour avoir financé ces recherches.
|
203 |
Aide à la sélection de cibles pour des environnements de réalité virtuelle / Assistance tools for target selection in virtual reality environmentsWonner, Jonathan 16 December 2013 (has links)
La sélection d'entités est une des tâches courantes et fondamentales de l'interaction. En environnement de réalité virtuelle, cette tâche s'effectue dans les trois dimensions, mais s'accompagne de difficultés inhérentes à ces environnements, comme une mauvaise perception de la profondeur. Des techniques existent pour pallier ces obstacles. Nous présentons trois nouvelles méthodes améliorant les performances de l'utilisateur durant les différentes étapes du processus de sélection. Le principe du Ring Concept permet de localiser des objets non visibles dans la scène. La technique Starfish guide le mouvement de l'utilisateur vers sa cible. Enfin, l'algorithme SPEED prédit le point d'arrivée d'un mouvement de sélection. / Selection is one of the most current and fundamental interaction tasks. In a virtual reality environment, this task is performed in the three dimensions, but is accompanied by difficulties inherent in these environments, such as poor depth perception. Several techniques exist to overcome these obstacles. We present three new methods for improving the performance of the user during the various phases of the selection process. The Ring Concept principle can locate non-visible objects in the scene. The Starfish technique guides the movement of the user to the target. Finally, the SPEED algorithm predicts the endpoint of a selection movement.
|
204 |
Plasticity for user interfaces in mixed reality / Plasticité des interfaces de réalité mixteLacoche, Jérémy 21 July 2016 (has links)
Cette thèse s'intéresse à la plasticité des interfaces de Réalité Mixte (RM), c'est-à-dire les applications de Réalité Virtuelle (RV), Réalité Augmentée (RA) et de Virtualité Augmentée (AV). Il y a un réel engouement aujourd’hui pour ce type d’applications notamment grâce à la démocratisation des périphériques tels les lunettes et casques immersifs, les caméras de profondeur et les capteurs de mouvement. La Réalité Mixte trouve notamment ses usages dans le divertissement, la visualisation de données, la formation et la conception en ingénierie. La plasticité d'un système interactif est sa capacité à s'adapter aux contraintes matérielles et environnementales dans le respect de son utilisabilité. La continuité de l'utilisabilité d'une interface plastique est assurée quel que soit le contexte d'usage. Nous proposons ainsi des modèles et une solution logicielle nommée 3DPlasticToolkit afin de permettre aux développeurs de créer des interfaces de Réalité Mixtes plastiques. Tout d'abord, nous proposons trois modèles pour modéliser les sources d'adaptation : un modèle pour représenter les dispositifs d'interaction et les dispositifs d'affichage, un modèle pour représenter les utilisateurs et leurs préférences et un modèle pour représenter la structure et la sémantique des données. Ces sources d'adaptation vont être prises en compte par un processus d'adaptation qui va déployer dans une application les composants applicatifs adaptés au contexte d'usage grâce à des mécanismes de notation. Le déploiement de ces composants va permettre d'adapter à la fois les techniques d'interaction de l'application et également la présentation de son contenu. Nous proposons également un processus de redistribution qui va permettre à l'utilisateur final de changer la distribution des composants de son système sur différentes dimensions : affichage, utilisateur et plateforme. Ce processus va ainsi permettre à l'utilisateur de changer de plateforme dynamiquement ou encore de combiner plusieurs plateformes. L'implémentation de ces modèles dans 3DPlasticToolkit permet de fournir aux développeurs une solution prête à l'usage qui peut gérer les périphériques actuels de Réalité Mixte et qui inclut un certain nombre de techniques d'interaction, d'effets visuels et de métaphores de visualisation de données. / This PhD thesis focuses on plasticity for Mixed Reality (MR) User interfaces, which includes Virtual Reality (VR), Augmented Reality (AR) and Augmented Virtuality (AV) applications. Today, there is a growing interest for this kind of applications thanks to the generalization of devices such as Head Mounted Displays, Depth sensors and tracking systems. Mixed Reality application can be used in a wide variety of domains such as entertainment, data visualization, education and training, and engineering. Plasticity refers to the capacity of an interactive system to withstand variations of both the system physical characteristics and the environment while preserving its usability. Usability continuity of a plastic interface is ensured whatever the context of use. Therefore, we propose a set of software models, integrated in a software solution named 3DPlasticToolkit, which allow any developer to create plastic MR user interfaces. First, we propose three models for modeling adaptation sources: a model for the description of display devices and interaction devices, a model for the description of the users and their preferences, a model for the description of data structure and semantic. These adaptation sources are taken into account by an adaptation process that deploys application components adapted to the context of use thanks to a scoring system. The deployment of these application components lets the system adapt the interaction techniques of the application of its content presentation. We also propose a redistribution process that allows the end-user to change the distribution of his/her application components across multiple dimensions: display, user and platform. Thus, it allows the end-user to switch dynamically of platform or to combine multiple platforms. The implementation of these models in 3DPlasticToolkit provides developers with a ready to use solution for the development of plastic MR user interfaces. Indeed, the solution already integrates different display devices and interaction devices and also includes multiple interaction techniques, visual effects and data visualization metaphors.
|
205 |
La transgression du réel dans l'oeuvre dramatique de Michel Deutsch / The transgression of the real in the dramatic work of Michel DeutschKazan, Darine 27 June 2015 (has links)
L‟intérêt porte sur l‟intervention ou la non-intervention du réel dans la représentation. Le réalisme dans l‟oeuvre dramatique se mesure à l‟aune de la mise au jour des actualités historiques, politico-sociales et des réalités existentielles. A la quête de l‟interprétation de la conception du “réel” s‟ajoute un questionnement esthétique : la manière de le montrer. Notre recherche a comme objet l‟oeuvre dramatique de Michel Deutsch. C‟est en donnant à voir les défaillances des individus et leur non-intégration sociale dans le monde actuel désorganisé que le dramaturge témoigne son approche réaliste. La configuration dramaturgique de l‟espace extrascénique et l‟usage vraisemblable des objets qui y sont installés en sont des arguments à l‟appui. “L‟annonciation/incarnation de la réalité” rajoute de l‟exactitude aux faits représentés et la mise en oeuvre de la fonctionnalité du symbolique en dépit des descriptions standards prévaut. Or, la non-accessibilité dudit réel est un défi lancé à la reproduction d‟une image globale et parfaite de tous les événements. L‟incongruité tributaire du “nowhere” et de l‟anti-naturalisme structurel et factuel de l‟espace dramatique culmine avec l‟exposition inappropriée des principes consubstantiels à l‟espace théâtral. Le brouillage des repères temporels et l‟atemporalité accentuent le dysfonctionnement. Le langage lacunaire déjoue l‟expression, l‟extériorisation, la compréhension et la communicabilité. Le rapport au vécu se creuse : la pensée et la parole individuelle s‟évincent en faveur de l‟irruption recommencée de “l‟auteur-rhapsode”. Si la non-identification, le démembrement ou l‟indétermination de la situation d‟énonciation de l‟individu est condamnable, son existence atomique ou sa non-existence l‟est davantage.Michel Deutsch opte pour la transgression du réel et préconise le rejet catégorique de la duplication imitative et le principe de la “déconstruction-reconstruction” dans la représentation. / The interest in the representation gets to the intervention or the nonintervention of the real in it. The realism in the dramatic work is measured by ell updating the historical and political-social actualities and the existing realities. In the quest for the interpretation of the conception of “real”, it is add the ethic questioning of how to show it.Our research aims the dramatic work of Michel Deutsch. Seeing the individuals failures and their social nonintegration in the actual disorganized world that the playwright testifies his realistic approach. The extrastage space dramatic configuration and the likely use of the objects installed are supporting arguments for it. “The annunciation-incarnation of reality” adds exactitude to the representing facts and prevails the implentation of symbolic feature despite the standard descriptions. Though, the non-availability of real is a challenge launch to the reproduction of a global and perfect image of all the events. The tributary incongruity of “nowhere” and the structural, factual antinaturalism of dramatic space culminates in the inappropriate exposition of consubstantials principles of the theatrical space. The jamming time markers and the timeless stress the dysfunction. The lacunar language foiled the expression, the externalization, the comprehension and the communicability. The relationship with life fails : the thinking and the individual speech ousting on account of the restarted irruption of the “rhapsode-author”. If the non-identification, the dismembrement or the indetermination of speech situation of every person is condemnable, its atomic existence or his non existence are worse.Michel Deutsch opt for the transgression of the real and preconize to reject categoricaly the imitative duplication and the principal of the deconstruction-reconstruction in the representation.
|
206 |
Planification interactive de trajectoire en Réalité Virtuelle sur la base de données géométriques, topologiques et sémantiques / Interactive path planning in Virtual Reality based on geometric, topological and semantic data.Cailhol, Simon 22 June 2015 (has links)
Pour limiter le temps et le coût de développement de nouveaux produits, l’industrie a besoin d’outils pour concevoir, tester et valider le produit avec des prototypes virtuels. Ces prototypes virtuels doivent permettre de tester le produit à toutes les étapes du Product Lifecycle Management (PLM). Beaucoup d’opérations du cycle de vie du produit impliquent la manipulation par un humain des composants du produit (montage, démontage ou maintenance du produit). Du fait de l’intégration croissante des produits industriels, ces manipulations sont réalisées dans un environnement encombré. La Réalité Virtuelle (RV) permet à des opérateurs réels d’exécuter ces opérations avec des prototypes virtuels. Ce travail de recherche introduit une nouvelle architecture de planification de trajectoire permettant la collaboration d’un utilisateur de RV et d’un système de planification de trajectoire automatique. Cette architecture s’appuie sur un modèle d’environnement original comprenant des informations sémantiques, topologiques et géométriques. Le processus de planification automatique de trajectoire est scindé en deux phases. Une planification grossière d’abord exploitant les données sémantique et topologiques. Cette phase permet de définir un chemin topologique. Une planification fine ensuite exploitant les données sémantiques et géométriques détermine un trajectoire géométrique dans le chemin topologique défini lors de la planification grossière. La collaboration entre le système de planification automatique et l’utilisateur de RV s’articule autour de deux modes : en premier lieu, l’utilisateur est guidé sur une trajectoire pré-calculée à travers une interface haptique ; en second lieu, l’utilisateur peut quitter la solution proposée et déclencher ainsi une re-planification. L’efficacité et l’ergonomie des ces deux modes d’interaction est enrichie grâce à des méthodes de partage de contrôle : tout d’abord, l’autorité du système automatique est modulée afin de fournir à la fois un guidage prégnant lorsque l’utilisateur le suit, et plus de liberté à l’utilisateur (un guidage atténué) lorsque celui-ci explore des chemins alternatifs potentiellement meilleurs. Ensuite, lorsque l’utilisateur explore des chemins alternatifs, ses intentions sont prédites (grâce aux données géométriques associées aux éléments topologiques) et intégrées dans le processus de re-planification pour guider la planification grossière. Ce mémoire est organisé en cinq chapitres. Le premier expose le contexte industriel ayant motivé ces travaux. Après une description des outils de modélisation de l’environnement, le deuxième chapitre introduit le modèle multi-niveaux de l’environnement proposé. Le troisième chapitre présente les techniques de planification de trajectoire issues de la robotique et détaille le processus original de planification de trajectoire en deux phases développé. Le quatrième introduit les travaux précurseurs de planification interactive de trajectoire et les techniques de partage de contrôle existantes avant de décrire les modes d’interaction et les techniques de partage de contrôle mises en œuvre dans notre planificateur interactif de trajectoire. Enfin le dernier chapitre présente les expérimentations menées avec le planificateur de trajectoire et en analyse leurs résultats. / To save time and money while designing new products, industry needs tools to design, test and validate the product using virtual prototypes. These virtual prototypes must enable to test the product at all Product Lifecycle Management (PLM) stages. Many operations in product’s lifecycle involve human manipulation of product components (product assembly, disassembly or maintenance). Cue to the increasing integration of industrial products, these manipulations are performed in cluttered environment. Virtual Reality (VR) enables real operators to perform these operations with virtual prototypes. This research work introduces a novel path planning architecture allowing collaboration between a VR user and an automatic path planning system. This architecture is based on an original environment model including semantic, topological and geometric information. The automatic path planning process split in two phases. First, coarse planning uses semantic and topological information. This phase defines a topological path. Then, fine planning uses semantic and geometric information to define a geometrical trajectory within the topological path defined by the coarse planning. The collaboration between VR user and automatic path planner is made of two modes: on one hand, the user is guided along a pre-computed path through a haptic device, on the other hand, the user can go away from the proposed solution and doing it, he starts a re-planning process. Efficiency and ergonomics of both interaction modes is improved thanks to control sharing methods. First, the authority of the automatic system is modulated to provide the user with a sensitive guidance while he follows it and to free the user (weakened guidance) when he explores possible better ways. Second, when the user explores possible better ways, his intents are predicted (thanks to geometrical data associated to topological elements) and integrated in the re-planning process to guide the coarse planning. This thesis is divided in five chapters. The first one exposes the industrial context that motivated this work. Following a description of environment modeling tools, the second chapter introduces the multi-layer environment model proposed. The third chapter presents the path planning techniques from robotics research and details the two phases path planning process developed. The fourth introduce previous work on interactive path planning and control sharing techniques before to describe the interaction modes and control sharing techniques involved in our interactive path planner. Finally, last chapter introduces the experimentations performed with our path planner and analyses their results.
|
207 |
Environnement de réalité augmentée pour la conception, la gestion et la maintenance d’ouvrages et de mobiliers urbains / Augmented reality for design, management and maintenance of urban networks and facilitiesBaldisser, Emeric 09 March 2016 (has links)
Les travaux de géolocalisation et d’étude des ouvrages urbains font intervenirdes opérateurs de lever qui doivent manipuler des instruments de topographie, descartographies et des notions métiers complexes. Les erreurs de géolocalisation et deconception d’ouvrages sont fréquentes lorsque les méthodologies de travail ne sont pasrespectées. Ces travaux de thèse CIFRE, réalisés au sein de la société SIG-IMAGE,identifient dans un premier temps les sources d’erreurs lors des phases d’étude puisproposent un processus de lever topographique optimisé, pour réduire ces erreurs. Ilsmettent en évidence l’intérêt de la Réalité Augmentée pour diminuer les erreurs d’édition etd’interprétation de cartographie d’ouvrages. Un prototype est proposé, évalué et critiqué. Ilcouple un dispositif tactile de RA monoculaire géoréférencé avec un laser de topographie. Ilpermet de dessiner et de consulter des plans techniques sur une représentation 2D tempsréel du chantier. Les expérimentations démontrent que ce couplage n’est valide, au regardde la réglementation française, que pour la consultation de données SIG, ainsi que demodèles CAO dans un environnement très proche. Une autre approche est proposée, elleconsiste à recaler les nuages de points denses issus de scanners de topographie, avec lareprésentation orthoscopique 2D temps réel du chantier. Une synthèse des techniques derecalage image-nuage de points est proposée, et nos travaux s’orientent vers l’exploitationdu recalage 2D-2D. Les interactions dans l’environnement augmenté du chantier dépendentalors de son nuage de points. Elles sont géolocalisées et suivent les paradigmes du Picking-Outlining-Annotating. / In the public construction field, surveyors have to manipulate sophisticatedinstruments and maps to design CAD and GIS sketches describing geolocated facilities tobuild on worksite. Geolocation and design inaccuracies happen during these steps and leadto false technical maps. This Ph.D. thesis explains our research works made on behalf ofSIG-IMAGE Company. We first identify origins of inaccuracies during survey, then wepropose a new and optimized survey method that improves CAD and GIS accuracy on field.We explain to what extend Augmented Reality is able to improve technical mapsinterpretation and edition. We present, evaluate and criticize a prototype that couples atangible AR environment with a laser range finder. It allows one to draw technical sketcheson a 2D tangible real time view of worksites. Experiments have proven that it does not satisfyFrench regulation in terms of accuracy when editing maps. However it is accurate enough todisplay and edit GIS information, as well as CAD maps in a very close area. We then exploreanother approach consisting of matching the scanner’s dense point cloud with the real time2D view of the worksite. We propose a synthesis of alignment practices between point cloudsand images of a same scene. Finally we have chosen to explore 2D-2D registration so thatinteractions in our AR system would be based on the point cloud pre-processed discreterepresentation of the worksite. These interactions will be geolocated and will follow thePicking-Outlining-Annotating paradigm.
|
208 |
Séquencement d'actions en environnement virtuel collaboratif / Actions sequencing incollaborative virtual environmentClaude, Guillaume 12 July 2016 (has links)
Nous nous intéressons au problème de la spécification du séquencement des actions dans un environnement virtuel collaboratif. Il s’agit de définir puis de contrôler ce qui peut ou doit se passer au cours de la simulation dans un contexte potentiellement multiutilisateur. Ceci passe, entre autres, par la spécification (puis l’exécution) d’un ensemble de scénarios possibles lors d’une session de simulation ainsi que par la distribution des actions réalisables entre les différents acteurs (réels ou virtuels) intervenant dans la simulation.Nous présentons #SEVEN, un modèle fondé sur les réseaux de Petri, permettant de décrire des agencements temporels et causaux des actions dans un environnement. #SEVEN est ensuite utilisé pour répondre aux problèmes de la spécification de l’ensemble des scénarios possibles et de la distribution des actions entre les acteurs. Les propriétés de #SEVEN en font un modèle capable de s’adapter facilement aux besoins de la spécification de scénarios notamment, car il permet de fournir différents niveaux de guidage. Il peut par exemple définir précisément les actions à réaliser et l’ordre qu’elles doivent avoir ou encore indiquer les changements d’état de l’environnement devant avoir lieu sans préciser les actions nécessaires. Ensuite, nous abordons le problème de la distribution des actions en proposant un modèle d’équipe permettant de modéliser les comportements et règles liés à l’organisation d’un groupe d’acteur. Ce modèle permet de faire évoluer les possibilités d’action offertes aux acteurs au cours de la simulation suivant leurs compétences, leur position dans l’équipe, les ressources auxquelles ils ont accès. / We are interested in the problem of the specification of the sequencing of actions in collaborative virtual environments. It is about defining, then controlling what must or can occur during the simulation in a potentially multi-user context. It is done, partly by the specification (and the execution) of a set of possible scenarios during a simulation session, and partly by the distribution of the feasible actions between the different actors (reals or virtuals) in the simulation.We present #SEVEN, a Petri nets based model, allowing to describe causal and temporal sequencing of actions in an environment. #SEVEN is then used to answer to the problem of the specification of the possible scenarios and of the distribution of the actions between the actors. #SEVEN’s properties made it a model able to be adapted to the needs of the specification of scenarios, especially because it can provide different guidance levels. As an example, it can define precisely the actions that need to be performed or indicates the changes that must occur in the state of the environment without defining precisely the actions to perform. Then, we address the problem of the distribution of the actions from perspective of the role theory, proposing a team model allowing to model the behaviours and rules related to a group of actors. This model allows to make evolve the possibilities of actions offered to the actors during the simulation depending on their abilities, their position in the team or the resources they have access to.
|
209 |
Comportement moteur induit visuellement et spontané chez la larve du poisson zèbre / Visually induced and spontaneous behavior in the zebrafish larvaJouary, Adrien 09 October 2015 (has links)
Le comportement animal est souvent conçu comme résultant d'une association entre un stimulus et une réponse. Selon cette vision, comprendre le cerveau revient à dénouer les liens entre les entrées sensorielles et les sorties motrices. Toutefois, dans des conditions naturelles, l'influence entre l'action motrice et la perception sensorielle est réciproque. Les animaux utilisent constamment les rétroactions sensorielles causées par leurs actions pour ajuster les commandes motrices. Par ailleurs, le comportement n'est pas seulement une réponse à l'environnement sensoriel mais peut être généré par l'activité endogène du cerveau. Afin de comprendre le dialogue sensorimoteur en observant de larges régions cérébrales à une résolution cellulaire, j'ai étudié les comportements induits et spontanés chez la larve du poisson-zèbre. Les atouts de la larve du poisson zèbre sont sa petit taille et sa transparence. On peut utiliser des méthodes d'imagerie fonctionnelle optique, comme la microscopie par nappe laser, afin d'enregistrer l'activité dans une large portion des neurones. Afin d'étudier le comportement de navigation chez la larve dans des conditions compatibles avec l'observation du cerveau, j'ai développé un système de réalité virtuelle visuelle pour la larve du poisson zèbre. L'environnement visuel est mis à jour en fonction des mouvements du poisson. Cette rétroaction peut être choisie comme étant similaire à la rétroaction visuelle que le poisson expérimente en nage libre. En modifiant la rétroaction visuelle naturelle, on peut étudier la manière dont la larve s'adapte aux perturbations. Dans cette optique, j'ai d'abord généré une librairie de mouvements de nage libre. A partir de celle-ci, j'ai extrait la relation entre la trajectoire de la larve et la cinématique de ses mouvements de queue. Cette relation permet de décoder les intentions de déplacements chez une larve dont la tête est restreinte dans un gel et de mettre à jour un environnement visuel selon ses mouvements de queue. Dans un environnement virtuel, la larve parvient à contrôler son orientation et sa vitesse afin de suivre un mouvement d'ensemble ou bien à générer une séquence de mouvements nécessaires à atteindre une cible mobile. Lorsque la rétroaction visuelle n'est pas mise à jour continuellement mais à la fin de chaque mouvement, on observe que les mouvements sont alors plus longs. Cette faible perturbation réduit significativement le succès des déplacements du poisson vers des cibles virtuelles. Le comportement peut aussi résulter de l'activité endogène du cerveau. En absence de stimulus externe, la larve produit des mouvements stéréotypés similaires à ceux produits lorsqu'elle navigue en réponse à un stimulus. Après avoir établit une nouvelle méthode de classification des mouvements de queue, j'ai analysé la séquence des mouvements générés spontanément. Ces séquences sont composées de successions quasi rythmiques qui alternent avec de longues périodes de repos. Les mouvements consécutifs sont davantage similaires lorsqu'ils s’enchaînent rapidement (~10s). Afin d'étudier les mécanismes neuronaux responsables de la décision d'effectuer un mouvement spontané, j'ai couplé l’imagerie par nappe laser à l'analyse des mouvements. Des résultats préliminaires mettent en évidence des groupes de neurones dont l'activité prédit la direction des mouvements des virages. Deux groupes repartis bilatéralement oscillent en opposition de phase et l'état de cet oscillateur avant un mouvement prédit sa direction. Les neurones responsables de la décision du type de mouvement à effectuer spontanément sont différents des neurones qui contrôlent le timing de leur déclenchement. Ensemble, ces résultats éclairent les processus de rétroaction et de dynamique interne qui façonnent le comportement et ouvre la voie à l'étude de processus sensorimoteurs complexes dans des systèmes simples. / Behavior is often conceived as resulting from a stimulus-response association. Under this paradigm, understanding the nervous system is reduced to finding the relation between a sensory input and a motor output. Yet, in naturally behaving animals, motor actions influence sensory perceptions just as much as the other way around. Animals are continuously relying on sensory feedback to adjust motor commands. On the other hand, behavior is not only induced by the sensory environment, but can be generated by the brain's rich internal dynamics. My goal is to understand the sensory-motor dialogue by monitoring large brain regions, yet, with a single-neuron resolution. To tackle this question, I have used zebrafish larva to study visually induced and internally driven motor behaviors. Zebrafish larvae have a small and transparent body. These features enable using large-scale optical methods, such as selective plane illumination microscopy (SPIM), to record brain dynamics. In order to study goal-driven navigation in conditions compatible with imaging, I developed a visual virtual reality system for zebrafish larva. The visual feedback can be chosen to be similar to what the animal experiences in natural conditions. Alternatively, alteration of the visual feedback can be used to study how the brain adapts to perturbations. For this purpose, I first generated a library of free-swimming behaviors from which I learned the relationship between the trajectory of the larva and the shape of its tail. I then use this technique to infer the intended displacements of head-fixed larvae. The visual environment was updated accordingly. In the virtual environment, larvae were capable of maintaining the proper speed and orientation in the presence of whole-field motion and produced fine changes in orientation and position required to capture virtual preys. I demonstrate the sensitivity of larvae to visual feedback by updating the visual world only after the discrete swimming episodes. This feedback perturbation induced a decay in the performance of prey capture behavior, suggesting that larva rely on real-time visual feedback during swimming. Behavior can also be induced by the internal dynamics of the brain. In the absence of salient sensory cues, zebrafish larva spontaneously produces stereotypical tail movements, similar to those produced during goal-driven navigation. After having developed a new method to classify tail movements, I analyzed the sequence of spontaneously generated tail movements. The latter switched between period of quasi-rhythmic activity and long episodes of rest. Moreover, consecutive movements were more similar when executed at short time intervals (~10s). In order to study the mechanisms responsible for the spontaneous decisions to move, I coupled SPIM to tail movement analysis. Using dimensionality reduction, I identified clusters of neurons predicting the direction of spontaneous turn movements but not their timings. This Preliminary result suggests that distinct pathways could be responsible for the timing (when) and the selection (what) of spontaneous actions. Together, the results shed light on the role of feedback and internal dynamics in shaping behaviors and open the avenue for investigating complex sensorimotor process in simple systems.
|
210 |
Développement des outils pour la formation à l'hystérectomie totale par voie coelioscopique sur un simulateur de réalité virtuelle / Development of educational tools for total laparoscopic hysterectomy training on a virtual reality simulatorCrochet, Patrice 09 May 2017 (has links)
L’intérêt de la simulation pour apprendre les gestes de base est démontré en chirurgie gynécologique. Objectifs : Évaluer la validité d’un programme reproduisant une hystérectomie cœlioscopique (HC) sur un simulateur de réalité virtuelle (RV), et développer un parcours d’entraînement basé sur des preuves. Développer une échelle d’évaluation spécifique des compétences techniques pour l’HC (H-OSATS).Méthodes : Étude 1. 40 participants ont été évalués. La preuve de validité retenue était la capacité à différencier 3 niveaux d’expérience. Les performances étaient évaluées par les paramètres quantitatifs et par une échelle OSATS de qualité opératoire. Étude 2. H-OSATS a été développée par une analyse séquentielle, puis une méthode Delphi auprès d’experts. La validité d’H-OSATS a été testée sur un simulateur de RV.Résultats : Étude 1. Il y avait une différence entre les groupes expérimentés, intermédiaires et inexpérimentés pour le temps (1369, 2385 et 3370s; p<0.001), le nombre de mouvements (2033, 3195 et 4056; p= 0.001), et le nombre de plaies vésicales. Les scores OSATS étaient différents entre les groupes (25.5, 19.5 et 14 ; p<0.001). Étude 2. L’analyse séquentielle identifia 76 étapes. 14 experts ont répondu au Delphi, et un consensus fut obtenu pour l’intégration de 64 étapes. Il y avait une différence entre les 3 groupes pour le score H-OSATS (178.25, 155.9 et 133; p=0.002). Conclusion : Le programme de RV pour l’HC a montré des preuves de validité et permis la construction d’un curriculum d’entraînement. L’échelle H-OSATS est valide pour évaluer les performances sur le simulateur de RV. Elle permettra de faciliter la pratique délibérée lors de la formation. / Background: Substantial evidence supports the use of simulation for training on basic skills in gynecology. Objectives: To evaluate the validity of a laparoscopic hysterectomy (LH) program on a virtual reality (VR) simulator, and to develop an evidence-based training curriculum. To develop an objective scale specific for the assessment of technical skills for LH (H-OSATS).Methods: Study 1. 40 participants were tested on a VR simulator. Validity evidence was proposed as the ability to differentiate between 3 levels of experience. Outcomes were simulator-derived metrics and OSATS scores. Study 2. The H-OSATS scale was developed using a hierarchical task analysis (HTA) and a Delphi panel of experts. H-OSATS was evaluated by reviewing LH performed on a VR simulator.Results: Study 1. There was differences between experienced intermediate and inexperienced groups for time (1369, 2385 and 3370 s; p<0.001), number of movements (2033, 3195 and 4056; p= 0.001), and number of bladder injuries. Qualitative analysis found intergroup OSATS score differences (25.5, 19.5 and 14; p<0.001). Study 2. 76 steps were identified by the HTA. 14 experts answered the Delphi. 64 steps reached consensus. There was a significant difference between the 3 groups for H-OSATS scores (178.25, 155.9 and 133; p=0.002). Conclusion: The LH program accrued validity evidence and allowed the development of a VR training curriculum. A next step will be to evaluate whether this training program leads to improved operative skills when transferred to the OR. H-OSATS scale is a valid instrument for performances assessment on a simulator. H-OSATS is expected to facilitate deliberate practice during LH training.
|
Page generated in 0.0308 seconds