• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 215
  • 78
  • 46
  • Tagged with
  • 348
  • 348
  • 154
  • 153
  • 126
  • 119
  • 67
  • 63
  • 62
  • 47
  • 46
  • 41
  • 40
  • 39
  • 38
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Stratégie de contrôle haptique pour la réhabilitation du membre supérieur atteint de l'enfant hémiplégique / Haptic control strategy development for the upper limb of hemiplegic children rehabilitation

Elsaeh, Mohammed 09 October 2017 (has links)
L'hémiplégie est une préoccupation mondiale pour la santé; C'est une partie de la Paralysie Cérébrale (PC) où une moitié verticale du corps est affectée. Cela peut avoir un impact significatif sur le niveau du handicap. Les déficiences motrices concernant les membres supérieurs, sont fréquentes chez les personnes hémiplégiques. Ces handicaps surviennent en raison de la perte de la communication entre le cerveau et le côté affecté du corps. Dans cette thèse, une stimulation visuelle, audio et tactile a été fournie aux patients pour une réhabilitation de ces membres affectés. La stratégie de contrôle haptique a été développée en utilisant des dispositifs haptiques, qui sont moins coûteux. Des scénarios de Réalité Virtuelle (RV) pour la thérapie haptique-RV, ont été développés afin de s'assurer la cohérence entre les flux visuels, audio et tactiles. Un dispositif haptique à 3 degrés de liberté (DDL) (Novint Falcon) que nous avons associé à un dispositif de rotation avec 1 DDL, que nous avons réalisé, a été utilisé pour appliquer cette stratégie de contrôle en mode-actif. La stratégie développée fournit des trajectoires libres dans des scènes RV et force feed-back dans d'autres directions, autrement dit modèle ‘résistant aux besoins’. Deux méthodes ont été développées pour évaluer les performances des membres supérieurs ciblés. La première méthode a été développée en utilisant une kinectTM pour Windows. Cet appareil a été choisi et utilisé dans notre système en raison sa portabilité, de son espace de travail, de sa facilité d'utilisation et de son prix bas. Le but principal de cette méthode d'évaluation est de valider la relation entre les différents scénarios de RV et le type de mouvement effectué par les membres supérieurs affectés des enfants. La deuxième méthode d'évaluation a été développée en utilisant les données collectées du système lui-même afin de fournir aux thérapeutes la qualité et la quantité de performance à chaque type de mouvements. Cette méthode a été construite en utilisant l'approche de la logique floue. Enfin, trois expériences ont été réalisées. Deux expériences de thérapie et une expérience d'évaluation. Les résultats illustrent la faisabilité de notre approche. Des perspectives ont été données en vue d’une validation au près d’un groupe d’enfant hémiplégique plus important dans l’avenir. Ce travail nécessite une préparation importante et une coordination sur le très long terme avec le corps médical et les familles des enfants atteints. / Hemiplegia is a global concern for health; it is a part of Cerebral Palsy (CP) where a vertical half of the body is affected. This can have a significant impact on the level of disability. Upper extremity motor impairments are common in hemiplegic patients. These disabilities occur because of the loss of communication between the brain and the affected side of the body. In this thesis, visual, audio and tactile stimulation was provided to patients for rehabilitation of these affected limbs. The haptic control strategy has been developed using haptic devices, which are less costly. Virtual Reality (VR) scenarios for haptic-VR therapy have been developed to ensure coherence between visual, audio and tactile flows. A 3-degree-of-freedom (DOF) haptic device (Novint Falcon) which we have associated with a rotation device with 1 DOF, which we have realized, has been used to apply this active-mode control strategy. The developed strategy provides free trajectories in VR scenes and forces feedback in other directions, 'resistant when needed' model. Two methods have been developed to evaluate the performance of the targeted upper limbs. The first method was developed using a kinectTM for Windows. This device was chosen and used in our system because of its portability, workspace, ease of use and low price. The main purpose of this evaluation method is to validate the relationship between the different VR scenarios and the type of movement performed by the affected upper limbs of children. The second evaluation method was developed using the collected data from the system itself in order to provide the therapists with the quality and the quantity of the performance for each type of movements. This method was constructed using the fuzzy logic approach. Finally, three experiments were carried out. Two therapy experiments and one evaluation experiment. The results illustrate the feasibility of our approach. Prospects have been given for validation with a larger group of hemiplegic children in the future. This work requires considerable preparation and coordination over the very long term with the medical profession and the families of affected children.
112

Modèles hybrides pour la réverbération sonore / Hybrid models for acoustic reverberation

Bai, Hequn 08 February 2016 (has links)
Grâce au diverse applications prévues dans le divertissement, l’éducation et les domaines professionnels, la création d’un monde virtuel interactif a intéressé beaucoup de chercheurs dans l’académie et l’industrie. L’espace acoustique trois-dimensionnelle peut être synthétisé à partir de deux perspectives : les approches physiques et les approches perceptives. Méthode de transfert de rayonnement acoustique est une méthode efficace pour modéliser les réflexions diffuses et la réverbération tardive. Une extension de la méthode de transfert de rayonnement est proposée dans cette thèse, qui permet de modéliser les réflexions précoces et spéculaires, en conservant son avantage pour la simulation de réverbération tardive. Les approches perceptives utilisent des paramètres acoustiques pour modéliser la perception acoustique principale de l’environnement modélisé. Des réseaux récursifs de lignes à retard sont beaucoup utilisés pour générer de la réverbération tardive. Dans cette thèse, une nouvelle méthode est présentée, qui hérite l’efficacité de la structure des réseaux récursifs de lignes à retard, mais en le même temps, relie les paramètres des réseaux directement à la géométrie de l’environnement modélisé. Puis, l’approche physique et l’approche perceptive ont été combinées. La méthode de transfert de rayonnement acoustique simplifiée, avec extension à modéliser les réflexions spéculaires et diffuses, est incorporée à la structure des réseaux récursifs de lignes à retard. Le nouveau filtre réverbérant, en dépit de la modélisation des réfections diffuses et la réverbération tardive, est également capable de simuler les réflexions précoces et spéculaires avec précision. / There is an increasing interest in creating interactive virtual worlds due to the wide variety of potential applications in entertainment and education. The 3D acoustic scene can be synthesized from two perspectives : the physical approaches and the perceptual approaches. Acoustic radiance transfer method is an efficient ray-based method to model the diffuse reflections and the late reverberation. An extension of the Radiance Transfer Method (RTM) is proposed in this thesis, which allows modeling the early part of specular reflections while keeping the advantage of the original model for the late reverberation simulation. Feedback delay networks are widely used structures to generate the late reverberation. A new method is presented in this thesis, which inherits the efficiency of the Feedback Delay Network (FDN) structure, but aims at linking the parameters of the FDN directly to the geometries of the modeled environment. The relation is achieved by assigning a physical meaning to each delay line and studying the sound energy exchange between them. Then the physical approachand the perceptual approach are combined. The simplified acoustic Radiance Transfer Method, with extension for both specular and diffuse reflections, is incorporated with the Feedback Delay Networks. The new reverberator, despite of modeling the diffuse and late reverberation, is also capable of simulating the early and specular reflections with accuracy.
113

Attention, concentration, and distraction measure using EEG and eye tracking in virtual reality

Zarour, Mahdi 12 1900 (has links)
Attention is important in learning, Attention-deficit/hyperactivity disorder, Driving, and many other fields. Hence, intelligent tutoring systems, Attention-deficit/hyperactivity disorder diagnosis systems, and distraction detection of driver systems should be able to correctly monitor the attention levels of individuals in real time in order to estimate their attentional state. We study the feasibility of detecting distraction and concentration by monitoring participants' attention levels while they complete cognitive tasks using Electroencephalography and Eye Tracking in a virtual reality environment. Furthermore, we investigate the possibility of improving the concentration of participants using relaxation in virtual reality. We developed an indicator that estimates levels of attention with a real value using EEG data. The participant-independent indicator based on EEG data we used to assess the concentration levels of participants correctly predicts the concentration state with an accuracy (F1 = 73%). Furthermore, the participant-independent distraction model based on Eye Tracking data correctly predicted the distraction state of participants with an accuracy (F1 = 89%) in a participant-independent validation setting. / La concentration est importante dans l’apprentissage, Le trouble du déficit de l’attention avec ou sans hyperactivité, la conduite automobile et dans de nombreux autres domaines. Par conséquent, les systèmes de tutorat intelligents, les systèmes de diagnostic du trouble du déficit de l’attention avec ou sans hyperactivité et les systèmes de détection de la distraction au volant devraient être capables de surveiller correctement les niveaux d’attention des individus en temps réel afin de déduire correctement leur état attentionnel. Nous étudions la faisabilité de la détection de la distraction et de la concentration en surveillant les niveaux d’attention des participants pendant qu’ils effectuent des tâches cognitives en utilisant l’Électroencéphalographie et l’Eye Tracking dans un environnement de réalité virtuelle. En outre, nous étudions la possibilité d’améliorer la concentration des participants en utilisant la relaxation en réalité virtuelle. Nous avons mis au point un indicateur qui estime les niveaux d’attention avec une valeur réelle en utilisant les données EEG. L’indicateur indépendant du participant basé sur les données EEG que nous avons utilisé pour évaluer les niveaux de concentration des participants prédit correctement l’état de concentration avec une précision (F1 = 73%). De plus, le modèle de distraction indépendant des participants, basé sur les données d’Eye Tracking, a correctement prédit l’état de distraction des participants avec une précision (F1 = 89%) dans un cadre de validation indépendant des participants.
114

Interactions tridimensionnelles avec gants de données

Lévesque, Julien-Charles 18 April 2018 (has links)
Ce mémoire couvre le développement d'une interface bimanuelle pour IMAGE v2, une application de simulation visuelle interactive aidant à la compréhension de situations complexes. Cette interface est centrée sur l'utilisateur et est développée principalement pour les environnements immersifs, environnements dans lesquels IMAGE v2 doit être déployé. Il s'agit d'une interface gestuelle, car l'utilisateur devra interagir avec les objets de l'application à l'aide de ses mains. Deux variantes de l'interface ont été implémentées, l'une requérant l'utilisation d'une seule main et l'autre permettant d'utiliser les deux mains. Ces deux variantes ont été comparées dans une étude sur un groupe d'utilisateurs qui devaient exécuter une série de tâches avec chaque variante de l'interface, le temps étant mesuré. L'étude a montré que l'interface bimanuelle augmente significativement la performance et la précision des utilisateurs. / This thesis covers the conception of a bimanual interface for IMAGE v2, an application of visual interactive simulation aiming to help in understanding complex situations. This interface is user-centric and is developed principally for virtual immersive environments, environments in which IMAGE v2 is to be used. It is a gestural interface because users will interact with the application by using their hands. Two variants of the interface have been implemented, the first requiring the user to use only one hand and the other allowing the use of both hands. Those two variants were compared in a study on a group of users who executed a series of tasks with each variant of the interface, time being measured. This study showed that the bimanual interface increased significantly the performance and precision of the users.
115

Étude de la géométrie dans la synthèse de vue

Lambert, Philippe 18 April 2018 (has links)
La recherche effectuée dans cette thèse porte sur le problème de la synthèse de vue c'est-à-dire, comment, d'un ensemble de photographies calibrées d'un objet, générer l'image de cet objet d'un point de vue non photographié. On s'intéresse plus particulièrement au rôle que joue la géométrie dans ce problème. Pour explorer cette question, on analyse les deux approches proposées dans la littérature, soit l'approche géométrique et l'approche par images. L'approche géométrique est basée sur la physique et requiert d'inférer la forme de l'objet, sous l'hypothèse de ses propriétés de réflectance et des conditions d'éclairage, en optimisant une mesure de photo-cohérence. La synthèse de vue s'effectue ensuite par la projection de la forme obtenue selon le point de vue et l'éclairage désirés. Le rôle de la géométrie dans cette approche est donc de définir la surface de l'objet pour permettre le calcul de son interaction avec la lumière. L'approche par images propose quant à elle d'effectuer la synthèse de vue directement par interpolation. La fonction à interpoler est le champ de lumière, qui décrit la couleur de tous les rayons de lumière issus de l'objet. Les pixels de chaque photographie constituent les échantillons à utiliser pour calculer l'approximation du champ de lumière. La synthèse de vue s'effectue en évaluant cette approximation en chacun des rayons qui traversent les pixels de l'image à synthétiser pour en obtenir la couleur. En théorie, la forme de l'objet n'est pas nécessaire dans ce cas, ce qui a l'avantage d'éviter l'inférence de cette forme et les hypothèses que son obtention requiert. En contrepartie, l'approche par images nécessite un nombre plus élevé de photographies que l'approche géométrique pour produire une image de qualité visuellement équivalente. Pour mitiger ce défaut, plusieurs chercheurs ont montré comment exploiter la forme de l'objet ou encore une approximation de celle-ci, obtenue par une approche géométrique, pour améliorer la qualité de l'interpolation. Cette forme permet un meilleur choix des rayons à utiliser pour interpoler un rayon inconnu puisque ce choix est maintenant basé sur la géométrie de l'objet. Ils arrivent ainsi à une diminution significative Résumé iii des artefacts autrement visibles lors de la synthèse. Une telle forme utilisée dans le but d'améliorer l'interpolation porte le nom de proxy, pour la distinguer de la forme de l'objet à laquelle elle n'a pas nécessairement à correspondre. L'utilisation d'un proxy correspond à une approche hybride, dès lors que l'obtention du proxy nécessite les hypothèses de l'approche géométrique. De ce fait, l'approche hybride limite malheureusement la portée de l'approche par images, qui autrement s'applique directement sans supposition au sujet de l'objet. L'idée principale de cette thèse vise remédier à cette situation en montrant que l'obtention d'un proxy n'a pas à s'appuyer sur l'approche géométrique et en partager les hypothèses. Plutôt que tenter d'obtenir un proxy qui approxime la forme de l'objet, on propose un proxy qui améliore directement la qualité de l'interpolation. La caractérisation de la forme recherchée viendra de l'analyse de la borne de l'erreur d'interpolation, issue de la théorie de l'approximation. Il deviendra clair qu'un proxy correspond à une reparamétrisation du domaine du champ de lumière qui en influence la régularité. Un proxy adapté mène à un champ de lumière régulier, ce qui diminue l'erreur d'interpolation et explique la diminution des artefacts visibles lors de la synthèse. On clarifie ainsi le rôle de la géométrie dans l'approche par images. Cette analyse suggère donc d'opter pour un proxy dont la forme maximise la régularité du champ de lumière correspondant, ce que l'on proposera de faire ensuite. Pour permettre cette recherche, on développe une mesure de régularité, appelée le contenu fréquentiel. Cette mesure possède plusieurs avantages comparativement aux mesures existantes dans l'approche géométrique, ce que l'on mettra en évidence. On utilisera le contenu fréquentiel pour obtenir des points de la surface qui maximise la régularité du champ de lumière, que l'on appellera surface de paramétrisation optimale. En cherchant à obtenir la surface de paramétrisation optimale, on rencontre divers problèmes d'ordre pratique. Le premier est la sensibilité du contenu fréquentiel aux erreurs de visibilité, ce qui nuit à sa minimisation. On résout ce problème en proposant une approche de minimisation robuste à ces erreurs. Une autre difficulté est que l'ensemble des points obtenus possède des profondeurs aberrantes, issues d'ambiguïtés quant aux profondeurs qui optimisent le contenu fréquentiel. On proposera une procédure de reconstruction de surface robuste basée sur les fonctions de base radiales combinées aux M-estimateurs. Cette procédure sera utilisée pour reconstruire la surface de paramétrisation optimale. Résumé iv La synthèse de vue d'objets divers à l'aide de la surface de paramétrisation optimale montrera qu'il est possible d'obtenir des résultats de qualité visuellement comparable à ceux que l'on obtient en utilisant la surface de l'objet. On explorera davantage les liens entre la surface de paramétrisation optimale et la surface de l'objet. On montre que les deux ne correspondent pas nécessairement, sauf dans le cas d'un objet lambertien texture, où la surface de l'objet atteint le maximum théorique de régularité. Dans ce cas, on évaluera les performances de l'approche proposée en comparant la surface de paramétrisation optimale à celle de l'objet, obtenue par un capteur télémétrique. Dans les autres cas, on montrera que la surface de paramétrisation optimale possède une forme qui tient compte des reflets dans l'objet. Elle mène ainsi à une géométrie originale qui constitue un meilleur proxy que la surface de l'objet elle-même. La surface de paramétrisation optimale est donc un candidat nouveau pour l'étude de la géométrie multi-vues.
116

Une approche pour supporter l'analyse qualitative des suites d'actions dans un environnement géographique virtuel et dynamique : l'analyse " What-if " comme exemple

Haddad, Hedi 16 April 2018 (has links)
Nous proposons une approche basée sur la géosimulation multi-agent et un outil d’aide à la décision pour supporter l’analyse « What-if » durant la planification des suites d’actions (plans) dans un environnement géographique dynamique. Nous présentons les caractéristiques du raisonnement « What-if » en tant 1) que simulation mentale 2) suivant un processus en trois étapes et 3) basé sur du raisonnement causal qualitatif. Nous soulignons les limites de la cognition humaine pour appliquer ce raisonnement dans le cadre de la planification des suites d’actions dans un environnement géographique dynamique et nous identifions les motivations de notre recherche. Ensuite, nous présentons notre approche basée sur la géosimulation multi-agent et nous identifions ses caractéristiques. Nous traitons en particulier trois problématiques majeures. La première problématique concerne la modélisation des phénomènes géographiques dynamiques. Nous soulignons les limites des approches existantes et nous présentons notre modèle basé sur le concept de situation spatio-temporelle que nous représentons en utilisant le formalisme de graphes conceptuels. En particulier, nous présentons comment nous avons défini ce concept en nous basant sur les archétypes cognitifs du linguiste J-P. Desclés. La deuxième problématique concerne la transformation des résultats d’une géosimulation multi-agent en une représentation qualitative exprimée en termes de situations spatio-temporelles. Nous présentons les étapes de traitement de données nécessaires pour effectuer cette transformation. La troisième problématique concerne l’inférence des relations causales entre des situations spatio-temporelles. En nous basant sur divers travaux traitant du raisonnement causal et de ses caractéristiques, nous proposons une solution basée sur des contraintes causales spatio-temporelles et de causalité pour établir des relations de causation entre des situations spatio-temporelles. Finalement, nous présentons MAGS-COA, une preuve de concept que nous avons implémentée pour évaluer l’adéquation de notre approche comme support à la résolution de problèmes réels. Ainsi, les principales contributions de notre travail sont: 1- Une approche basée sur la géosimulation multi-agent pour supporter l’analyse « What-if » des suites d’actions dans des environnements géographiques virtuels. 2- L’application d’un modèle issu de recherches en linguistique à un problème d’intérêt pour la recherche en raisonnement spatial. 3- Un modèle qualitatif basé sur les archétypes cognitifs pour modéliser des situations dynamiques dans un environnement géographique virtuel. 4- MAGS-COA, une plateforme de simulation et d’analyse qualitative des situations spatio-temporelles. 5- Un algorithme pour l’identification des relations causales entre des situations spatio-temporelles. / We propose an approach and a tool based on multi-agent geosimulation techniques in order to support courses of action’s (COAs) “What if” analysis in the context of dynamic geographical environments. We present the characteristics of “What if” thinking as a three-step mental simulation process based on qualitative causal reasoning. We stress humans’ cognition limits of such a process in dynamic geographical contexts and we introduce our research motivations. Then we present our multi-agent geosimulation-based approach and we identify its characteristics. We address next three main problems. The first problem concerns modeling of dynamic geographical phenomena. We stress the limits of existing models and we present our model which is based on the concept of spatio-temporal situations. Particularly, we explain how we define our spatio-temporal situations based on the concept of cognitive archetypes proposed by the linguist J-P. Desclés. The second problem consists in transforming the results of multi-agent geosimulations into a qualitative representation expressed in terms of spatio-temporal situations and represented using the conceptual graphs formalism. We present the different steps required for such a transformation. The third problem concerns causal reasoning about spatio-temporal situations. In order to address this problem, we were inspired by works of causal reasoning research community to identify the constraints that must hold to identify causal relationships between spatio-temporal situations. These constraints are 1) knowledge about causality, 2) temporal causal constraints and 3) spatial causal constraints. These constraints are used to infer causal relationships among the results of multi-agent geosimulations. Finally, we present MAGS-COA, a proof on concept that we implemented in order to evaluate the suitability of our approach as a support to real problem solving. The main contributions of this thesis are: 1- An approach based on multi-agent geosimulation to support COA’s “What if” analysis in the context of virtual geographic environments. 2- The application of a model proposed in the linguistic research community to a problem of interest to spatial reasoning research community. 3- A qualitative model based on cognitive archetypes to model spatio-temporal situations. 4- MAGS-COA, a platform of simulation and qualitative analysis of spatio-temporal situations. 5- An algorithm to identify causal relationships between spatio-temporal situations.
117

Phénoménologie au Palais de l'Intendant de Québec : l'archéologie numérique comme nouvelle méthode de recherche

Paradis, Marie-Anne 27 January 2024 (has links)
Ce projet de mémoire s'intéresse à une toute nouvelle approche d'analyse du site archéologique de l'Îlot des Palais en basse-ville de Québec : la phénoménologie en contexte numérique. À la suite de l'élaboration de l'environnement virtuel qui représente une première hypothèse du site en 1719, l'environnement est adapté à un système de réalité virtuelle. Ce contexte d'immersion et d'interaction permet une analyse de phénoménologie dépouillée des obstacles sensoriels du contexte urbain contemporain. Ce mémoire présente un article sur la méthodologie d'acquisition des informations brutes, leurs traitements en données archéologiques 3D et la production de l'environnement virtuel. Les résultats de l'analyse sont ensuite abordés en comparaison avec l'analyse de phénoménologie du site in situ. Enfin, nous terminons avec une discussion critique sur la démarche d'archéologie numérique qui pourrait être appliquée à d'autres cas d'études, les perspectives pour l'intégration en milieu professionnel et une réflexion sur l'utilisation comme outil de médiation grand public. / This dissertation project is interested in a new approach to analyze the archaeological site of the Îlot des Palais in the City of Quebec: phenomenology in a digital context. Following the development of the virtual environment which represents a first hypothesis of the site in 1719, the environment is adapted to a virtual reality system. This context of immersion and interaction allows an analysis of phenomenology stripped of the sensory obstacles of the contemporary urban context. This document presents an article on the methodology of raw information acquisition, their processing in 3D archaeological data and the production of the virtual environment. The results of the analysis are then discussed in comparison with the analysis of phenomenology of the site in situ. Finally, we end with a critical examination of the digital archaeology approach for scientific research that could be applied to other case studies, the prospect for integration in the private sector and a reflection on public mediation through this medium.
118

Réalité virtuelle pour évaluer les fonctions exécutives et la mémoire prospective à la suite d'un traumatisme craniocérébral modéré-grave

Caissy, Sarah 17 May 2024 (has links)
Le traumatisme craniocérébral modéré-grave (TCC) a une prévalence élevée au Canada. Il s'agit d'une condition neurologique qui affecte le fonctionnement cognitif. Parmi ces atteintes cognitives, les fonctions exécutives (FE) et la mémoire prospective (MP) sont particulièrement touchées lors d'un TCC. Cependant, les outils actuels pour les évaluer présentent plusieurs lacunes, dont leur faible validité écologique, ce qui ne permet pas d'avoir un portrait juste du fonctionnement quotidien. Une avenue intéressante pour améliorer la validité écologique est d'utiliser la réalité virtuelle. L'objectif du mémoire était d'examiner la validité d'un scénario multitâches effectué dans un environnement virtuel non-immersif d'appartement (VMT = Virtual Multitasking Test) pour évaluer la MP et les FE chez des adultes ayant subi un TCC modéré-grave et des participants contrôles. Les objectifs spécifiques étaient d'examiner les associations entre la performance au VMT et à des mesures neuropsychologiques traditionnelles (Tour de Londres, Zoo Map Test, CAMPROMPT) ainsi que d'examiner la validité discriminante du VMT afin de voir si celui-ci permet de départager le groupe TCC et le groupe contrôle. Quinze participants ayant subi un TCC modéré-grave (20% de femmes; moyenne de 43,5 ans; moyenne de 80 mois post-TCC) ont été recrutés et appariés à 15 participants contrôles. Les résultats indiquent des corrélations positives et modérées entre une mesure du fonctionnement exécutif (Tour de Londres) et différentes mesures du VMT. Une corrélation positive et modérée entre une mesure de la mémoire prospective (CAMPROMPT) et le score total du VMT est également observées. À l'égard du deuxième objectif, les résultats démontrent que le VMT a une sensibilité de 80% et une spécificité de 73% chez une population ayant subi un TCC modéré ou grave. Ces résultats indiquent que l'utilisation du VMT peut être efficace pour mesurer le fonctionnement cognitif et détecter des difficultés dans une population clinique ayant subi un TCC. / Moderate-severe traumatic brain injury (TBI) is highly prevalent in Canada. It is a neurological condition that can impair cognitive functioning. Among these cognitive impairments, executive function (EF) and prospective memory (PM) are particularly impaired in TBI. However, current tools for assessing these domains have a number of limitations, including low ecological validity, which does not provide an accurate picture of day-to-day functioning. An interesting avenue for improving ecological validity is to use virtual reality. The aim of this study was to examine the validity of a multitasking scenario performed in a non-immersive virtual apartment environment (VMT = Virtual Multitasking Test) to assess PM and EF in adults with moderate-severe TBI and control participants. The specific aims were to examine associations between performance on the VMT and traditional neuropsychological measures (Tower of London, Zoo Map Test, CAMPROMPT), and to examine the discriminant validity of the VMT in terms of its ability to discriminate between the TBI and control groups. Fifteen participants with moderate-severe TBI (20% female; mean 43.5 years; mean 80 months post-TBI) were recruited and matched to 15 control participants. The results indicate moderate correlations between a measure of executive functioning (Tower of London) and various VMT measures. A positive and moderate correlation between a measure of prospective memory (CAMPROMPT) and the VMT total score was also reported. With regard to the second objective, results showed that VMT had a sensitivity of 80% and a specificity of 73% in a population with moderate to severe TBI. These results indicate that the use of the VMT can be effective in measuring cognitive functioning and detecting difficulties in a clinical population with TBI.
119

Automated generation of geometrically-precise and semantically-informed virtual geographic environnements populated with spatially-reasoning agents

Mekni, Mehdi 16 April 2018 (has links)
La Géo-Simulation Multi-Agent (GSMA) est un paradigme de modélisation et de simulation de phénomènes dynamiques dans une variété de domaines d'applications tels que le domaine du transport, le domaine des télécommunications, le domaine environnemental, etc. La GSMA est utilisée pour étudier et analyser des phénomènes qui mettent en jeu un grand nombre d'acteurs simulés (implémentés par des agents) qui évoluent et interagissent avec une représentation explicite de l'espace qu'on appelle Environnement Géographique Virtuel (EGV). Afin de pouvoir interagir avec son environnement géographique qui peut être dynamique, complexe et étendu (à grande échelle), un agent doit d'abord disposer d'une représentation détaillée de ce dernier. Les EGV classiques se limitent généralement à une représentation géométrique du monde réel laissant de côté les informations topologiques et sémantiques qui le caractérisent. Ceci a pour conséquence d'une part de produire des simulations multi-agents non plausibles, et, d'autre part, de réduire les capacités de raisonnement spatial des agents situés. La planification de chemin est un exemple typique de raisonnement spatial dont un agent pourrait avoir besoin dans une GSMA. Les approches classiques de planification de chemin se limitent à calculer un chemin qui lie deux positions situées dans l'espace et qui soit sans obstacle. Ces approches ne prennent pas en compte les caractéristiques de l'environnement (topologiques et sémantiques), ni celles des agents (types et capacités). Les agents situés ne possèdent donc pas de moyens leur permettant d'acquérir les connaissances nécessaires sur l'environnement virtuel pour pouvoir prendre une décision spatiale informée. Pour répondre à ces limites, nous proposons une nouvelle approche pour générer automatiquement des Environnements Géographiques Virtuels Informés (EGVI) en utilisant les données fournies par les Systèmes d'Information Géographique (SIG) enrichies par des informations sémantiques pour produire des GSMA précises et plus réalistes. De plus, nous présentons un algorithme de planification hiérarchique de chemin qui tire avantage de la description enrichie et optimisée de l'EGVI pour fournir aux agents un chemin qui tient compte à la fois des caractéristiques de leur environnement virtuel et de leurs types et capacités. Finalement, nous proposons une approche pour la gestion des connaissances sur l'environnement virtuel qui vise à supporter la prise de décision informée et le raisonnement spatial des agents situés.
120

Modélisation multi-échelle d'environnements urbains peuplés : application aux simulations multi-agents des déplacements multimodaux

Chaker, Walid 16 April 2018 (has links)
Nous abordons dans cette thèse la problématique liée à la modélisation d'environnements urbains virtuels pour des fins de simulation de la mobilité. En premier lieu, nous proposons une nouvelle approche de conception d'un Environnement Urbain Virtuel (EUV) permettant une modélisation multi-échelle grâce à l'utilisation d'un patron de conception qui met en relation les lieux d'activité et les différents réseaux de transport. Dans ce patron, une notion simple de desserte nous permet de modéliser à la fois l'accès à des lieux, le transfert modal et le changement d'échelle. Ce patron peut être spécialisé dans diverses structures à diverses échelles (macro, méso, micro, etc.). Nous formalisons l'EUV en utilisant la théorie des graphes, ce qui permet une implantation rigoureuse de ces concepts, tout en tenant compte des principales fonctions classiquement utilisées pour la simulation des parcours dans les réseaux de transports. En second lieu, nous proposons une démarche pour enrichir l'EUV avec les données de la population qui l'occupe afin d'aboutir à l'Environnement Urbain Peuplé (EUP). Le modèle de l'EUP regroupe alors à la fois la demande et l'offre en transports. Notre démarche réduit le problème en deux sous-problèmes semblables mais qui se traitent différemment: 1) l'allocation des attributs non spatiaux (donc la génération de la population synthétique) en combinant une approche de reconstruction synthétique avec un algorithme d'apprentissage non supervisé et 2) l'allocation des attributs spatiaux (donc l'assignation des lieux d'occupation) en combinant une approche de prédiction des temps de parcours (avec l'utilisation potentielle d'un algorithme d'apprentissage supervisé) avec un algorithme d'appariement dans un graphe biparti et pondéré. Au niveau de la validation, en plus des méthodes statistiques qui existent pour mesurer la vraisemblance d'une population synthétique, nous proposons une série de validations unitaires devant se faire au moment même de la création de l'EUP. Nous présentons TransNetSim, la plateforme de simulation multi-agent des déplacements que nous avons développée et qui tire partie de tous les avantages de notre modèle de l'EUP. En comparant TransNetSim par rapport à des outils existants, nous montrons qu'il regroupe un ensemble de caractéristiques qui font de lui un prototype prometteur. Particulièrement, le principe de la matrice de routage dans laquelle on compile tous les chemins optimaux en prétraitement offre un grand apport au niveau de la faisabilité computationnelle de l'approche multi-échelle. L'utilisation de la plateforme a été illustrée par la simulation du trafic de véhicules dans la ville de Québec à une échelle méso et dans le campus universitaire à une échelle micro. Finalement, nous montrons comment l'utilisation d'outils SOLAP permet d'une façon simple et efficace d'analyser et de calibrer les résultats de nos simulations (génération de la population synthétique, données résultant de la simulation du trafic).

Page generated in 0.0507 seconds