• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 92
  • 79
  • 47
  • 1
  • Tagged with
  • 235
  • 235
  • 164
  • 161
  • 159
  • 158
  • 149
  • 108
  • 42
  • 36
  • 35
  • 31
  • 31
  • 30
  • 29
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Serious Games pour la e-Santé : application à la formation des médecins généralistes

Guo, Jing 16 September 2016 (has links) (PDF)
Les Jeux Sérieux (Serious Games) sont des jeux vidéo qui sont conçus avec un objectif premier qui n’est pas le divertissement. Les jeux sérieux sont de plus en plus utilisés dans le domaine de la santé en tant qu’outil éducatif dans le cadre de la formation à la médecine, ou pour aider au rétablissement des patients. Dans cette thèse, nous nous intéressons à la conception d’un jeu sérieux pour la formation des médecins généralistes, en nous intéressant tout particulièrement à l’apprentissage des compétences communicationnelles et interpersonnelles qui jouent un rôle très important dans le métier de médecin, et qui sont assez peu présentes dans les programmes des cursus de formation. Nous nous intéressons en particulier aux méthodologies de conception d’un tel jeu qui doit délivrer un contenu utilitaire tout en équilibrant apprentissage et divertissement. Afin de mener ce travail, nous présentons dans la première partie de la thèse une analyse des méthodes existantes de conception de jeux sérieux en étudiant en particulier les mécanismes permettant de motiver le joueur ainsi que les principaux design patterns de conception. Nous expliquons en quoi les jeux sérieux nécessitent une architecture particulière dont la principale caractéristique est de séparer clairement les concepts nécessaires à l’apprentissage de ceux liés à l’aspect ludique. Nous proposons ensuite une modélisation de la consultation médicale qui en plus de rendre compte du processus métier auquel elle correspond, permet de représenter les différents éléments nécessaires à l’implémentation algorithmique d’un moteur de dialogue entre un joueur et un patient virtuel. Cette modélisation utilise les ontologies pour décrire les connaissances impliquées et nous montrons comment un scénario de consultation médicale peut se décrire en termes d’instances de ces ontologies. Ces ontologies incluent quatre niveaux qui décrivent le profil du patient, le résultat de consultation, le scénario et la phrase. Cette description est accessible aux experts formateurs qui disposent donc d’un outil leur permettant de définir les objectifs pédagogiques que le joueur-apprenant doit atteindre au cours de la simulation. Ces analyses sont enfin appliquées au cas de la consultation médicale et nous décrivons l’architecture d’un jeu que nous avons conçu appelé AgileDoctor. Ce jeu a pour objectif de permettre à un apprenant de jouer le rôle d’un médecin qui mène des consultations médicales en accueillant des patients aux profils divers.
2

Intégration d'instructions data-parallèles dans le langage PSC et compilation pour processeur SIMD (INTEL SSE)

Langlais, Michel January 2013 (has links) (PDF)
II existe des instructions data-parallèles dans les processeurs modernes. Ces instructions permettent d'effectuer la même opération sur plusieurs données différentes en parallèle. Présentement il est difficile de programmer des logiciels qui utilisent ces instructions data-parallèles avec les solutions existantes, Nous avons donc exploré l'utilisation d'un langage destiné à la programmation des circuits parallèles comme les FPGA (Field Programmable Gate Array) pour fabriqué un logiciel qui permet d'utiliser ces instructions data-parallèles de manière simple et efficace. Un langage de haut niveau pour la programmation des FPGA. le langage psC- Parallel and Synchronous C- a été choisi, Sa syntaxe proche du C, son paradigme entièrement parallèle et la disponibilité du code source ont justifié ce choix, II y a plusieurs années, les gens pensaient qu'aujourd'hui l'optimisation ne serait plus aussi importante qu'elle l'était pour eux. Ils disaient que la quantité de mémoire et la puissance de calculs des processeurs ferait en sorte que le gain en temps ne vaudrait pas l'effort de programmation nécessaire pour programmer du code optimisé. Maintenant, nous savons que ce n'est pas le cas. Les processeurs ont certes eu un gain de performance important, mais les tâches qu'ils accomplissent nécessitent de plus en plus de puissance de calculs et de mémoire. Aujourd'hui, une bonne partie de la puissance de calculs s'obtient par l'utilisation des instructions data-parallèles disponibles dans les processeurs modernes. Pour inclure ces instructions data-parallèles dans un logicieL il n'y a pas beaucoup d'alternatives disponibles. Ce travail a consisté à réaliser un compilateur complet pour machine SIMD. Une nouvelle syntaxe permettant de supporter les instructions data-parallèles a été définie et intégrée à celle du langage psC. L'algorithme de génération de code assembleur pour les instructions data-parallèles de type SSE d'Intel a été implémenté et testé. Finalement, trois applications ont été programmées et les performances de rapidité d'exécution comparées à diverses méthodes classiques de programmation. Les résultats montrent que les performances obtenu par le langage psC est toujours situé entre celui obtenu par un expert codant en langage assembleur et celui obtenu par les compilateurs C et C++, Ceci correspond à ce qui était désiré. En conclusion, ce travail de recherche a démontré qu'il était possible d'utiliser un langage HL-HDL (High Level Hardware Description Language) pour générer du code qui bénéficie des instructions data-parallèles. Le gain en performance de F implementation psC est présenté pour tous les cas étudié, et se rapproche de F implementation assembleur qui est le maximum atteignable.
3

Analyse automatique des traces d'événements : une étude comparative

Mrad, Aouatef January 2013 (has links) (PDF)
L'analyse des traces d'événements permet d'identifier des erreurs dans l'exécution du système ou la violation de certaines politiques. Le principe de cette analyse consiste à vérifier si un système respecte un contrat donné. Un "contrat d'interface" est une définition formelle de ce qui constitue une interaction valide avec un système particulier. Bien qu'ils ne soient pas toujours nommés ainsi, de tels contrats existent sous de nombreuses formes dans un grand nombre de domaines. Par exemple, la séquence de messages HTTP acceptés par un service web définit un protocole qui peut être formalisé sous forme de contrat. De la même manière, le concept peut être appliqué en programmation orientée-objet pour spécifier les séquences valides d'appels de méthodes d'une classe, ou plus généralement pour décrire n'importe quelle séquence d'événements générée par un système. Plusieurs formalismes, d'expressivité variable, existent pour exprimer un contrat. Dans la dernière décennie, plusieurs outils et algorithmes d'analyse des traces d'événements ont été développés par des chercheurs. La plupart de ces outils sont mal documentés en ce qui a trait à leur performance. De plus, la mémoire et le temps consommés varient beaucoup d'un scénario à un autre sans qu'il existe un consensus à savoir quelle méthode fonctionne le mieux. L'objectif de ce mémoire est de pallier à ce manque et de comparer divers outils d'analyse de traces sur divers jeux des données. Ce mémoire de maitrise apporte des solutions à la problématique énoncé. Une interface graphique, appelée BabelTrace, a été implémentée pour résoudre ses problèmes. Une comparaison entre l'ensemble des outils étudiés dans ce mémoire, sur des scénarios réalistes, a montré que les meilleures performances sont obtenues en utilisant l'outil Monpoly. Enfin, lés systèmes de gestion de base de données ont donné de bons résultats en les comparant avec les model checker tels que SPIN et NuSMV.
4

A fuzzy temporal data-mining model for activity recognition in smart homes

Amirjavid, Farzad January 2013 (has links) (PDF)
At present time, aging of the population is one of the main challenges of the 21st century. The current situation is leading to an increased number of people afflicted with cognitive disorders such as Alzheimer's disease. This group of people suffers from a progressive decline in their abilities to perform what are called the activities of the daily living (ADLs).The consequence of this reality is the urgent need for more home assistance services, as these people desire to continue living independently at home. To address this important issue, Smart Home laboratories such as LIARA, DOMUS and MavHome perform research in order to propose technological solutions for assistance provision to residents of the Smart Home. Assisting people in carrying out their ADLs, increasing quality of life and optimizing spent energy are some of the goals in Smart Home design. Technically speaking, a Smart Home is an ambient environment which, through its embedded sensors, captures data resulting from the observation of activities carried out in this environment. This data is then analyzed by artificial intelligence techniques in order to provide information about home state normality and needed assistance. In the end, the system aims to intervene by providing guidance through its actuators. In this context, activity recognition becomes a key element in order to be able to provide adequate information services at the right moment. This thesis aims to contribute to this important challenge relating to activity recognition in the Smart Home designed for cognitive assistance. This contribution follows in the footsteps of temporal data mining and activity recognition approaches, and proposes a new way to automatically recognize and memorize ADLs from low-level sensors. From a formal point of view, the originality of the thesis relies on the proposition of a new unsupervised temporal datamining model for activity recognition addressing the problem of current temporal approaches based on Allen's framework. This new model incorporates some applications of fuzzy logic in order to take into account the uncertainty present in the realization of daily living activities by the resident. More specifically, we propose an extension of the fuzzy clustering technique in order to cluster the observations based on the degree of similarity between observations, so that activities are modeled and recognized. Moreover, anomaly recognition, decision making for assistance provision and judgment for simultaneous activities are some of the applicative contributions of this thesis. From a practical and experimental standpoint, the contribution of this research has been validated in order to evaluate how it would perform in a realistic context. To achieve this, we used MATLAB software as a simulation platform to test the proposed model. We then performed a series of tests which took the form of several case studies relating to common activities of daily living, in order to show the functionality and efficiency of the proposed temporal data-mining approach for real-life cases. This was especially relevant to the activity recognition application. We obtained very promising results which have been analyzed and compared to existing approaches. Finally, most parts of the contribution presented in this thesis have been published in documents ensuing from reputed international conferences (Springer LNCS proceedings [7], AAAI symposium and workshops [8, 9], MAICS [10], IEEE [11]) and a recognized journal (Springer Journal of Ambient Intelligence and Humanized Computing [12, 13]). This clearly constitutes recognition showing the potential of the proposed contribution.
5

Utilisation d'un modèle variationnel pour l'inspection des dimensions à l'aide de la vision par ordinateur

Fournier, Réjean January 1992 (has links) (PDF)
Le développement de la vision par ordinateur a amené son utilisation pour l'inspection dimensionnelle. Dans le domaine de la conception assistée par ordinateur (CAO), une nouvelle méthode de modélisation a été développée: la géométrie variationnelle. Le présent mémoire fait le lien entre un modèle variationnel et l'inspection des dimensions à l'aide de la vision par ordinateur. Le modèle est enregistré dans une base de données paramétriques équivalente à celle que pourrait produire un logiciel de CAO. La première partie porte sur l'élaboration d'un modèle variationnel simple en deux dimensions. La deuxième partie porte sur l'utilisation du processus de vision par ordinateur permettant d'extraire l'information voulue d'une image. L'image utilisée est celle produite par une caméra CCD. Un progiciel a été développé qui fait le lien entre le modèle et les données obtenues avec la vision par ordinateur. Le système développé est utilisable pour des objets de type polygone à n côtés. Des résultats expérimentaux ont été obtenus avec différents exemples. Ils ont permis de démontrer que le système est très bien adapté pour la vérification des paramètres du modèle. L'utilisation du modèle lors du processus de vision permet le calcul des paramètres réels et de leur précision. Si le modèle contient les paramètres et leurs tolérances, la comparaison peut être faite avec les données obtenues par la vision. Le modèle variationnel est utilisable pour la vérification dimensionnelle à l'aide de la vision par ordinateur. Un des avantages est d'utiliser le même modèle pour la vision que celui utilisé pour la conception. La vérification des dimensions se fait alors sur les paramètres du modèle.
6

Modèle collaboratif pour l'Internet of Things (IoT)

Saad, Rabeb 05 1900 (has links) (PDF)
L'Internet of Things (IoT) consiste principalement à connecter des objets physiques à l'Internet. Le Web of Things (WoT) est un IoT plus spécifique qui vise à apporter des technologies et des normes du Web à l'IoT, L'émergence de l'IoT et du WoT offre un grand potentiel pour le développement de nouveaux services et applications connectant le monde physique au monde virtuel, un processus qui n'était pas possible auparavant. De nos jours, il existe de nombreuses plateformes et applications pour l’IoT. Cependant, et au mieux de notre connaissance, ils se limitent généralement dans leur champ d'application à un simple schéma de stockage et de récupération des données. Dans une tentative de profiter de cette occasion, ce mémoire de maîtrise présente un modèle théorique qui offre un ensemble de primitives et une nouvelle stratégie de collaboration pour partager les données dans le monde de l’IoT. Basé sur une stratégie de décentralisation, ce modèle propose une approche de propagation des données qui se concrétise dans les trois phases suivantes : i) la découverte de services, ii) la sélection de services et iii) la consommation de services, et cela au-delà d’une simple politique de contrôle d’accès. Ce travail présente aussi un langage dédié appelé IoTCollab, qui est conçu pour faciliter la programmation et l'intégration des différents concepts introduits par le modèle de partage de données.
7

Intégration d'instructions data-parallèles dans le langage PSC et compilation pour processeur SIMD (INTEL SSE)

Langlais, Michel January 2013 (has links) (PDF)
II existe des instructions data-parallèles dans les processeurs modernes. Ces instructions permettent d'effectuer la même opération sur plusieurs données différentes en parallèle. Présentement il est difficile de programmer des logiciels qui utilisent ces instructions data-parallèles avec les solutions existantes, Nous avons donc exploré l'utilisation d'un langage destiné à la programmation des circuits parallèles comme les FPGA (Field Programmable Gate Array) pour fabriqué un logiciel qui permet d'utiliser ces instructions data-parallèles de manière simple et efficace. Un langage de haut niveau pour la programmation des FPGA. le langage psC- Parallel and Synchronous C- a été choisi, Sa syntaxe proche du C, son paradigme entièrement parallèle et la disponibilité du code source ont justifié ce choix, II y a plusieurs années, les gens pensaient qu'aujourd'hui l'optimisation ne serait plus aussi importante qu'elle l'était pour eux. Ils disaient que la quantité de mémoire et la puissance de calculs des processeurs ferait en sorte que le gain en temps ne vaudrait pas l'effort de programmation nécessaire pour programmer du code optimisé. Maintenant, nous savons que ce n'est pas le cas. Les processeurs ont certes eu un gain de performance important, mais les tâches qu'ils accomplissent nécessitent de plus en plus de puissance de calculs et de mémoire. Aujourd'hui, une bonne partie de la puissance de calculs s'obtient par l'utilisation des instructions data-parallèles disponibles dans les processeurs modernes. Pour inclure ces instructions data-parallèles dans un logicieL il n'y a pas beaucoup d'alternatives disponibles. Ce travail a consisté à réaliser un compilateur complet pour machine SIMD. Une nouvelle syntaxe permettant de supporter les instructions data-parallèles a été définie et intégrée à celle du langage psC. L'algorithme de génération de code assembleur pour les instructions data-parallèles de type SSE d'Intel a été implémenté et testé. Finalement, trois applications ont été programmées et les performances de rapidité d'exécution comparées à diverses méthodes classiques de programmation. Les résultats montrent que les performances obtenu par le langage psC est toujours situé entre celui obtenu par un expert codant en langage assembleur et celui obtenu par les compilateurs C et C++, Ceci correspond à ce qui était désiré. En conclusion, ce travail de recherche a démontré qu'il était possible d'utiliser un langage HL-HDL (High Level Hardware Description Language) pour générer du code qui bénéficie des instructions data-parallèles. Le gain en performance de F implementation psC est présenté pour tous les cas étudié, et se rapproche de F implementation assembleur qui est le maximum atteignable.
8

Analyse automatique des traces d'événements : une étude comparative

Mrad, Aouatef January 2013 (has links) (PDF)
L'analyse des traces d'événements permet d'identifier des erreurs dans l'exécution du système ou la violation de certaines politiques. Le principe de cette analyse consiste à vérifier si un système respecte un contrat donné. Un "contrat d'interface" est une définition formelle de ce qui constitue une interaction valide avec un système particulier. Bien qu'ils ne soient pas toujours nommés ainsi, de tels contrats existent sous de nombreuses formes dans un grand nombre de domaines. Par exemple, la séquence de messages HTTP acceptés par un service web définit un protocole qui peut être formalisé sous forme de contrat. De la même manière, le concept peut être appliqué en programmation orientée-objet pour spécifier les séquences valides d'appels de méthodes d'une classe, ou plus généralement pour décrire n'importe quelle séquence d'événements générée par un système. Plusieurs formalismes, d'expressivité variable, existent pour exprimer un contrat. Dans la dernière décennie, plusieurs outils et algorithmes d'analyse des traces d'événements ont été développés par des chercheurs. La plupart de ces outils sont mal documentés en ce qui a trait à leur performance. De plus, la mémoire et le temps consommés varient beaucoup d'un scénario à un autre sans qu'il existe un consensus à savoir quelle méthode fonctionne le mieux. L'objectif de ce mémoire est de pallier à ce manque et de comparer divers outils d'analyse de traces sur divers jeux des données. Ce mémoire de maitrise apporte des solutions à la problématique énoncé. Une interface graphique, appelée BabelTrace, a été implémentée pour résoudre ses problèmes. Une comparaison entre l'ensemble des outils étudiés dans ce mémoire, sur des scénarios réalistes, a montré que les meilleures performances sont obtenues en utilisant l'outil Monpoly. Enfin, lés systèmes de gestion de base de données ont donné de bons résultats en les comparant avec les model checker tels que SPIN et NuSMV.
9

A fuzzy temporal data-mining model for activity recognition in smart homes

Amirjavid, Farzad January 2013 (has links) (PDF)
At present time, aging of the population is one of the main challenges of the 21st century. The current situation is leading to an increased number of people afflicted with cognitive disorders such as Alzheimer's disease. This group of people suffers from a progressive decline in their abilities to perform what are called the activities of the daily living (ADLs).The consequence of this reality is the urgent need for more home assistance services, as these people desire to continue living independently at home. To address this important issue, Smart Home laboratories such as LIARA, DOMUS and MavHome perform research in order to propose technological solutions for assistance provision to residents of the Smart Home. Assisting people in carrying out their ADLs, increasing quality of life and optimizing spent energy are some of the goals in Smart Home design. Technically speaking, a Smart Home is an ambient environment which, through its embedded sensors, captures data resulting from the observation of activities carried out in this environment. This data is then analyzed by artificial intelligence techniques in order to provide information about home state normality and needed assistance. In the end, the system aims to intervene by providing guidance through its actuators. In this context, activity recognition becomes a key element in order to be able to provide adequate information services at the right moment. This thesis aims to contribute to this important challenge relating to activity recognition in the Smart Home designed for cognitive assistance. This contribution follows in the footsteps of temporal data mining and activity recognition approaches, and proposes a new way to automatically recognize and memorize ADLs from low-level sensors. From a formal point of view, the originality of the thesis relies on the proposition of a new unsupervised temporal datamining model for activity recognition addressing the problem of current temporal approaches based on Allen's framework. This new model incorporates some applications of fuzzy logic in order to take into account the uncertainty present in the realization of daily living activities by the resident. More specifically, we propose an extension of the fuzzy clustering technique in order to cluster the observations based on the degree of similarity between observations, so that activities are modeled and recognized. Moreover, anomaly recognition, decision making for assistance provision and judgment for simultaneous activities are some of the applicative contributions of this thesis. From a practical and experimental standpoint, the contribution of this research has been validated in order to evaluate how it would perform in a realistic context. To achieve this, we used MATLAB software as a simulation platform to test the proposed model. We then performed a series of tests which took the form of several case studies relating to common activities of daily living, in order to show the functionality and efficiency of the proposed temporal data-mining approach for real-life cases. This was especially relevant to the activity recognition application. We obtained very promising results which have been analyzed and compared to existing approaches. Finally, most parts of the contribution presented in this thesis have been published in documents ensuing from reputed international conferences (Springer LNCS proceedings [7], AAAI symposium and workshops [8, 9], MAICS [10], IEEE [11]) and a recognized journal (Springer Journal of Ambient Intelligence and Humanized Computing [12, 13]). This clearly constitutes recognition showing the potential of the proposed contribution.
10

Étude de faisabilité du runtime monitoring dans les jeux vidéo

Varvaressos, Simon January 2014 (has links) (PDF)
Dans le domaine des jeux vidéo, beaucoup de bogues se retrouvent sur le marché malgré les différentes phases de tests. Pour une industrie basée sur le divertissement, rencontrer des bogues qui empêchent le déroulement normal du jeu (dits « game breaking ») peut nuire à la vente du produit. Toutefois, la plupart des techniques d'assurance-qualité connues ne sont pas adaptées aux jeux vidéo. Il existe une technique de vérification, le runtime monitoring, qui observe l'exécution d'un système et pourrait améliorer la tâche d'élimination des bogues. Ce projet a pour objectif de prouver la faisabilité de l'utilisation d'une telle technique dans ce domaine. Ce travail vise à améliorer le processus de recherche et d'élimination des bogues retrouvés dans l'entreprise ainsi qu'à agrandir le champ d'action des méthodes formelles. Pour ce faire, ce mémoire propose une nouvelle méthode d'instrumentation prenant en compte des caractéristiques propres aux jeux vidéo. Ce mémoire ne représente qu'une première partie d'un projet plus grand visant non seulement à rendre possible l'utilisation du runtime monitoring mais aussi à améliorer le processus de détection des bogues en facilitant la tâche des testeurs et développeurs.

Page generated in 0.0626 seconds