• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2447
  • 1618
  • 1255
  • 21
  • 6
  • 6
  • 2
  • 2
  • 1
  • Tagged with
  • 5650
  • 3140
  • 3002
  • 1276
  • 692
  • 690
  • 662
  • 645
  • 620
  • 597
  • 486
  • 476
  • 457
  • 453
  • 438
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
231

Semantic web and business application

Wei, Ran January 2011 (has links) (PDF)
Le sujet principal concerne les Techniques Sémantiques et le RDF qui est utilisé pour indiquer les ressources dans les systèmes répartis sur l'ensemble du réseau (la base des données). Il y a des mises en oeuvre pour deux projets : FOAF et un type de concept sémantique. Suit la description du modèle d'entreprise et la discussion sur le réseau sémantique et les sujets connexes sont aussi démontrés dans les chapitres suivants. Une étude des problèmes et des expériences faites sur les concepts d'un réseau sémantique a été utilisée pour intégrer une petite application; non seulement suggérer une méthodologie pratique (qui pourrait servir à exécuter ce concept), mais il y a aussi mention des restrictions de cette nouvelle technologie de logiciel. Le concept de réseau sémantique ajoute un niveau d'abstraction supplémentaire au Web: les machines peuvent manipuler les données comme des connaissances.. Le nouveau système réseau offre l'opportunité aux ordinateurs de comprendre le contenu des données. La thèse démontre que les machines comprennent l'information et l'utilisent comme leur propre connaissance. Cette étape exige une recherche supplémentaire dont la connaissance normale est similaire au complexe fonctionnement du cerveau humain. Le développement de mon sujet offre la possibilité de cela et cette thèse démontre bien la base de cette théorie.
232

A new approach to dynamic difficulty adjustment in video games

Tremblay, Jonathan January 2011 (has links) (PDF)
L'arrivée de nouvelles consoles de jeux vidéo tel que la Wii de Nintendo ont ouvert l'industrie du jeux vidéo aux «joueurs casuals ». Dans cette nouvelle réalité, joueurs expérimentés et joueurs inexpirémentés évoluent dans le même environnement. Ils cherchent a s'amuser par le biais de différentes expériences et de sessions de jeu, c'est ici que le jeu devrait se plier aux exigences du joueur. C'est important pour le joueur de s'amuser en jouant, l'industrie du jeu vidéo se repose sur cette facette afin de porter les joueurs à consommer leurs produits. Cependant, l'amusement est difficile à définir et encore plus à créer dans les jeux. Afin de comprendre l'amusement dans les jeux vidéo, les chercheurs utilisent la définition de la théorie du "flow" qui se repose fortement sur la compréhension forte d'un état émotionnel qui est lié à l'amusement. C'est incontestable que les jeux doivent assurer que le joueur puisse expérimenter une forme de "flow", dans un tel cas, le jeu doit comprendre le niveau d'habilité du joueur afin de pouvoir offrir un défi qui est à la hauteur des habilités qui sont spécifique au joueur. Le but de cette recherche est de répondre à cette problématique en proposant un modèle adaptatif d'ajustement dynamique (DDA), en temps réel, du niveau de difficulté afin d'améliorer l'expérience de jeu pour le joueur. Ce modèle a été implémenté afin de le valider sous la forme d'un petit jeu sérieux (combat/mathématique). Grâce à ce prototype, 32 personnes ont testé et répondu à un questionnaire portant sur leur expérience de jeu. Les résultats de cette expérience sont très prometteurs, démontrant la valeur du modèle proposé et pointant vers des indices pour des améliorations futures.
233

The two-machine open shop problem with time delays

Zhang, Li Chuan January 2012 (has links) (PDF)
Research on scheduling problems as we know it nowadays dates back to 1950s. Indeed, in 1954, Johnson described an exact algorithm to minimize the overall completion time (known as the makespan) for the two-machine flow shop problem. This resulted in a new discipline of operational research known as scheduling theory. Scheduling theory deals with the attempt of using a set of scarce resources in accomplishing variegated tasks in order to optimize one or several criteria. The resources and tasks are commonly referred to as machines and jobs, respectively. There is a broad spectrum of definitions for the tasks and resources. For example, the resources can take the form of production lines in workshops, airport runways, school classrooms, etc. Furthermore, the process of fulfilling a task in a given machine is sometimes called an operation. For instance, a task may be represented by the work-pieces processed on production lines, the aircrafts taking off and landing at airports, the teachers lecturing in classrooms and so on. Let us note at this stage that machines and jobs may have been characterized by many other factors such as speed, time of availability, duplication, etc for the former, and precedence constraints, due dates, time lags for the latter. These factors must be taken into consideration when formulating a scheduling strategy if we want to produce a realistic solution. Generally speaking, scheduling problems fall into the following three categories: A single machine model, parallel machines model and multi-operation model. The models known as multi-operation model are flow-shop, open shop and job shop. In addition, a scheduling solution is evaluated according to a given criterion or sometimes to a set of given criteria such as the minimization of makespan, mean finish time, number of tardy jobs, etc. This thesis is mainly concerned with the problems of minimizing the makespan criterion in a two-machine open shop environment with time delay considerations. In order to better approach the resolution of this problem, some basic concepts on scheduling theory and related knowledge, such as the theory of NP-completeness, have been introduced. It is important to analyze the advantages and disadvantages of different algorithms, in order to come up with an adequate solution. We presented in this dissertation the resolution of the two-machine open shop problem with time delays along the following lines. First, we start by looking at special cases to solve to optimality in polynomial time. Then, we move onto the design of heuristic algorithms, based on simple rules. Finally, we discuss two meta-heuristic algorithms and lower bounds, and undertake simulation experiments to analyze their performance in the average case. For heuristic algorithms, we discussed some approaches that evaluate their performance. Regarding the meta-heuristic approach, we used the simulated annealing and the tabu search algorithms, respectively. We then improved the second approach by adding the intensification and diversification strategies. Finally, we proposed a new hybrid approach to solve our original open shop problem in the hope to improve and speed up the quality of the solution.
234

Une approche de reconnaissance d'activités utilisant la fouille de données temporelles

Moutacalli, Mohamed Tarik January 2012 (has links) (PDF)
L'assistance d'une personne atteinte de la maladie d'Alzheimer est une tâche difficile, coûteuse et complexe. La relation est souvent compliquée entre l'aidant et le patient qui souhaite préserver son intimité. Avec l'émergence du domaine de l'intelligence ambiante, les recherches se sont orientées vers une assistance automatisée qui consiste à remplacer l'assistant par un agent artificiel. Le plus grand défi de cette solution réside dans la reconnaissance, voire la prédiction, de l'activité du patient afin de l'aider, au besoin et au moment opportun, à son bon déroulement. Le nombre très élevé des activités de la vie quotidienne (AVQ) que le patient peut effectuer, ce que nous appelons aussi le nombre d'hypothèses, complique grandement cette recherche. En effet, comme chaque activité se compose de plusieurs actions, cette recherche se traduit donc par la recherche de la ou les actions effectuées par le patient parmi toutes les actions de toutes ses activités et ce, en un temps réel. Ce mémoire de maîtrise explore les techniques de la fouille de données temporelles afin de proposer une réponse à cette problématique en essayant de réduire au maximum, à un instant précis, le nombre d'hypothèses. Le travail débute par une analyse de l'historique des actions du patient pour créer des plans d'activités. Des plans propres à chaque patient et qui spécifient la liste ordonnée des actions qui composent une activité. Ensuite, une segmentation temporelle est effectuée sur chaque plan créant un ou plusieurs intervalles temporels résumant les périodes de commencement de l'activité. La troisième étape consiste à implémenter un système de reconnaissance d'activité pour trouver, à tout instant, l'activité la plus probable. Ce travail se base essentiellement sur l'aspect temporel et n'offre pas juste une solution pour la reconnaissance d'activité, mais il répond aussi aux erreurs d'initiations. Des erreurs susceptibles d'être commises par les malades d'Alzheimer et qui n'ont jamais été traitées par aucune autre recherche. Les tests et validations de notre approche ont été effectués avec des données réelles enregistrées après l'observation de réels malades d'Alzheimer et les résultats sont très satisfaisants.
235

Système intelligent d'aide au contrôle de procédé dans un four à arc

Girard-Nault, Jimmy January 2012 (has links) (PDF)
Le contrôle de procédé est une tâche difficile. C'est particulièrement le cas lorsque le système possède des non-linéarités, comme des réactions chimiques ou des imprévus. Nous retrouvons ce genre de procédé dans les fours à arc qui sont utilisés notamment dans la production d'acier et de ferrosilicium. En plus de faire face à plusieurs sources de nonlinéarités, nous sommes dans l'impossibilité de connaître et mesurer exactement ce qui se passe à l'intérieur du four. Le manque de contrôle et d'automatisme lié à ces problèmes amène les opérateurs à devoir prendre des décisions importantes qui auront un impact sur le déroulement du procédé. Puisqu'elles se basent la plupart du temps sur l'expérience et l'intuition des travailleurs, il est facile de déduire que les décisions prises ne seront pas toujours les plus efficaces. Par contre, la probabilité d'être en erreur est diminuée plus l'opérateur possède de l'expertise. Or, ce n'est pas tout le monde qui possède la même expertise et les ressources expérimentées sont rares et coûteuses. De plus, lors du départ à la retraite d'un employé, cette connaissance est souvent perdue. Dans le but d'améliorer le contrôle et l'automatisation du procédé, des auteurs proposent des solutions liées au contrôle de sous-systèmes. Ainsi, nous retrouvons un nombre assez limité de modèles qui permettent de contrôler la position des électrodes, d'améliorer l'efficacité énergétique, d'estimer la température du métal en fusion, etc. Mais ceux-ci sont limités à leurs soussystèmes respectifs. De plus, ils n'utilisent pas l'expertise des opérateurs et ils ne permettent pas de la conserver. Aussi, les solutions qui permettent d'améliorer le contrôle de façon globale se font très rares. Un système expert pourrait formaliser, codifier et conserver l'expertise du domaine des fours à arc (provenant entre autres des opérateurs) dans une base de connaissance. En la combinant avec de l'information comme des données du procédé en temps réel, nous l'utilisons dans le but de fournir des indications, de déduire des phénomènes et de devenir un puissant outil d'aide à la décision qui permet d'améliorer le contrôle du procédé dans son ensemble. Ce mémoire fournit la méthodologie et la connaissance requise pour mettre en oeuvre un système expert qui sert d'outil d'aide à la décision pour améliorer le contrôle de procédé dans les fours à arc. Elle propose des règles de production décrites à l'aide d'un formalisme de codification de l'expertise des opérateurs et des modèles s'appuyant sur des équations mathématiques. Ces derniers utilisent des données historiques et en temps réel comme les paramètres électriques. Ces deux éléments sont utilisés par le système expert dans le but de faire un diagnostic de l'état interne du four et de son mélange. Il permet entre autres de déduire s'il y a accumulation de métal, s'il y a la nécessité d'ajouter du carbone ou non dans le mélange et la position des électrodes. Ainsi, il permet d'améliorer le contrôle global du procédé, de conserver l'expertise du domaine et de l'utiliser pour effectuer ses déductions. Enfin, le système a été implémenté et validé concrètement en milieu industriel où nous produisons du ferrosilicium dans un four à arc. Ainsi, les modèles ont été validés individuellement en comparant le résultat obtenu avec la réalité sur une période de douze jours et les règles ont été testées par validation apparente et comparées avec les décisions prises par les experts.
236

Évaluation d'un risque de chute selon les paramètres de la démarche et étude d'une méthode de transmission à l'aide de stimuli tactiles

Gagnon, David January 2014 (has links) (PDF)
D'après les statistiques, près du tiers des personnes de 65 ans et plus tombent au moins une fois par année, causant ainsi 60 % des blessures dans ce groupe d'âge. En plus des dommages physiques, ces chutes peuvent causer un impact psychologique dû à la peur de tomber à nouveau. En conséquence, même sans blessure, une chute peut entrainer une perte de confiance et une réduction de la mobilité. Ainsi, ce constat souligne le besoin de fournir des moyens de prévention des chutes. Aux meilleures de notre connaissance, bien qu'il existe de nombreux programmes de prévention de chute, il semble qu'aucun d'entre eux ne fournisse une assistance en temps réel aux personnes à risque de chute. Dans cette optique, deux chercheurs de l'UQAC ont développé une chaussure instrumentée qui permet la détection des risques et l'avertissement à l'utilisateur. Ainsi, ce mémoire s'intéresse à la capacité de ce système pour la détection et l'avertissement. Plus particulièrement, la problématique abordée est de prévenir une chute lors de la marche d'une personne âgée. Elle est abordée sous trois volets : la détection, l'avertissement, et l'apprentissage. Dans le premier volet de ce mémoire, différents facteurs affectant le risque de chutes sont exposés, incluant le type de sol, l'angle du sol, la température extérieure, le taux d'humidité, la fatigue, la médication, la peur de tomber et l'équilibre. Néanmoins, un intérêt particulier est porté sur la démarche, l'un des principaux facteurs de chutes. Ainsi, pour définir le niveau de risque de chute associé à la démarche de l'utilisateur, trois algorithmes sont présentés et évalués. Dans le premier, soit le modèle STAT, certains paramètres de la démarche sont comparés avec leur moyenne statistique respective. Ainsi, plus le pas est différent de la démarche normale de l'utilisateur, plus l'indice de risque augmente. Les deux autres algorithmes, les modèles ANN-RT et ANN-S, utilisent un réseau de neurones pour traiter quatre paramètres de la démarche. La différence entre ces deux modèles réside dans la sélection des paramètres : alors que le modèle ANN-RT utilise des paramètres calculés sur une courte période (dix millisecondes), le modèle ANN-S calcule les paramètres à partir d'une enjambée complète. Par deux évaluations, les trois algorithmes ont démontrés leur capacité à déceler de grands changements dans la démarche ainsi que leur habileté à détecter des variations de la démarche induites par une diminution de l'acuité visuelle. Les résultats préliminaires confirment ainsi l'utilisation des trois algorithmes. Le deuxième volet de ce mémoire s'intéresse à l'avertissement du niveau de risque via des stimuli tactiles sous les pieds, déchargeant ainsi les canaux visuels et auditifs. Plus particulièrement, les travaux sont orientés vers une étude de la perception tactile sous les pieds afin de sélectionner un ensemble de messages tactiles facilement différentiables. Pour ce faire, une carte perceptuelle est d'abord obtenue par une analyse par échelonnement multidimensionnel (Multidimensional scaling), de laquelle six messages tactiles les plus différentiables sont extraits. Le test de validation effectué sur cet ensemble montre un taux de reconnaissance des messages supérieur à 50 % pour un temps d'apprentissage moyen de moins de quatre minutes, ce qui démontre l'utilité de la technique pour la sélection de messages tactiles différentiables. Le troisième volet s'attaque à l'apprentissage et la reconnaissance des messages tactiles. Pour ce faire, il est proposé de dissimuler à l'intérieur d'un jeu sérieux un programme d'entrainement journalier destiné à l'apprentissage d'un grand nombre de messages tactiles et à l'amélioration de la vitesse de reconnaissance de ces derniers. Le jeu est composé en trois parties : les activités, la récompense, et l'association des messages. Ainsi, par les différentes activités journalières planifiées, le joueur est invité à reconnaître la signification des messages tactiles présentés. De plus, pour augmenter l'engagement de l'utilisateur, une récompense sous forme de mots croisés est donnée en fonction du taux de succès et de la constance du joueur. Une version simplifiée du jeu a été testée auprès de quatre participants pendant huit jours. Durant cette période, une augmentation de la vitesse de reconnaissance des tactons a été observée. En résumé, les travaux présentés dans ce mémoire présentent les bases pour l'utilisation d'une chaussure intelligente visant à fournir une assistance immédiate aux personnes à risque de chute. Il a été démontré, par trois algorithmes, qu'un niveau de risque de chute peut être obtenu par l'analyse des anomalies de la démarche. De même, l'étude perceptuelle a validé l'emploi de messages tactiles pour la communication du niveau de risque de chutes. Elle a également approuvé l'utilisation d'une carte perceptuelle pour la sélection de messages tactiles différentiables. Pour finir, le jeu sérieux présenté propose un programme d'entrainement complet pour l'apprentissage de messages tactiles, une étape essentielle avant l'utilisation d'une telle chaussure dans un environnement non contrôlé. De ce fait, les travaux futurs pourront se concentrer sur l'amélioration du système, notamment par l'ajout de différents capteurs et actionneurs ainsi que par l'étude et la détection des différents facteurs de risques énoncés dans ce mémoire.
237

Algorithmes pour le problème de l'arbre couvrant minimal

La Chance, Edmond January 2014 (has links) (PDF)
Le problème de l'arbre couvrant minimal est un des plus vieux problèmes en théorie des graphes. La problématique se pose comme suit : étant donné un graphe avec un nombre de sommets et un nombre d'arêtes ayant des poids de valeurs dans l'ensemble des entiers relatifs, l'arbre couvrant minimal consiste à trouver l'ensemble des arêtes permettant de rejoindre tous les sommets sans former de cycle, et ce, avec un coût minimal. Ce problème trouve des applications pratiques variées : il est directement applicable pour l'optimisation et la conception de divers types de réseaux (électrique, internet, etc.). Son application la plus populaire est actuellement dans le domaine du forage de données. La raison étant que certains algorithmes construisent l'arbre minimal en faisant grossir des groupes d'éléments progressivement. Ces groupes, appelés également clusters, représentent ensuite des groupes d'éléments similaires, ce qui permet de faire du forage de donnée efficacement. Il suffit au préalable de transformer les données multidimensionnelles du problème de clustering en graphe. Pour trouver l'arbre couvrant minimal, de nombreux algorithmes ont été proposés dans la littérature et ils sont pour la plupart assez performants. Cependant, avec l'invention récente de meilleures structures de données et de nouvelles techniques, les algorithmes n'ont cessé d'évoluer dans les vingt dernières années. Se pose donc la question : quel est l'algorithme le plus performant d'un point de vue théorique et/ou pratique? Les algorithmes testés dans ce mémoire ont des complexités temporelles assez semblables ; il est donc difficile de prévoir a priori celui qui sera le plus performant. Nous avons pour cela choisi une série d'algorithmes résolvant ce problème, nous avons expliqué en détail leur fonctionnement et nous les avons programmés en utilisant plusieurs structures de données. Ces algorithmes sont ceux de Kruskal, Borûvka et Prim. L'algorithme de Prim a été implémenté avec de nombreuses files de priorité et les algorithmes de Kruskal et Borûvka utilisent les meilleurs algorithmes de gestion des ensembles disjoints. Nous avons ensuite fait des tests empiriques sur des graphes de différentes tailles et densités afin de pouvoir confirmer les avantages de leur complexité temporelle. Les résultats obtenus permettent de tirer de nombreuses conclusions sur les performances de chaque algorithme en fonction de la densité du graphe. L'algorithme de Borûvka sort notamment du lot, car il propose des performances excellentes pour toutes les densités de graphe.
238

Étude comparative d'algorithmes de data mining dans le contexte du jeu vidéo

Morin, Vincent 06 1900 (has links) (PDF)
Dans notre société hyper connectée, la collecte et l'enregistrement de données sur les usagers ou leur environnement est de plus en plus courante. Cette information est un élément clé dans plusieurs domaines. Par exemple, en météorologie, on se base sur les connaissances de phénomènes pour prédire le temps qu'il fera, ou encore, dans le domaine de l'astronomie, on utilise les propriétés des étoiles afin de constituer des groupes qui se ressemblent pour les reconnaître plus facilement. Un autre domaine où les données sont importantes est le marketing. Avec les informations connues sur les acheteurs, on peut tenter d'aller directement vers l'usager pour lui proposer des produits qui l'intéressent, ce qu'on appelle le marketing ciblé. Il est aussi possible de tenter d'évaluer les éléments connus sur les usagers pour faire ressortir de nouvelles connaissances. Tout ce qui peut être mis en vente peut faire l'objet d'analyse, et le jeu vidéo n'y échappe pas. Par exemple, une étude a été faite sur les habitudes de jeux du célèbre World of Warcraft. Un web service a été créé pour évaluer le rendement personnel d'un joueur comparativement à celui du reste des joueurs. Il ne s'agit là que d'un bref aperçu de l'éventail de possibilités qu'offrent les données. Le problème est que ces grands ensembles de données non structurées sont difficiles à manipuler et à exploiter. On peut comparer la tâche à chercher une aiguille dans une botte de foin. Par ailleurs, il existe en intelligence artificielle un créneau, nommé data mining, qui s'attarde spécifiquement à ce problème d'extraire de l'information pertinente et utile à partir de grands entrepôts de données non structurées. L'avantage de cette technique est qu'elle peut s'adapter à plusieurs domaines d'application et que les résultats sont surprenants. La contribution du mémoire prend la forme de l'adaptation, de l'implementation et de l'expérimentation de différents algorithmes de data mining afin de les exploiter dans le contexte précis du domaine de l'analyse du comportement d'un joueur dans un jeu vidéo. Le mémoire fournit des pistes de solutions pour l'élaboration d'une architecture logicielle permettant le développement d'un modèle grâce au data mining. Dans un premier temps, les algorithmes de segmentation K-means ainsi que l'algorithme EM ont été utilisés pour permettre un prétraitement des données. La deuxième phase, la classification, a été effectuée avec les techniques C4.5 et celle des plus proches voisins. L'efficacité de ces algorithmes a été expérimentée avec des données recueillies dans un jeu vidéo sur tablette et téléphone grâce à la collaboration de l'entreprise Bloobuzz, division de Québécor Media. Les résultats des différentes approches ont été analysés et comparés avec les approches existantes pour évaluer la contribution du travail. Ce travail démontre la possibilité d'utiliser une telle approche.
239

Unsupervised spatial data mining for human activity recognition based on objects movement and emergent behaviors

Bouchard, Kévin 06 1900 (has links) (PDF)
Recent technological developments have created a new context of ubiquitous computing and interconnection, generating massive amounts of data. These data, which remain underutilized and often stored for a short time, may contain significant information, which could help businesses to be more competitive, provide better services or even reduce their costs. This new context affects not only businesses, but also research. This is the case for the discipline of smart homes. A smart home is a standard residence that was improved with all kinds of sensors and effectors in order to provide services to its resident. One of the most promising applications of this type of technology is the cognitive support for people with partial autonomy. The biggest challenge to achieve this goal is the recognition of the daily activities of the person. It is usually accomplished using a logical or probabilistic algorithm, which is based on a library plans defined by a human expert. This library represents a fundamental limit to the installation of smart homes. A new approach is therefore to see these habitats under the vision of Big Data and exploit data mining techniques to automatically extract the activities of daily living of the resident. The research presented in this thesis is part of this new vision of the problem of activity recognition. In particular, it proposes a data aggregation solution to the problem of the explosion in size of the data warehouse. This solution is part of the design of a fully unsupervised data mining model divided among three major steps. This new model has the particularity to introduce the notions of spatial reasoning, which the literature generally ignore, in order to recognize the activities with greater granularity. This spatial data mining model introduces a passive RFID localization algorithm to create the spatial data warehouse. Then, the positions are transformed into high-level movement information with a gesture recognition algorithm. Finally, an extension to the well-known Flocking algorithm is proposed to perform the clustering. Each part of the new model is thoroughly tested, and the results are discussed. Les récents développements technologiques ont créé un nouveau contexte où l'informatique, devenue omniprésente et interconnectée, génère des quantités impressionnantes de données. Ces données, qui demeurent souvent entreposées et sous-exploitées, peuvent renfermer d'importantes informations qui pourraient aider les entreprises à être plus compétitives, offrir de meilleurs services ou même réduire leurs coûts. Ce nouveau contexte ne touche pas seulement les entreprises, mais aussi la recherche. C'est notamment le cas pour la discipline des habitats intelligents. Un habitat intelligent est une résidence standard qui a été augmentée à l'aide de tout genre de capteurs et d'effecteurs afin de fournir des services à un utilisateur. Une des applications les plus prometteuses de ce type de technologie est l'assistance cognitive des personnes avec une autonomie partielle. Le plus grand défi pour atteindre cet objectif est celui de la reconnaissance des activités quotidiennes de la personne qui se fait généralement à l'aide d'un algorithme logique ou probabiliste reposant sur une bibliothèque de plans définie par un expert humain. Cette bibliothèque constitue une limite fondamentale à l'implantation des habitats intelligents. Une nouvelle vision consiste donc à voir ces habitats sous la vision du Big Data et d'exploiter des techniques de forage de données afin d'extraire automatiquement les activités de la vie quotidienne du résident. Le projet de recherche présenté dans le cadre de cette thèse s'inscrit dans cette vision novatrice de la problématique de la reconnaissance d'activité. En particulier, elle propose une solution d'agrégation de données au problème d'explosion de la taille de l'entrepôt de donnée. Cette solution s'inscrit dans la conception d'un modèle de forage de données entièrement non supervisé se déroulant en trois étapes majeures. Ce nouveau modèle à la particularité d'introduire les notions de raisonnement spatial, ce que la littérature ignore généralement, afin de pouvoir reconnaître les activités avec une meilleure granularité. Ce modèle de forage de données spatiales introduit le positionnement à partir de capteurs RFID passifs afin de créer l'entrepôt. La deuxième phase, celle de la préparation des données, se résume à la transformation des positionnements en information qualitative sur les mouvements d'objets. Enfin, une extension au très connu algorithme du Flocking est proposée afin de faire la segmentation. Plusieurs séries de tests ont été effectuées afin de valider chacune des portions du modèle ainsi que son fonctionnement global.
240

Méthode hybride de reconnaissance d'activités pour les habitats intelligents

Fortin-Simard, Dany 04 1900 (has links) (PDF)
Le vieillissement de la population nord-américaine est un problème auquel il faudra faire face dans les prochaines années. L’espérance de vie des êtres humains ne cesse d’augmenter et bien que cela soit une bonne nouvelle, cette situation comporte de nombreux défis auxquels nous devrons trouver des solutions prochainement. Les personnes âgées en perte d’autonomie ont besoin d'aide quotidiennement et les ressources humaines disponibles ne seront certainement pas suffisantes. Pour remédier à la situation, les habitats intelligents sont certainement l’une des solutions les plus viables et prometteuses. Depuis quelques années, nombreuses sont les équipes de chercheurs à travers le monde qui travaillent à développer ce type de résidence. Principalement, les habitats permettraient d’apporter l'aide nécessaire aux personnes âgées afin qu’ils puissent continuer à vivre en toute sécurité et de façon autonome. Pour ce faire, les habitats sont habituellement munis de nombreux capteurs et effecteurs. Précisément, les capteurs permettent de recueillir des informations sur l’environnement et les effecteurs permettent d’interagir avec le résident. Cependant, afin d’être en mesure d’aider les résidents, les informations reçues doivent être traitées par des systèmes intelligents. Ces systèmes complexes tentent de comprendre et reconnaître les activités. Bien que les informaticiens puissent exploiter les algorithmes de reconnaissance existants, le contexte comporte son lot de défis. Le traitement de l’information doit se faire en temps réel et avec des capteurs non intrusifs. Sans compter l’incertitude dans la prise de connaissance qui est omniprésente et la variété des activités possibles qui est l’un des principaux problèmes auxquels les chercheurs font face. D’ailleurs, à ce sujet, les chercheurs s’entendent pour dire que l’utilisation d’un seul type de capteur pour reconnaître l'ensemble des activités est loin d’être suffisante. Des systèmes polyvalents qui utilisent plusieurs agents sont sans contredit nécessaires afin de pallier cette problématique. Afin de trouver des solutions viables, ce mémoire propose d’évaluer et de formaliser un nouveau système qui permet de reconnaître un grand éventail d’activités par sa robustesse et sa diversité. Le nouveau système hybride de reconnaissance d’activités utilise à la fois les informations traitées d’un système de localisation par radiofréquence et d’un système d’analyse de signatures électriques. Par conséquent, la contribution théorique de ce mémoire est de proposer un système hybride utilisant des données hétérogènes. Enfin, la contribution pratique et expérimentale de ce mémoire consiste en l’implémentation du modèle dans un laboratoire à la fine pointe de la technologie. Afin de valider la nouvelle approche, les résultats obtenus seront comparés avec ceux des autres approches connues.

Page generated in 0.0559 seconds