• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 422
  • 171
  • 72
  • 2
  • 1
  • 1
  • Tagged with
  • 721
  • 336
  • 296
  • 278
  • 254
  • 246
  • 243
  • 144
  • 133
  • 92
  • 90
  • 82
  • 79
  • 69
  • 68
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

A fuzzy temporal data-mining model for activity recognition in smart homes

Amirjavid, Farzad January 2013 (has links) (PDF)
At present time, aging of the population is one of the main challenges of the 21st century. The current situation is leading to an increased number of people afflicted with cognitive disorders such as Alzheimer's disease. This group of people suffers from a progressive decline in their abilities to perform what are called the activities of the daily living (ADLs).The consequence of this reality is the urgent need for more home assistance services, as these people desire to continue living independently at home. To address this important issue, Smart Home laboratories such as LIARA, DOMUS and MavHome perform research in order to propose technological solutions for assistance provision to residents of the Smart Home. Assisting people in carrying out their ADLs, increasing quality of life and optimizing spent energy are some of the goals in Smart Home design. Technically speaking, a Smart Home is an ambient environment which, through its embedded sensors, captures data resulting from the observation of activities carried out in this environment. This data is then analyzed by artificial intelligence techniques in order to provide information about home state normality and needed assistance. In the end, the system aims to intervene by providing guidance through its actuators. In this context, activity recognition becomes a key element in order to be able to provide adequate information services at the right moment. This thesis aims to contribute to this important challenge relating to activity recognition in the Smart Home designed for cognitive assistance. This contribution follows in the footsteps of temporal data mining and activity recognition approaches, and proposes a new way to automatically recognize and memorize ADLs from low-level sensors. From a formal point of view, the originality of the thesis relies on the proposition of a new unsupervised temporal datamining model for activity recognition addressing the problem of current temporal approaches based on Allen's framework. This new model incorporates some applications of fuzzy logic in order to take into account the uncertainty present in the realization of daily living activities by the resident. More specifically, we propose an extension of the fuzzy clustering technique in order to cluster the observations based on the degree of similarity between observations, so that activities are modeled and recognized. Moreover, anomaly recognition, decision making for assistance provision and judgment for simultaneous activities are some of the applicative contributions of this thesis. From a practical and experimental standpoint, the contribution of this research has been validated in order to evaluate how it would perform in a realistic context. To achieve this, we used MATLAB software as a simulation platform to test the proposed model. We then performed a series of tests which took the form of several case studies relating to common activities of daily living, in order to show the functionality and efficiency of the proposed temporal data-mining approach for real-life cases. This was especially relevant to the activity recognition application. We obtained very promising results which have been analyzed and compared to existing approaches. Finally, most parts of the contribution presented in this thesis have been published in documents ensuing from reputed international conferences (Springer LNCS proceedings [7], AAAI symposium and workshops [8, 9], MAICS [10], IEEE [11]) and a recognized journal (Springer Journal of Ambient Intelligence and Humanized Computing [12, 13]). This clearly constitutes recognition showing the potential of the proposed contribution.
22

Étude de faisabilité du runtime monitoring dans les jeux vidéo

Varvaressos, Simon January 2014 (has links) (PDF)
Dans le domaine des jeux vidéo, beaucoup de bogues se retrouvent sur le marché malgré les différentes phases de tests. Pour une industrie basée sur le divertissement, rencontrer des bogues qui empêchent le déroulement normal du jeu (dits « game breaking ») peut nuire à la vente du produit. Toutefois, la plupart des techniques d'assurance-qualité connues ne sont pas adaptées aux jeux vidéo. Il existe une technique de vérification, le runtime monitoring, qui observe l'exécution d'un système et pourrait améliorer la tâche d'élimination des bogues. Ce projet a pour objectif de prouver la faisabilité de l'utilisation d'une telle technique dans ce domaine. Ce travail vise à améliorer le processus de recherche et d'élimination des bogues retrouvés dans l'entreprise ainsi qu'à agrandir le champ d'action des méthodes formelles. Pour ce faire, ce mémoire propose une nouvelle méthode d'instrumentation prenant en compte des caractéristiques propres aux jeux vidéo. Ce mémoire ne représente qu'une première partie d'un projet plus grand visant non seulement à rendre possible l'utilisation du runtime monitoring mais aussi à améliorer le processus de détection des bogues en facilitant la tâche des testeurs et développeurs.
23

Identification des concepts pour la ré-ingénierie des ontologies

Benaicha, Mohamed 04 1900 (has links) (PDF)
Des services élémentaires tels que la restructuration (Ang. refactoring), la fusion (Ang.merge), l’extraction de modules (Ang. modularization), etc., sont indispensables pour la mise en oeuvre d’une plateforme de génie ontologique dont l’un des objectifs essentiels est d’assurer la qualité d’une ontologie qui risque de se détériorer avec l’usage. INUKHUK est une plateforme de ré-ingénierie d’ontologies dont les services ci-haut sont basés sur un cadre formel, dit Analyse Relationnelle de Concepts (ARC). L’ARC a le pouvoir de créer de nouvelles abstractions sur n’importe quel type d’éléments ontologiques (concept, propriété, etc.). Ces abstractions factorisent des descriptions communes à plusieurs éléments et peuvent servir à corriger et/ou enrichir l’ontologie de façon à augmenter sa qualité. Toutefois, ces abstractions, qui sont le fruit d’un calcul mathématique, sont dépourvues de toute sémantique et par conséquent nécessitent un effort de conceptualisation afin d’être justifiées et intégrées à une ontologie. Le but de ce travail est de fouiller le bien fondé d’une abstraction et par la suite l’annoter avec un nom (En Anglais label) de concept. Les retombées sont multiples. D’abord, l’ontologie restructurée est beaucoup plus compréhensible par les experts et utilisateurs car l’enrichissement est autant structurel que sémantique. Ensuite, l’application des métriques de qualité basées sur l’analyse du vocabulaire ontologique pour l’estimation de la qualité de l’ontologie restructurée (Ang., refactored) est tout à fait justifiable. Pour ce faire, plusieurs méthodes de fouille ont été envisagées. La première méthode consiste à l’identification d’un nouveau concept ontologique à partir de la description de l’abstraction générée par l’ARC. La deuxième méthode consiste à confronter l’abstraction générée par l’ARC à des ressources linguistiques et/ou ontologiques existantes telles que WORDNET, structure catégorique de WIKIPEDIA, DBPEDIA, etc. Les deux approches ci-haut ont été implémentées au sein d’un outil, dit TOPICMINER, qui fait désormais partie de la plateforme INUKHUK. TOPICMINER a fait l’objet de plusieurs expérimentations et a retourné des résultats satisfaisants selon le protocole de validation mis en place.
24

Utilisation d'un modèle variationnel pour l'inspection des dimensions à l'aide de la vision par ordinateur

Fournier, Réjean January 1992 (has links) (PDF)
Le développement de la vision par ordinateur a amené son utilisation pour l'inspection dimensionnelle. Dans le domaine de la conception assistée par ordinateur (CAO), une nouvelle méthode de modélisation a été développée: la géométrie variationnelle. Le présent mémoire fait le lien entre un modèle variationnel et l'inspection des dimensions à l'aide de la vision par ordinateur. Le modèle est enregistré dans une base de données paramétriques équivalente à celle que pourrait produire un logiciel de CAO. La première partie porte sur l'élaboration d'un modèle variationnel simple en deux dimensions. La deuxième partie porte sur l'utilisation du processus de vision par ordinateur permettant d'extraire l'information voulue d'une image. L'image utilisée est celle produite par une caméra CCD. Un progiciel a été développé qui fait le lien entre le modèle et les données obtenues avec la vision par ordinateur. Le système développé est utilisable pour des objets de type polygone à n côtés. Des résultats expérimentaux ont été obtenus avec différents exemples. Ils ont permis de démontrer que le système est très bien adapté pour la vérification des paramètres du modèle. L'utilisation du modèle lors du processus de vision permet le calcul des paramètres réels et de leur précision. Si le modèle contient les paramètres et leurs tolérances, la comparaison peut être faite avec les données obtenues par la vision. Le modèle variationnel est utilisable pour la vérification dimensionnelle à l'aide de la vision par ordinateur. Un des avantages est d'utiliser le même modèle pour la vision que celui utilisé pour la conception. La vérification des dimensions se fait alors sur les paramètres du modèle.
25

RCR : un profil UML pour la rétroconception, la compréhension et la réingénierie de logiciels

St-Denis, Guy January 2001 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
26

Le logiciel libre au Québec idéaux et motivations de la communauté d'acteurs-contributeurs

Dulude, Marc-André January 2010 (has links)
Cette recherche exploratoire s'intéresse aux logiciels libres au Québec, plus particulièrement aux acteurs qui participent activement à leur développement. Elle a pour but de comprendre les motivations de dix d'entre eux, en mettant en perspective leurs situations actuelle[s], personnelle[s] et professionnelle[s].Cette problématique est fortement inspirée des travaux de recherche en économie qui suggèrent que le contexte social et culturel d'une région donnée influence les motivations des acteurs de cette région. Plusieurs études se sont attardées à des projets de logiciels libres spécifiques, mais aucune ne s'est intéressée aux logiciels libres en territoire québécois. C'est ce qui nous amène à vouloir définir la perception et la motivation d'acteurscontributeurs au Québec. Afin de bien mettre en contexte notre étude, nous nous appuyons sur les théories diffusionnistes de Rogers, Flichy et Von Hippel, ainsi que sur celle de la construction sociale de Pinch et Bijker. Nous nous sommes également inspirés des travaux de Weber sur le logiciel libre, de ceux de Ryan et Deci sur les motivations, et de ceux de Greier sur les chemins de vie. Une série d'entrevues a été réalisée avec des experts du domaine. Pour ce faire, un sondage a été mené auprès de plus de 200 acteurs québécois du logiciel libre. De ce sondage est ressorti l'identité des dix acteurs les plus reconnus au Québec. Nous les avons invités pour une entrevue en profondeur sur leurs motivations à travailler sur les logiciels libres. Grâce à l'analyse de ces entretiens, nous sommes en mesure de dire que le discours de chacun des acteurs présente des particularités communes, notamment quant à la définition du logiciel libre, à la licence utilisée dans les projets et à la langue de l'interface présentée aux utilisateurs finaux. Aussi, les motivations des acteurs évoluent dans le temps, passant de motivations à caractère personnel à motivations en lien avec leur cheminement professionnel. De plus, nous constatons qu'il existe un réseau de professionnels et d'amateurs québécois qui prennent part à des projets d'envergure internationale. Ces interactions participent à une construction sociale de l'objet qui forge les méthodes de développement, les valeurs et les idéaux véhiculés sur Internet.
27

Software stability assessment using multiple prediction models

Zhang, Hong January 2003 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
28

Analyse de la qualité du logiciel : une approche par visualisation et simulation

Rouatbi, Mohamed January 2005 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
29

Les métriques appliquées dans la construction de logiciel

Wang, Hao January 2007 (has links) (PDF)
De nos jours, en raison de l'augmentation de la portée des systèmes informatiques et des exigences de la qualité de logiciel, le processus de développement de logiciel est devenu de plus en plus complexe et de plus en plus difficile à contrôler. De nombreuses métriques logicielles et des méthodes de mesure ont étés établies et utilisées comme des indices utiles et significatifs, et ce afin de mieux comprendre et maîtriser le processus de construction logicielle tout en assurant la qualité du produit final. La présente étude est un survol des métriques logicielles et des méthodes appliquées dans la construction de logiciels; cependant, nous classifions ces mesures variantes et ces méthodes de mesure en fonction de leurs multiples buts d'utilisation, et réalisons une étude analytique de chaque métrique en exposant ses avantages et ses inconvénients. De plus, ces analyses comparatives sont réalisées entre les différents types des métriques. Dans le présent travail, nous expliquons la complexité élevée du processus de construction en exposant les facteurs qui influencent la progression de construction logicielle. Par la suite, nous présentons et analysons les divers modèles d'estimation et les métriques appliquées dans l'estimation logicielle afin de prédire l'envergure et l'effort de développement. L'estimation du projet est considérée comme une activité indispensable dans le processus de construction. Ainsi, nous faisons une comparaison horizontale entre les modèles d'estimation d'effort de développement. Par la suite, nous effectuons une revue des métriques en mesurant la taille logicielle, la complexité de logiciel et la structure de programme orienté objet. Les analyses de ces métriques portent sur leur degré de précision de mesure et leur utilité dans la mesure de qualité logicielle. Enfin, nous mettons l'accent sur les métriques et les méthodes adoptées pour mesurer la progression de construction de logiciel; certaines métriques et technologies de mesure sont introduites et analysées telles le jalonnement, les métriques de qualité logicielle, la technologie EVM, etc. De plus, nous faisons une étude analytique des différentes métriques impliquées dans les différents modèles de développement de logiciel. Nous concluons qu'il est très difficile de trouver un ensemble de métriques standards dans l'application industrielle malgré un grand nombre de métriques et de méthodes de mesure qui sont inventés et adoptées, parce que la sélection et l'adaptation des métriques dépendent des différents objectifs d'utilisation, chaque objectif correspondant en effet aux métriques spécifiques les plus adaptives et les plus pertinentes. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Métrique logicielle, Progression de construction, Développement de logiciel, Estimation logicielle, Gestion de projet, Qualité logicielle, Complexité de logiciel.
30

Système dynamique d'inclusion partielle des méthodes dans l'interpréteur de la machine virtuelle Java Sablevm

Vézina, Sébastien January 2008 (has links) (PDF)
La compilation de codee source vers du code octet combiné avec l'utilisation d'une machine virtuelle ou d'un interpréteur pour l'exécuter est devenue une pratique courante qui permet de conserver une indépendance face à la plateforme matérielle. Les interpréteurs sont portables et offrent une simplicité de développement qui en font un choix intéressant pour la conception de prototypes de nouveaux langages de programmation. L'optimisation des techniques d'interprétation existantes est un sujet de recherche qui nous intéresse particulièrement. Nous avons voulu, par l'entremise de notre projet de recherche, étudier jusqu'où il est possible de pousser l'optimisation dans un interpréteur. Après avoir étudié les types d'interpréteurs existants, nous avons constaté que les interpréteurs les plus performants se basent tous sur le même principe: La réduction du coût associé aux répartitions entre les instructions interprétées. Ce coût est causé par les instructions de répartitions elles-mêmes, mais surtout par l'augmentation du taux d'erreur qu'elles procurent dans les prédicteurs de branchement qui se trouvent au sein des processeurs modernes. Des mauvaises prédictions de branchements occasionnent des coûts importants sur une architecture pipelinée. L'interpréteur linéaire inclusif est un des plus performants qui existe. En nous basant sur cet interpréteur, nous avons fait la conception et l'implémentation d'un mécanisme qui lui permet d'augmenter la longueur des ses super-instructions et par le fait même de diminuer le nombre de répartitions pendant l'exécution. Nous avons mis au point un mécanisme dynamique d'inclusion partielle des méthodes dans cet interpréteur. Nous avons aussi conçu un système de profilage qui nous permet de détecter les sites d'invocations chauds et d'y effectuer l'inclusion du chemin le plus fréquenté de la méthode appelée. En brisant ainsi la frontière entre le corps des méthodes, nous parvenons à augmenter la longueur moyenne des super-instructions. Nous avons surmonté et résolu toutes les difficultés inhérentes à l'implémentation d'un tel système dans une véritable machine virtuelle Java (synchronisation, exceptions, présence d'un nettoyeur de mémoire, présence de sous routines dans le code octet Java). Nous fournissons une étude empirique de l'impact de notre système sur un interpréteur linéaire inclusif en exécutant des applications Java d'envergure. Dans tous les cas étudiés, on arrive à augmenter la longueur moyenne des super-instructions invoquées et à diminuer le nombre de répartitions pendant l'exécution. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Interpréteur, Inclusion, Inclusion partielle, Profilage, Machine virtuelle, Java, JVM, SableVM.

Page generated in 0.0499 seconds