Spelling suggestions: "subject:"intelligence artificielle"" "subject:"intelligence artificielles""
311 |
Self-describing objects with tangible data structuresSinha, Arnab 28 May 2014 (has links) (PDF)
Pervasive computing or ambient computing aims to integrate information systems into the environment, in a manner as transparent as possible to the users. It allows the information systems to be tightly coupled with the physical activities within the environment. Everyday used objects, along with their environment, are made smarter with the use of embedded computing, sensors etc. and also have the ability to communicate among themselves. In pervasive computing, it is necessary to sense the real physical world and to perceive its "context" ; a high level representation of the physical situation. There are various ways to derive the context. Typically, the approach is a multi-step process which begins with sensing. Various sensing technologies are used to capture low level information of the physical activities, which are then aggregated, analyzed and computed elsewhere in the information systems, to become aware of the context. Deployed applications then react, depending on the context situation. Among sensors, RFID is an important emerging technology which allows a direct digital link between information systems and physical objects. Besides storing identification data, RFID also provides a general purpose storage space on objects, enabling new architectures for pervasive computing. In this thesis, we defend an original approach adopting the later use of RFID i.e. a digital memory integrated to real objects. The approach uses the principle where the objects self-support information systems. This way of integration reduces the need of communication for remote processing. The principle is realized in two ways. First, objects are piggybacked with semantic information, related to itself ; as self-describing objects. Hence, relevant information associated with the physical entities are readily available locally for processing. Second, group of related objects are digitally linked using dedicated or ad-hoc data structure, distributed over the objects. Hence, it would allow direct data processing - like validating some property involving the objects in proximity. This property of physical relation among objects can be interpreted digitally from the data structure ; this justifies the appellation "Tangible Data Structures". Unlike the conventional method of using identifiers, our approach has arguments on its benefits in terms of privacy, scalability, autonomy and reduced dependency with respect to infrastructure. But its challenge lies in the expressivity due to limited memory space available in the tags. The principles are validated by prototyping in two different application domains. The first application is developed for waste management domain that helps in efficient sorting and better recycling. And the second, provides added services like assistance while assembling and verification for composite objects, using the distributed data structure across the individual pieces.
|
312 |
Contribution à une modélisation ontologique des informations tout au long du cycle de vie du produitFortineau, Virginie 18 November 2013 (has links) (PDF)
Les travaux de recherche de cette thèse portent sur la modélisation sémantique des informations industrielles, dans une approche og cycle de vie fg , de gestion des informations. Dans ce type d'approche, lever le verrou lié à l'interopérabilité des modèles d'information est une condition sine qua non à un échange d'information sans perte de flux sémantique. Jusqu'alors, des méthodes d'unification étaient envisagées, reposant sur l'utilisation mutuelle de modèles standards, tels que la norme STEP par exemple. Cependant, l'unification fait face à des limites en termes d'expressivité des modèles, de rigidité, et de perte de sémantique. Afin de lever ces limites, les paradigmes de modélisation évoluent et se tournent vers les ontologies d'inférence, outils du web sémantique.Dans cette thèse, nous proposons un cadre de modélisation sémantique général et une méthodologie de mise en place de ce cadre, qui reposent sur l'utilisation d'ontologies d'inférence. L'application du cadre de modélisation à un cas d'étude industriel, issu de l'ingénierie nucléaire (plus particulièrement l'expression et l'exécution des règles métier), permet alors d'évaluer les apports et limites des ontologies en tant que paradigme de modélisation. Les limites les plus importantes que nous identifions sur l'Open World Assumption, le manque de langage de règles performant et le manque d'outils d'implémentation robustes pour des applications à large échelle. Le développement d'un démonstrateur pour le cas d'étude industriel permet finalement de tendre vers une solution mixte, où les ontologies sont utilisées localement, afin d'en exploiter les divers avantages de manière optimale.
|
313 |
Mesure de la fragilité et détection de chutes pour le maintien à domicile des personnes âgéesDubois, Amandine 15 September 2014 (has links) (PDF)
Le vieillissement de la population est un enjeu majeur pour les prochaines années en raison, notamment, de l'augmentation du nombre de personnes dépendantes. La question du maintien à domicile de ces personnes se pose alors, du fait de l'impossibilité pour les instituts spécialisés de les accueillir toutes et, surtout, de la volonté des personnes âgées de rester chez elles le plus longtemps possible. Or, le développement de systèmes technologiques peut aider à résoudre certains problèmes comme celui de la sécurisation en détectant les chutes, et de l'évaluation du degré d'autonomie pour prévenir les accidents. Plus particulièrement, nous nous intéressons au développement des systèmes ambiants, peu coûteux, pour l'équipement du domicile. Les caméras de profondeur permettent d'analyser en temps réel les déplacements de la personne. Nous montrons dans cette thèse qu'il est possible de reconnaître l'activité de la personne et de mesurer des paramètres de sa marche à partir de l'analyse de caractéristiques simples extraites des images de profondeur. La reconnaissance d'activité est réalisée à partir des modèles de Markov cachés, et permet en particulier de détecter les chutes et des activités à risque. Lorsque la personne marche, l'analyse de la trajectoire du centre de masse nous permet de mesurer les paramètres spatio-temporels pertinents pour l'évaluation de la fragilité de la personne. Ce travail a été réalisé sur la base d'expérimentations menées en laboratoire, d'une part, pour la construction des modèles par apprentissage automatique et, d'autre part, pour évaluer la validité des résultats. Les expérimentations ont montré que certains modèles de Markov cachés, développés pour ce travail, sont assez robustes pour classifier les différentes activités. Nous donnons, également dans cette thèse, la précision, obtenue avec notre système, des paramètres de la marche en comparaison avec un tapis actimètrique. Nous pensons qu'un tel système pourrait facilement être installé au domicile de personnes âgées, car il repose sur un traitement local des images. Il fournit, au quotidien, des informations sur l'analyse de l'activité et sur l'évolution des paramètres de la marche qui sont utiles pour sécuriser et évaluer le degré de fragilité de la personne.
|
314 |
Aide à la Création d'Hypermédia Adaptatifs par Réutilisation des Modèles des CréateursZemirline, Nadjet 12 July 2011 (has links) (PDF)
Avec le développement d'internet, la personnalisation de l'accès à l'information disponible est devenue incontournable et les Systèmes Hypermédia Adaptatifs (SHA) se sont rapidement répandus. Ainsi, les SHA sont des outils permettant l'accès à l'information disponible en exploitant le profil de l'utilisateur modélisé dans un modèle de l'utilisateur. Ils nécessitent aussi un modèle du domaine pour modéliser le domaine d'application concerné. Les mécanismes d'adaptation, quant à eux, sont définis dans un modèle de l'adaptation reposant sur le modèle de l'utilisateur et du domaine. Un moteur d'adaptation se charge de l'exécution. Les applications créées à partir de tels systèmes sont connus sous le nom Hypermédia Adaptatifs (HA) ou Adaptive Hypermédia en anglais (AH). Dans cette thèse nous adoptons le point de vue d'un auteur d'HA et nos contributions sont les suivantes : - Nous proposons un framework permettant aux auteurs de réutiliser leurs modèles et des adaptations existantes en utilisant un SHA particulier. Pour cela, nous proposons un processus d'intégration des modèles des auteurs et de leurs données dans des systèmes existants sans aucune transformation ou perte d'information. Nous proposons une solution selon laquelle les modèles sont représentés en OWL 3, un standard du W3C. Pour réaliser ces objectifs, nous proposons, d'une part, une aide à la définition de mappings entre les éléments du modèle inclus dans le système utilisé et les éléments des modèles des auteurs, et d'autre part, une aide pour s'assurer que le modèle construit est composé du modèle inclus dans le système utilisé, du modèle de l'auteur et des mappings. - Nous proposons un framework permettant de faciliter la spécification de stratégies d'adaptation exprimées à un haut niveau, et facilite la réutilisation de stratégies d'adaptation existantes. Nous nous sommes focalisés pour cela sur l'expression de l'adaptation de navigation selon laquelle il est demandé aux utilisateurs de "naviguer" entre des ressources selon différents chemins. La navigation concerne des ressources sélectionnées dans un ordre qui peut être imposé ou dont certaines peuvent être davantage recommandées que d'autres [13]. Nous percevons une stratégie d'adaptation comme une combinaison de parties élémentaires. Chaque partie correspond à une adaptation élémentaire et est liée à une caractéristique de l'utilisateur. Une partie peut faire partie de plusieurs stratégies d'adaptation en fonction des caractéristiques définies dans ces dernières. Notre travail suit cette idée. La notion de patron d'adaptation élémentaire que nous proposons est une abstraction de telles parties élémentaires.
|
315 |
Application de la théorie de la révision des connaissances au raisonnement à partir de casCojan, Julien 21 October 2011 (has links) (PDF)
Le raisonnement à partir de cas est un modèle de raisonnement dont le but est de résoudre des problèmes à partir de l'expérience de résolution de problèmes connus, appelés cas sources. Une solution tirée d'un cas source peut ne pas être applicable directement au problème traité, il faut alors l'adapter. Nous nous intéressons dans cette thèse à une approche de l'adaptation qui s'appuie sur la théorie de la révision des connaissances. La révision des connaissances consiste à modi er des connaissances initiales pour prendre en compte de nouvelles connaissances avec lesquelles elles peuvent être en contradiction. Comme pour l'adaptation, les modi cations apportés aux connaissances sont minimales. Ce rapprochement entre adaptation et révision permet de s'appuyer sur la formalisation logique de la révision pour donner un cadre formel à l'adaptation. Dans ce but nous dé nissons des opérateurs de révision dans des formalismes utiles au raisonnement à partir de cas : dans un formalisme attributs-valeurs simples et dans une logique de descriptions expressive (ALC ). Nous montrons aussi que plusieurs approches de l'adaptation précédemment dé nies peuvent être mises sous la forme d'adaptation par la révision. Nous considérons aussi une extension de l'adaptation par la révision à une combinaison de cas où ce n'est plus un seul mais plusieurs cas sources qui sont exploités pour résoudre un problème. Cette approche de combinaison de cas s'appuie sur la fusion contrainte de connaissances qui généralise la révision. Ces travaux ont été appliqués dans le système d'élaboration de recettes de cuisine Taaable pour l'adaptation des quantités d'ingrédients suivant le modèle de l'adaptation par la révision.
|
316 |
Approche sensorimotrice de la perception de l'espace pour la robotique autonomeLaflaquière, Alban 19 July 2013 (has links) (PDF)
L'approche classique de conception des robots obéit à une organisation interne du type sentir-planifier-agir, proposée dès l'apparition des problématiques d'Intelligence Artificielle. Elle implique le développement amont de modèles d'interaction entre le robot et son environnement et d'algorithmes de traitement du flux sensoriel conduisant, à terme, à la génération de commandes motrices. Dans ce contexte particulier, les caractéristiques de l'environnement perçues par le robot dérivent fondamentalement des traitements du flux sensoriel implémentés par le roboticien. Elles peuvent donc se révéler inadaptées vis-à-vis de l'interaction sensorimotrice réelle que le robot entretient avec le monde. Une autre approche, développée dans cette thèse, consiste à repenser la problématique de la perception en robotique. Elle s'inspire de la théorie des contingences sensorimotrices qui propose de concevoir notre perception non pas comme un phénomène se produisant dans le cerveau mais comme une interaction que nous entretenons avec l'environnement. Cette perspective, radicalement opposée aux postulats classiques, induit que percevoir n'est pas inné mais s'acquiert par la découverte des relations sensorimotrices qui sous-tendent notre expérience du monde. L'objectif de cette thèse est d'appliquer ce nouveau paradigme au champ de la robotique. Plus précisément, les travaux menés visent à déterminer comment un robot naïf peut découvrir et caractériser l'espace dans lequel son corps et l'environnement sont plongés au travers de l'analyse de son seul flux sensorimoteur. Pour se faire, une approche sera développée sur la base de la compensabilité des variations sensorielles générées par les déplacements du système robot/environnement, concept initialement introduit par H.Poincaré. Elle permettra à nos robots de déterminer la dimension de l'espace géométrique extérieur puis d'en construire une représentation interne, permettant à terme d'interpréter intrinsèquement leur expérience et de guider leur action.
|
317 |
Computational Aspects of Learning, Reasoning, and DecidingZanuttini, Bruno 27 June 2011 (has links) (PDF)
We present results and research projects about the computational aspects of classical problems in Artificial Intelligence. We are interested in the setting of agents able to describe their environment through a possibly huge number of Boolean descriptors, and to act upon this environment. The typical applications of this kind of studies are to the design of autonomous robots (for exploring unknown zones, for instance) or of software assistants (for scheduling, for instance). The ultimate goal of research in this domain is the design of agents able to learn autonomously, by learning and interacting with their environment (including human users), also able to reason for producing new pieces of knowledge, for explaining observed phenomena, and finally, able to decide on which action to take at any moment, in a rational fashion. Ideally, such agents will be fast, efficient as soon as they start to interact with their environment, they will improve their behavior as time goes by, and they will be able to communicate naturally with humans. Among the numerous research questions raised by these objectives, we are especially interested in concept and preference learning, in reinforcement learning, in planning, and in some underlying problems in complexity theory. A particular attention is paid to interaction with humans and to huge numbers of descriptors of the environment, as are necessary in real-world applications.
|
318 |
Découvertes d'activités humaines dans des videosPusiol, Guido Thomas 30 May 2012 (has links) (PDF)
L'objectif de cette thèse est de proposer une plateforme complète pour la découverte automatique d'activités, leur modélisation et leur reconnaissance à patir de vidéos. La plateforme utilise des informations perceptuelles (i.e des trajectoires) en entrée et produit une reconnaissance sémantique des activités. La plateforme fonctionne en 5 étapes: 1) La video est divisée en plusieurs parties afin de reconnaitre des activités. Nous proposons différentes techniques pour extraire des caractéristiques perceptuelles à partir du découpage. Nous construisons des ensembles de caractéristiques perceptuelles capable de décrire les activités dans des petites périodes de temps. 2) Nous proposons d'apprendre les informations contextuelles de la video. Nous construisons des modèles de scène en apprenant les caractéristiques perceptuelles pertinentes. Le modèle final contient des régions de la scène intéressantes pour décrire des actions sémantiques (i.e des régions ou des interactions arrivent). 3) Nous proposons de réduire le gap entre les informations visuelles de bas niveau et l'interprètation sémantique en construisant un niveau intermédiaire composés d'évènements primitifs. La représentation proposée pour ces évènements primitifs décrit les mouvements intéressants de la scène. Ceci est fait en par abstraction des caractéristiques perceptuelles en utilisant les informations contextuelles de la scène , de manière non supervisée. 4) Nous reconnaissons des activités composées avec une méthode de reconnaissance de chemins. Nous proposons aussi une méthode générique pour modéliser les activités composées. Les modèles sont construits comme des ensembles probabilistes flexibles, faciles à mettre à jour. 5) Nous proposons une méthode de reconnaissance d'activités qui cherche de façon déterministe les occurrences des activités modélisées dans des nouveaux ensemble de données. Les sémantiqes sont générées en interaction avec l'utilisateur. Toute cette approche a été évaluée sur des ensembles de données réels provenant de la surveillance de personnes dans un appartement et de personnes agées dans un hopital. Ce travail a aussi été évalué sur d'autres types d'application comme la surveillance du sommeil.
|
319 |
Évaluation expérimentale d'un système statistique de synthèse de la parole, HTS, pour la langue françaiseLe Maguer, Sébastien 02 July 2013 (has links) (PDF)
Les travaux présentés dans cette thèse se situent dans le cadre de la synthèse de la parole à partir du texte et, plus précisément, dans le cadre de la synthèse paramétrique utilisant des règles statistiques. Nous nous intéressons à l'influence des descripteurs linguistiques utilisés pour caractériser un signal de parole sur la modélisation effectuée dans le système de synthèse statistique HTS. Pour cela, deux méthodologies d'évaluation objective sont présentées. La première repose sur une modélisation de l'espace acoustique, généré par HTS par des mélanges gaussiens (GMM). En utilisant ensuite un ensemble de signaux de parole de référence, il est possible de comparer les GMM entre eux et ainsi les espaces acoustiques générés par les différentes configurations de HTS. La seconde méthodologie proposée repose sur le calcul de distances entre trames acoustiques appariées pour pouvoir évaluer la modélisation effectuée par HTS de manière plus locale. Cette seconde méthodologie permet de compléter les diverses analyses en contrôlant notamment les ensembles de données générées et évaluées. Les résultats obtenus selon ces deux méthodologies, et confirmés par des évaluations subjectives, indiquent que l'utilisation d'un ensemble complexe de descripteurs linguistiques n'aboutit pas nécessairement à une meilleure modélisation et peut s'avérer contre-productif sur la qualité du signal de synthèse produit.
|
320 |
Reasoning about models: detecting and isolating abnormalities in diagnostic systemsBelard, Nuno 21 May 2012 (has links) (PDF)
Dans le cadre du diagnostic à base de Modèle, un ensemble de règles d'inférence est typiquement exploité pour calculer des diagnostics, ceci en utilisant une théorie scientifique et mathématique sur le système à diagnostiquer, ainsi qu'un ensemble d'observations. Contrairement aux hypothèses classiques, les Modèles sont souvent anormaux vis-à-vis d'un ensemble de propriétés requises. Naturellement, cela affecte la qualité des diagnostics [à Airbus]. Une théorie sur la réalité, l'information et la cognition est créé pour redéfinir, dans une perspective basée sur la théorie des modèles, le cadre classique de diagnostic à base de Modèle. Ceci rend possible la formalisation des anomalies et de leur relation avec des propriétés des diagnostics. Avec ce travail et avec l'idée qu'un système de diagnostic implémenté peut être vu comme un objet à diagnostiquer, une théorie de méta-diagnostic est développée, permettant la détection et isolation d'anomalies dans les Modèles des systèmes de diagnostic. Cette théorie est mise en pratique à travers d'un outil, MEDITO; et est testée avec succès à travers un ensemble de problèmes industriels, à Airbus. Comme des différents systèmes de diagnostic Airbus, souffrant d'anomalies variées, peuvent calculer des diagnostics différents, un ensemble de méthodes et outils et développé pour: 1) déterminer la cohérence entre diagnostics et 2) valider et comparer la performance de ces systèmes de diagnostic. Ce travail dépend d'un pont original entre le cadre de diagnostic Airbus et son équivalent académique. Finalement, la théorie de méta-diagnostic est généralisée pour prendre en compte des métasystèmes autres que des systèmes de diagnostic implémentés.
|
Page generated in 0.0986 seconds