• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 406
  • 296
  • 121
  • 4
  • 3
  • Tagged with
  • 883
  • 883
  • 540
  • 328
  • 320
  • 291
  • 274
  • 263
  • 242
  • 217
  • 208
  • 206
  • 202
  • 200
  • 199
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
371

Phronesis, a diagnosis and recovery tool for system administrators / Phronesis, un outil de diagnostic et de résolution pour les administrateurs systèmes

Haen, Christophe 24 October 2013 (has links)
Le système online de l'expérience LHCb repose sur une large infrastructure informatique hétérogène, composée de milliers de serveurs sur lesquels de nombreuses applications différentes sont exécutées. Certaines applications sont critiques (prise de données, contrôle du détecteur), d'autres secondaires (serveurs web). Administrer un tel système et s'assurer de son bon fonctionnement représente une lourde charge de travail pour une petite équipe d'experts. Des recherches ont été menées afin d'automatiser certaines tâches d'administration système. En 2001, IBM définit les « self-objectives » sensés conduire à l' «autonomic computing» (informatique autonome). Dans ce contexte, nous présentons un framework basé sur l'intelligence artificielle et l'apprentissage par renforcement pour surveiller et diagnostiquer de manière non intrusive les systèmes et logiciels basés sur Linux. De plus, notre approche d’expérience partagée ainsi que notre architecture suivant le paradigme Objet permettent d'augmenter considérablement la vitesse d'apprentissage et de corréler les problèmes. / The LHCb online system relies on a large and heterogeneous IT infrastructure made from thousands of servers on which many different applications are running. They run a great variety of tasks : critical ones such as data taking and secondary ones like web servers. The administration of such a system and making sure it is working properly represents a very important workload for the small expert-operator team. Research has been performed to try to automatize (some) system administration tasks, starting in 2001 when IBM defined the so-called “self objectives” supposed to lead to “autonomic computing”. In this context, we present a framework that makes use of artificial intelligence and machine learning to monitor and diagnose at a low level and in a non intrusive way Linux-based systems and their interaction with software. Moreover, the shared experience approach we use, coupled with an "object oriented paradigm" architecture increases a lot our learning speed, and highlight relations between problems.
372

Modeling human behaviors and frailty for a personalized ambient assisted living framework / Modélisation des comportements humains et de la fragilité pour la conception d'une plateforme d'assistance d'intelligence ambiante

Bellmunt Montoya, Joaquim 21 November 2017 (has links)
Les technologies d’assistance à la vie autonome est aujourd'hui nécessaire pour soutenir les personnes ayant des besoins spécifiques dans leurs activités de la vie quotidienne, mais leurs développements demeure limités malgré les enjeux liés à l’accompagnement des personnes âgées et dépendantes. Par ailleurs, l'élaboration de plateformes technologiques durant la dernière décennie s'est principalement concentrée sur la dimension technologique, en négligeant l'impact des facteurs humains et des besoins sociaux. Les nouvelles technologies, telles que le cloud et l’Internet des objets (IoT) pourraient apporter de nouvelles capacités dans ce domaine de recherche permettant aux systèmes de traiter les activités humaines selon des modèles orientés vers l'usage (ie. la fragilité) dans une approche non invasive.Cette thèse se propose d'envisager un nouveau paradigme dans les technologies d'assistance pour le vieillissement et le bien-être en introduisant (i) des métriques de la fragilité humaine et (ii) une dimension urbaine dans un cadre d'assistance ambiant (extension de l'espace de vie de l'intérieur vers l'extérieur). Elle propose une plateforme basée sur l’Informatique dans le cloud (cloud computing) pour une communication transparente avec les objets connectés, permettant au système intégré de calculer et de modéliser différents niveaux de fragilité humaine. Cette thèse propose d'utiliser des données hétérogènes en temps réel fournies par différents types de sources (capteurs intérieurs et extérieurs), ainsi que des données de référence, collectées sur un serveur de cloud de raisonnement central. La plateforme stocke les données brutes et les traite à travers un moteur de raisonnement hybride combinant à la fois l'approche basée sur les données (apprentissage automatique), et l'approche basée sur la connaissance (raisonnement sémantique) pour (i) déduire les activités de la vie quotidienne, (ii) détecter le changement du comportement humain, et enfin (iii) calibrer les valeurs de fragilité humaine. Les valeurs de fragilité peuvent permettre au système de détecter automatiquement tout changement de comportement, ou toute situation anormale, qui pourrait entraîner un risque à la maison ou à l'extérieur. L'ambition à long terme est de détecter et d'intervenir pour éviter un risque avant même qu'un médecin ne le détecte lors d'une consultation. L'objectif ultime est de promouvoir le paradigme de la prévention pour la santé et du bien-être.Cette thèse vise à concevoir et développer une plateforme intégrée, personnalisée, basée sur le cloud, capable de communiquer avec des capteurs intérieurs non invasifs (par ex. mouvement, contact, fibre optique) et à l'extérieur (par ex. BLE Beacons, smartphone, bracelet..). La plateforme développée comprend également un classificateur de mobilité du comportement humain qui utilise les capteurs internes du Smart Phone pour calibrer le type de mouvement effectué par l'individu (p. ex. marche, vélo, tram, bus, et voiture). Les données recueillies dans ce contexte servent à construire un modèle multidimensionnel de fragilité basé sur plusieurs éléments standardisés de fragilité, à partir d'une littérature abondante et d'un examen approfondi d’autres plateformes. La plateforme et les modèles associés ont été évalués dans des conditions réelles de vie impliquant les utilisateurs et les aidants par le biais de différents sites pilotes à Singapour et en France. Les données obtenues ont été analysées et publiées dans de nombreuses conférences et revues internationales.La plateforme développée est actuellement déployée en situation écologique dans 24 habitats individuels. Cela comprend cinq chambres en EHPAD, et neuf maisons sont situées en France, en collaboration avec une maison de retraite (Argentan-Normandie) et à Montpellier en collaboration avec Montpellier Métropole. Entre autre dix appartements privés sont situés à Singapour en collaboration avec un Senior Activity Center. / Ambient Assisted Living is nowadays necessary to support people with special needs in performing their activities of daily living, but it remains unaltered in front of the necessity to accompany aging and dependent people in their outdoors activities. Moreover, the development of multiple frameworks during the last decade has mainly focused on the engineering dimension neglecting impact of human factors and social needs in the design process. New technologies, such as cloud computing and Internet of Things (IoT) could bring new capabilities to this field of research allowing systems to process human condition following usage oriented models (e.g. frailty) in a non-invasive approach. This thesis proposes to consider a new paradigm in assistive technologies for aging and wellbeing by introducing (i) human frailty metrics, and (ii) urban dimension in an ambient assistive framework (extending the living space from indoors to outdoors). It proposes a cloud-based framework for seamless communication with connected objects, allowing the integrated system to compute and to model different levels of human frailty based on several frailty standardized items, and leveraged from an extensive literature and frameworks reviews.This thesis aims at designing and developing an integrated cloud-based framework, which would be able to communicate with heterogeneous real-time non-invasive indoor sensors (e.g. motion, contact, fiber optic) and outdoors (e.g. BLE Beacons, smartphone). The framework stores the raw data and processes it through a designed hybrid reasoning engine combining both approaches, data driven (machine learning), and knowledge driven (semantic reasoning) algorithms, to (i) infer the activities of the daily living (ADL), (ii) detect changes of human behavior, and ultimately (iii) calibrate human frailty values. It also includes a human behavior mobility classifier that uses the inner smartphone sensors to classify the type of movement performed by the individual (e.g. Walk, Cycling, MRT, Bus, Car). The frailty values might allow the system to automatically detect any change of behaviors, or abnormal situations, which might lead to a risk at home or outside.The proposed models and framework have been developed in close collaboration with IPAL and LIRMM research teams. They also have been assessed in real conditions involving end-users and caregivers through different pilots sites in Singapore and in France. Nowadays, the proposed framework, is currently deployed in a real world deployment in 24 individual homes. 14 spaces are located in France (5 privates rooms in nursing home and 9 private houses) in collaboration with a nursing home (Argentan-Normandie and Montpellier). 10 individual homes are located in Singapore in collaboration with a Senior Activity Center (non-profit organization).The long-term ambition is to detect and intervene to avoid a risk even before a medical doctor detects it during a consultation. The ultimate goal is to promote prevention paradigm for health and wellbeing. The obtained data has been analyzed and published in multiple international conferences and journals.
373

Apprendre à résoudre des analogies de forme

Rhouma, Rafik 07 1900 (has links)
No description available.
374

Contribution to study and design of intelligent virtual agents : application to negotiation strategies and sequences simulation / Contribution à l’étude et à la conception d’agents virtuels intelligents : application à la simulation de stratégies de séquences de négociation

Bahrammirzaee, Arash 14 December 2010 (has links)
Dans cette thèse, conjointement au développement d'un modèle de négociation bilatérale automatisée entre agents, dans un contexte à informations incomplètes, intégrant les effets de la personnalité du comportement humain sur le processus et sur les résultats de la négociation, nous proposons une architecture de tels agents (″vendeur ″ ou ″acheteur″). Pour cela, une nouvelle approche de génération d'offres a été présentée en proposant notamment trois familles de tactiques adaptatives (par rapport aux intervalles de réservation et aux dates limites), à savoir : les tactiques dépendantes du temps (supposé continu), les tactiques dépendantes du comportement et les tactiques indépendantes du temps. Cette thèse s'intéresse aussi à la prise en considération des effets de la personnalité (de l'agent négociateur) sur les issues de la négociation. En fait, en recourant à modèle appelé ‘‘cinq grands facteurs de la personnalité'' et en introduisant des orientations cognitives, nous avons développé une architecture d'agent négociant basé sur la personnalité. Notre architecture s'inspire principalement de la théorie des jeux. En effet, la connaissance de l'agent artificiel en termes de la négociation est considérée comme une certaine orientation mentale du négociateur favorisant les concessions de ce dernier vers l'un des trois équilibres (au sens de la théorie des jeux) suivants : Gagnant-Perdant, Perdant-Gagnant, ou Gagnant-Gagnant. Selon l'orientation privilégiée et la personnalité du négociateur, un tel agent négociateur décide de la combinaison adéquate des tactiques (modèles etc.) afin de moduler, en conséquence, les issues escomptées de la négociation / In this thesis, besides the developing a bilateral automated negotiation model between agents, in incomplete information state, integrating the personality effects of human on the negotiation process and outcomes, we proposed an architecture of such agents (“buyer” or “seller”). To do so, a new offer generation approach of three adaptive families of tactics has been proposed as follows : the time dependent tactics (time supposed as continuous), behavior dependent tactics, and time independent tactics.This thesis takes into consideration also the personality effects (of negotiator agent) on negotiation process and outcome. In fact, with regard to “Big five” personality model and introducing the cognitive orientations, we have developed a negotiator agent's architecture based on personality. This architecture is, mainly, inspired from the game theory. In fact, the artificial agent's cognition in terms of negotiation is considered as a certain negotiator's mental orientation favorising the concession of the negotiator agent towards one of following three equilibria (based on game theory) : Win-Lose, Lose-Win, and Win-Win According to the privileged orientation and the personality of negotiator, such a negotiator agent decides the adequate combination of tactics (models, etc) in order to modulate, consequently, the expected outcomes of negotiation
375

Contribution to study and implementation of intelligent adaptive control strategies : application to control of complex dynamic systems / Contribution à l’étude et à la mise en œuvre de stratégies adaptatives de commandes intelligentes : application au contrôle de systèmes dynamiques complexes

Yu, Weiwei 02 March 2011 (has links)
La principale limitation du modèle connexionniste (réseau neuronal artificiel) CMAC (Cerebellar Model Articulation Controller) et son applicabilité à la résolution des problèmes inhérents au systèmes automatisés complexes (robots, véhicules autonomes, etc.) est liée à la taille de mémoire requise par ce type de modèle connexionniste. Il est pertinent de rappeler que la capacité de mémoire exigée par le CMAC dépend, en premier lieu, de la précision de la quantification des signaux d'entrée, puis, de la dimension de l'espace des entrées (espace caractéristique) du système modélisé. Dans le cas des applications requérant une exécution en temps-réel, la tendance est à la réduction de l'espace caractéristique (aussi petit que possible) et la précision (de la quantification : aussi faible que possible). Cependant, souvent, les systèmes complexes impliquent plusieurs entrées. Pour résoudre le problème inhérent à cet antagonisme et la taille de la mémoire, nous nous sommes intéressés, dans la présente thèse, à l'influence des paramètres intervenant dans la précision de la quantification et dans la capacité de la généralisation sur la qualité d'approximation du modèle CMAC. L'objectif escompté était d'arriver à des structures optimales du CAMC pour le contrôle des systèmes dynamiques complexes. Les robots bipèdes (humanoïdes) et des véhicules volants hypersoniques sont deux domaines d'applications très actuelles impliquant des systèmes complexes. Nous avons appliqué des concepts étudiés aux problèmes soulevés par les deux domaines précités. Des résultats obtenus à partir de la simulation ont montré que des structures optimales ou quasi-optimales conduisant à une réduction sensible d'erreur de modélisation peuvent être obtenues. Ces résultats ont montré que les choix effectués dans l'optimisation de la structure permet une réduction de la taille de la mémoire requise (par le CMAC) et une réduction du temps d'exécution à la fois / The main limitation of the CMAC (Cerebellar Model Articulation Controller) network in realistic applications for complex automated systems (robots, automated vehicles, etc…) is related to the required memory size. It is pertinent to remind that the memory used by CMAC depends firstly on the input signal quantification step and secondly on the input space dimension. For real CMAC based control applications, on the one hand, in order to increase the accuracy of the control the chosen quantification step must be as small as possible; on the other hand, generally the input space dimension is greater than two. In order to overcome the problem relating the memory size, how both the generalization and step quantization parameters may influence the CMAC's approximation quality has been discussed. Our goal is to find an optimal CMAC structure for complex dynamic systems' control. Biped robots and Flight control design for airbreathing hypersonic vehicles are two actual areas of such systems. We have applied the investigated concepts on these two quite different areas. The presented simulation results show that an optimal or sub-optimal structure carrying out a minimal modeling error could be achieved. The choice of an optimal structure allows decreasing the memory size and reducing the computing time as well
376

Sélection de variables pour l’analyse des données semi-supervisées dans les systèmes d’Information décisionnels / Feature selection for semi-supervised data analysis in decisional information systems

Hindawi, Mohammed 21 February 2013 (has links)
La sélection de variables est une tâche primordiale en fouille de données et apprentissage automatique. Il s’agit d’une problématique très bien connue par les deux communautés dans les contextes, supervisé et non-supervisé. Le contexte semi-supervisé est relativement récent et les travaux sont embryonnaires. Récemment, l’apprentissage automatique a bien été développé à partir des données partiellement labélisées. La sélection de variables est donc devenue plus importante dans le contexte semi-supervisé et plus adaptée aux applications réelles, où l’étiquetage des données est devenu plus couteux et difficile à obtenir. Dans cette thèse, nous présentons une étude centrée sur l’état de l’art du domaine de la sélection de variable en s’appuyant sur les méthodes qui opèrent en mode semi-supervisé par rapport à celles des deux contextes, supervisé et non-supervisé. Il s’agit de montrer le bon compromis entre la structure géométrique de la partie non labélisée des données et l’information supervisée de leur partie labélisée. Nous nous sommes particulièrement intéressés au «small labeled-sample problem» où l’écart est très important entre les deux parties qui constituent les données. Pour la sélection de variables dans ce contexte semi-supervisé, nous proposons deux familles d’approches en deux grandes parties. La première famille est de type «Filtre» avec une série d’algorithmes qui évaluent la pertinence d’une variable par une fonction de score. Dans notre cas, cette fonction est basée sur la théorie spectrale de graphe et l’intégration de contraintes qui peuvent être extraites à partir des données en question. La deuxième famille d’approches est de type «Embedded» où la sélection de variable est intrinsèquement liée à un modèle d’apprentissage. Pour ce faire, nous proposons des algorithmes à base de pondération de variables dans un paradigme de classification automatique sous contraintes. Deux visions sont développées à cet effet, (1) une vision globale en se basant sur la satisfaction relaxée des contraintes intégrées directement dans la fonction objective du modèle proposé ; et (2) une deuxième vision, qui est locale et basée sur le contrôle stricte de violation de ces dites contraintes. Les deux approches évaluent la pertinence des variables par des poids appris en cours de la construction du modèle de classification. En outre de cette tâche principale de sélection de variables, nous nous intéressons au traitement de la redondance. Pour traiter ce problème, nous proposons une méthode originale combinant l’information mutuelle et un algorithme de recherche d’arbre couvrant construit à partir de variables pertinentes en vue de l’optimisation de leur nombre au final. Finalement, toutes les approches développées dans le cadre de cette thèse sont étudiées en termes de leur complexité algorithmique d’une part et sont validés sur des données de très grande dimension face et des méthodes connues dans la littérature d’autre part. / Feature selection is an important task in data mining and machine learning processes. This task is well known in both supervised and unsupervised contexts. The semi-supervised feature selection is still under development and far from being mature. In general, machine learning has been well developed in order to deal with partially-labeled data. Thus, feature selection has obtained special importance in the semi-supervised context. It became more adapted with the real world applications where labeling process is costly to obtain. In this thesis, we present a literature review on semi-supervised feature selection, with regard to supervised and unsupervised contexts. The goal is to show the importance of compromising between the structure from unlabeled part of data, and the background information from their labeled part. In particular, we are interested in the so-called «small labeled-sample problem» where the difference between both data parts is very important. In order to deal with the problem of semi-supervised feature selection, we propose two groups of approaches. The first group is of «Filter» type, in which, we propose some algorithms which evaluate the relevance of features by a scoring function. In our case, this function is based on spectral-graph theory and the integration of pairwise constraints which can be extracted from the data in hand. The second group of methods is of «Embedded» type, where feature selection becomes an internal function integrated in the learning process. In order to realize embedded feature selection, we propose algorithms based on feature weighting. The proposed methods rely on constrained clustering. In this sense, we propose two visions, (1) a global vision, based on relaxed satisfaction of pairwise constraints. This is done by integrating the constraints in the objective function of the proposed clustering model; and (2) a second vision, which is local and based on strict control of constraint violation. Both approaches evaluate the relevance of features by weights which are learned during the construction of the clustering model. In addition to the main task which is feature selection, we are interested in redundancy elimination. In order to tackle this problem, we propose a novel algorithm based on combining the mutual information with maximum spanning tree-based algorithm. We construct this tree from the relevant features in order to optimize the number of these selected features at the end. Finally, all proposed methods in this thesis are analyzed and their complexities are studied. Furthermore, they are validated on high-dimensional data versus other representative methods in the literature.
377

Configuration automatique d’un solveur générique intégrant des techniques de décomposition arborescente pour la résolution de problèmes de satisfaction de contraintes / Automatic configuration of generic solver embedding tree-decomposition techniques for solving constraint satisfaction problems

Blet, Loïc 30 September 2015 (has links)
La programmation par contraintes intègre des algorithmes de résolution génériques dans des langages de modélisation déclaratifs basés sur les contraintes : ces langages permettent de décrire des problèmes combinatoires sous la forme d’un ensemble de variables devant prendre leurs valeurs dans des domaines en satisfaisant des contraintes. Nous introduisons dans cette thèse un algorithme de résolution générique paramétré par : — une stratégie d’exploration de l’espace de recherche, à choisir parmi, chronological backtracking, conflict directed backjumping, conflict directed backjumping with reordering, dynamic backtracking, decision repair, et backtracking with tree decomposition ; — une heuristique de choix de variables, à choisir parmi, min-domain/ddeg et min-domain/wdeg ; — une technique de propagation de contraintes, à choisir parmi, forward checking et maintaining arc consistency. Ainsi, cet algorithme générique s’instancie en vingt-quatre configurations différentes ; certaines correspondant à des algorithmes connus, d’autres étant nouvelles. Ces vingt- quatre configurations ont été comparées expérimentalement sur un benchmark de plus de mille instances, chaque configuration étant exécutée plusieurs fois sur chaque instance pour tenir compte du non déterminisme des exécutions. Des tests statistiques sont utilisés pour comparer les performances. Cette évaluation expérimentale a permis de mieux comprendre la complémentarité des différents mécanismes de résolution, avec une attention particulière portée sur la capacité à tirer parti de la structure des instances pour accélérer la résolution. Nous identifions notamment treize configurations complémentaires telles que chaque instance de notre benchmark est bien résolue par au moins une des treize configurations. Une deuxième contribution de la thèse est d’introduire un sélecteur capable de choisir automatiquement la meilleure configuration de notre algorithme générique pour chaque nouvelle instance à résoudre : nous décrivons chaque instance par un ensemble de descripteurs et nous utilisons des techniques d’apprentissage automatique pour construire un modèle de choix de configuration à partir de ces descripteurs. Sachant que l’apprentissage est généralement plus difficile quand il y a beaucoup de configurations, nous exprimons le problème du choix du sous-ensemble de configurations pouvant être sélectionnées comme un problème de couverture d’ensemble et nous comparons deux critères de choix : le premier vise à maximiser le nombre d’instances résolues par au moins une configuration et le second vise à maximiser le nombre d’instances pour lesquelles il y a une bonne configuration disponible. Nous montrons expérimentalement que la seconde stratégie obtient généralement de meilleurs résultats, et que le sélecteur obtient de meilleures performances que chacune de nos vingt-quatre configurations initiales. / Constraint programming integrates generic solving algorithms within declarative languages based on constraints : these languages allow us to describe combinatorial problems as a set of variables which have to take their values in domains while satisfying constraints. Numerous real-life problems can be modelled in such a way, as for instance, planification problems, scheduling problems, . . . These problems are NP-complete in the general case of finite domains. We introduce in this work a generic solving algorithm parameterized by : — a strategy for exploring the search space, to be chosen from the following six, chronological backtracking, conflict directed backjumping, conflict directed backjumping with reordering, dynamic backtracking, decision repair, and backtracking with tree decomposition ; — a variable ordering heuristic, to be chosen from the following two, min-domain/ddeg and min-domain/wdeg ; — a constraint propagation technique, to be chosen from the following two, forward checking and maintaining arc consistency. Thus, this algorithm leads to 24 different configurations ; some corresponding to already known algorithms, others being new. These 24 configurations have been com- pared experimentally on a benchmark of more than a thousand instances, each configuration being executed several times to take into account the non-determinism of the executions, and a statistical test has been used to compare performances. This experimental evaluation allowed us to better understand the complementarity of the different solving mechanisms, with a focus on the ability to exploit the structure of the instances to speed up the solving process. We identify 13 complementary configurations such that every instance of our benchmark is well solved by at least one of the 13 configurations. A second contribution of this work is to introduce a selector able to choose automatically the best configuration of our generic solver for each new instance to be solved : we describe each instance by a set of features and we use machine learning techniques to build a model to choose a configuration based on these features. Knowing that the learning process is generally harder when there are many configurations to choose from, we state the problem of choosing a subset of configurations that can be picked as a set covering problem and we compare two criterion : the first one aims to maximize the number of instances solved by at least one configuration and the second one aims to maximize the number of instances for which there is a good configuration available. We show experimentally that the second strategy obtains generally better results and that the selector obtains better performances than each of the 24 initial configurations.
378

Deep learning for human motion analysis / Apprentissage automatique de représentations profondes pour l’analyse du mouvement humain

Neverova, Natalia 08 April 2016 (has links)
L'objectif de ce travail est de développer des méthodes avancées d'apprentissage pour l’analyse et l'interprétation automatique du mouvement humain à partir de sources d'information diverses, telles que les images, les vidéos, les cartes de profondeur, les données de type “MoCap” (capture de mouvement), les signaux audio et les données issues de capteurs inertiels. A cet effet, nous proposons plusieurs modèles neuronaux et des algorithmes d’entrainement associés pour l’apprentissage supervisé et semi-supervisé de caractéristiques. Nous proposons des approches de modélisation des dépendances temporelles, et nous montrons leur efficacité sur un ensemble de tâches fondamentales, comprenant la détection, la classification, l’estimation de paramètres et la vérification des utilisateurs (la biométrie). En explorant différentes stratégies de fusion, nous montrons que la fusion des modalités à plusieurs échelles spatiales et temporelles conduit à une augmentation significative des taux de reconnaissance, ce qui permet au modèle de compenser les erreurs des classifieurs individuels et le bruit dans les différents canaux. En outre, la technique proposée assure la robustesse du classifieur face à la perte éventuelle d’un ou de plusieurs canaux. Dans un deuxième temps nous abordons le problème de l’estimation de la posture de la main en présentant une nouvelle méthode de régression à partir d’images de profondeur. Dernièrement, dans le cadre d’un projet séparé (mais lié thématiquement), nous explorons des modèles temporels pour l'authentification automatique des utilisateurs de smartphones à partir de leurs habitudes de tenir, de bouger et de déplacer leurs téléphones. Dans ce contexte, les données sont acquises par des capteurs inertiels embraqués dans les appareils mobiles. / The research goal of this work is to develop learning methods advancing automatic analysis and interpreting of human motion from different perspectives and based on various sources of information, such as images, video, depth, mocap data, audio and inertial sensors. For this purpose, we propose a several deep neural models and associated training algorithms for supervised classification and semi-supervised feature learning, as well as modelling of temporal dependencies, and show their efficiency on a set of fundamental tasks, including detection, classification, parameter estimation and user verification. First, we present a method for human action and gesture spotting and classification based on multi-scale and multi-modal deep learning from visual signals (such as video, depth and mocap data). Key to our technique is a training strategy which exploits, first, careful initialization of individual modalities and, second, gradual fusion involving random dropping of separate channels (dubbed ModDrop) for learning cross-modality correlations while preserving uniqueness of each modality-specific representation. Moving forward, from 1 to N mapping to continuous evaluation of gesture parameters, we address the problem of hand pose estimation and present a new method for regression on depth images, based on semi-supervised learning using convolutional deep neural networks, where raw depth data is fused with an intermediate representation in the form of a segmentation of the hand into parts. In separate but related work, we explore convolutional temporal models for human authentication based on their motion patterns. In this project, the data is captured by inertial sensors (such as accelerometers and gyroscopes) built in mobile devices. We propose an optimized shift-invariant dense convolutional mechanism and incorporate the discriminatively-trained dynamic features in a probabilistic generative framework taking into account temporal characteristics. Our results demonstrate, that human kinematics convey important information about user identity and can serve as a valuable component of multi-modal authentication systems.
379

Mécanismes d’apprentissage développemental et intrinsèquement motivés en intelligence artificielle : étude des mécanismes d'intégration de l'espace environnemental / Developmental and intrinsically motivated learning mechanisms in artificial intelligence : study of environmental space integration mechanisms

Gay, Simon 15 December 2014 (has links)
Cette thèse s'inscrit dans le cadre du projet IDEAL (Implementing DevelopmentAl Learning) financé par l'Agence Nationale de la Recherche (ANR). La capacité à percevoir, mémoriser et interpréter l'environnement qui nous entoure est une capacité vitale que l'on retrouve chez de nombreux êtres vivants. Cette capacité leur permet de générer des comportements adaptés à leur contexte, ou d'échapper à un prédateur sorti de leur champ de vision. L'objectif de cette thèse consiste à doter un agent artificiel de cette capacité. Nous proposons un modèle théorique permettant à un agent artificiel de générer des connaissances exploitables des éléments constituant son environnement et une structure reflétant l'espace. Ce modèle est basé sur la théorie de la contingence sensorimotrice, et implémente une forme de motivation intrinsèque. En effet, ce modèle débute avec un ensemble de structure indivisibles, appelées interactions, caractérisant les échanges entre l'agent et son environnement. L'apprentissage des connaissances est développemental et émerge de l'interaction entre l'agent et son environnement, sans qu'aucune intervention extérieure (récompense), ne soit nécessaire. Notre modèle propose des mécanismes permettant d'organiser et d'exploiter ces connaissances émergentes dans le but de générer des comportements. Nous proposons des implémentations de ce modèle pour démontrer l'émergence d'une connaissance à partir de l'interaction entre l'agent et son environnement, et les comportements qui émergent de cette connaissance / This thesis is a part of the IDEAL project (Implementing DEvelopmentAl Learning) funded by the Agence Nationale de la Recherche (ANR). The ability of perceiving, memorizing and interpreting the surrounding environment is a vital ability found in numerous living beings. This ability allows them to generate context adapted behaviors, or escaping from a predator that escape from their sensory system. The objective of this thesis consists in implementing such a capacity in artificial agents. We propose a theoretical model that allows artificial agent to generate a usable knowledge of elements that compose its environment and a structure able to characterize the structure of surrounding space. This model is based on the sensorimotor contingency theory, and implements a form of intrinsic motivation. Indeed, this model begin with a set of indivisible structures, called interactions, that characterize the interaction possibilities between the agent and its environment. The learning is developmental and emerges from the interaction that occurs between the agent and the environment, without the need of any external intervention (like reward). Our model propose a set of mechanisms that allow to organize and exploit emerging knowledge in order to generate behaviors. We propose implementations of our model to demonstrate the emerging knowledge based on agent-environment interaction, and behaviors that can emerge from this knowledge
380

Approche décentralisée de l'apprentissage constructiviste et modélisation multi-agent du problème d'amorçage de l'apprentissage sensorimoteur en environnement continu : application à l'intelligence ambiante / Bootstrapping sensory-motor patterns for a constructivist learning system in continuous environments based on decentralized multi-agent approach : application to ambient intelligence

Mazac, Sébastien 06 October 2015 (has links)
Nous proposons donc un modèle original d'apprentissage constructiviste adapté pour un système d'AmI. Ce modèle repose sur une approche décentralisée, permettant de multiples implémentations convenant à un environnement hétérogène. Dans les environnements réels continus sans modélisation à priori, se pose la question de la modélisation des structures élémentaires de représentation et particulièrement le problème d'amorçage de l'apprentissage sensorimoteur (comme décrit par [Kuipers06]). Dans le cadre du modèle général proposé, nous explicitons ce problème particulier et proposons de le traiter comme une forme d'auto-organisation modélisée par un système multi-agent. Cette approche permet de construire des motifs d'interaction élémentaires à partir des seules données brutes, sur lesquels peut reposer la construction d'une représentation plus élaborée (voir [Mazac14]). Nous présentons enfin une série d'expérimentations illustrant la résolution de ce problème d'amorçage : tout d'abord grâce à un environnement simulé, qui permet de maitriser les régularités de l'environnement et autorise des expérimentations rapides ; ensuite en implémentant ce système d'apprentissage au sein d'un environnement d'AmI réel. Pour cela le modèle est intégré dans le système d'AmI développé par l'entreprise partenaire de cette thèse CIFRE. Puis nous présentons une possible application industrielle des résultats de cette première étape implémentée d'amorçage de l'apprentissage sensorimoteur. Nous concluons par l'analyse des résultats et des perspectives de ce type d'approche pour l'AmI et l'application en général de l'IA aux systèmes réels en environnements continus / The theory of cognitive development from Jean Piaget (1923) is a constructivist perspective of learning that has substantially influenced cognitive science domain. Within AI, lots of works have tried to take inspiration from this paradigm since the beginning of the discipline. Indeed it seems that constructivism is a possible trail in order to overcome the limitations of classical techniques stemming from cognitivism or connectionism and create autonomous agents, fitted with strong adaptation ability within their environment, modelled on biological organisms. Potential applications concern intelligent agents in interaction with a complex environment, with objectives that cannot be predefined. Like robotics, Ambient Intelligence (AmI) is a rich and ambitious paradigm that represents a high complexity challenge for AI. In particular, as a part of constructivist theory, the agent has to build a representation of the world that relies on the learning of sensori-motor patterns starting from its own experience only. This step is difficult to set up for systems in continuous environments, using raw data from sensors without a priori modelling.With the use of multi-agent systems, we investigate the development of new techniques in order to adapt constructivist approach of learning on actual cases. Therefore, we use ambient intelligence as a reference domain for the application of our approach

Page generated in 0.6094 seconds