• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 30
  • 15
  • 2
  • Tagged with
  • 47
  • 47
  • 24
  • 23
  • 15
  • 14
  • 11
  • 11
  • 9
  • 7
  • 6
  • 6
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Acquisition de liens sémantiques à partir d'éléments de mise en forme des textes : exploitation des structures énumératives / Acquisition of semantic relations from layout elements : exploitation of enumerative structures

Fauconnier, Jean-Philippe 27 January 2016 (has links)
Ces dernières années de nombreux progrès ont été faits dans le domaine de l'extraction de relations à partir de textes, facilitant ainsi la construction de ressources lexicales ou sémantiques. Cependant, les méthodes proposées (apprentissage supervisé, méthodes à noyaux, apprentissage distant, etc.) n'exploitent pas tout le potentiel des textes : elles ont généralement été appliquées à un niveau phrastique, sans tenir compte des éléments de mise en forme. Dans ce contexte, l'objectif de cette thèse est d'adapter ces méthodes à l'extraction de relations exprimées au-delà des frontières de la phrase. Pour cela, nous nous appuyons sur la sémantique véhiculée par les indices typographiques (puces, emphases, etc.) et dispositionnels (indentations visuelles, retours à la ligne, etc.), qui complètent des formulations strictement discursives. En particulier, nous étudions les structures énumératives verticales qui, bien qu'affichant des discontinuités entre leurs différents composants, présentent un tout sur le plan sémantique. Ces structures textuelles sont souvent révélatrices de relations hiérarchiques. Notre travail est divisé en deux parties. (i) La première partie décrit un modèle pour représenter la structure hiérarchique des documents. Ce modèle se positionne dans la suite des modèles théoriques proposés pour rendre compte de l'architecture textuelle : une abstraction de la mise en forme et une connexion forte avec la structure rhétorique sont faites. Toutefois, notre modèle se démarque par une perspective d'analyse automatique des textes. Nous en proposons une implémentation efficace sous la forme d'une méthode ascendante et nous l'évaluons sur un corpus de documents PDF.(ii) La seconde partie porte sur l'intégration de ce modèle dans le processus d'extraction de relations. Plus particulièrement, nous nous sommes focalisés sur les structures énumératives verticales. Un corpus a été annoté selon une typologie multi-dimensionnelle permettant de caractériser et de cibler les structures énumératives verticales porteuses de relations utiles à la création de ressources. Les observations faites en corpus ont conduit à procéder en deux étapes par apprentissage supervisé pour analyser ces structures : qualifier la relation puis en extraire les arguments. L'évaluation de cette méthode montre que l'exploitation de la mise en forme, combinée à un faisceau d'indices lexico-syntaxiques, améliore les résultats. / The past decade witnessed significant advances in the field of relation extraction from text, facilitating the building of lexical or semantic resources. However, the methods proposed so far (supervised learning, kernel methods, distant supervision, etc.) don't fully exploit the texts : they are usually applied at the sentential level and they don't take into account the layout and the formatting of texts. In such a context, this thesis aims at expanding those methods and makes them layout-aware for extracting relations expressed beyond sentence boundaries. For this purpose, we rely on the semantics conveyed by typographical (bullets, emphasis, etc.) and dispositional (visual indentations, carriage returns, etc.) features. Those features often substitute purely discursive formulations. In particular, the study reported here is dealing with the relations carried by the vertical enumerative structures. Although they display discontinuities between their various components, the enumerative structures can be dealt as a whole at the semantic level. They form textual structures prone to hierarchical relations. This study was divided into two parts. (i) The first part describes a model representing the hierarchical structure of documents. This model is falling within the theoretical framework representing the textual architecture : an abstraction of the layout and the formatting, as well as a strong connection with the rhetorical structure are achieved. However, our model focuses primarily on the efficiency of the analysis process rather than on the expressiveness of the representation. A bottom-up method intended for building automatically this model is presented and evaluated on a corpus of PDF documents. (ii) The second part aims at integrating this model into the process of relation extraction. In particular, we focused on vertical enumerative structures. A multidimensional typology intended for characterizing those structures was established and used into an annotation task. Thanks to corpus-based observations, we proposed a two-step method, by supervised learning, for qualifying the nature of the relation and identifying its arguments. The evaluation of our method showed that exploiting the formatting and the layout of documents, in combination with standard lexico-syntactic features, improves those two tasks.
2

Contributions to the use of analogical proportions for machine learning : theoretical properties and application to recommendation / Contributions à l'usage des proportions analogiques pour l'apprentissage artificiel : propriétés théoriques et application à la recommandation

Hug, Nicolas 05 July 2017 (has links)
Le raisonnement par analogie est reconnu comme une des principales caractéristiques de l'intelligence humaine. En tant que tel, il a pendant longtemps été étudié par les philosophes et les psychologues, mais de récents travaux s'intéressent aussi à sa modélisation d'un point de vue formel à l'aide de proportions analogiques, permettant l'implémentation de programmes informatiques. Nous nous intéressons ici à l'utilisation des proportions analogiques à des fins prédictives, dans un contexte d'apprentissage artificiel. Dans de récents travaux, les classifieurs analogiques ont montré qu'ils sont capables d'obtenir d'excellentes performances sur certains problèmes artificiels, là où d'autres techniques traditionnelles d'apprentissage se montrent beaucoup moins efficaces. Partant de cette observation empirique, cette thèse s'intéresse à deux axes principaux de recherche. Le premier sera de confronter le raisonnement par proportion analogique à des applications pratiques, afin d'étudier la viabilité de l'approche analogique sur des problèmes concrets. Le second axe de recherche sera d'étudier les classifieurs analogiques d'un point de vue théorique, car jusqu'à présent ceux-ci n'étaient connus que grâce à leurs définitions algorithmiques. Les propriétés théoriques qui découleront nous permettront de comprendre plus précisément leurs forces, ainsi que leurs faiblesses. Comme domaine d'application, nous avons choisi celui des systèmes de recommandation. On reproche souvent à ces derniers de manquer de nouveauté ou de surprise dans les recommandations qui sont adressées aux utilisateurs. Le raisonnement par analogie, capable de mettre en relation des objets en apparence différents, nous est apparu comme un outil potentiel pour répondre à ce problème. Nos expériences montreront que les systèmes analogiques ont tendance à produire des recommandations d'une qualité comparable à celle des méthodes existantes, mais que leur complexité algorithmique cubique les pénalise trop fortement pour prétendre à des applications pratiques où le temps de calcul est une des contraintes principales. Du côté théorique, une contribution majeure de cette thèse est de proposer une définition fonctionnelle des classifieurs analogiques, qui a la particularité d'unifier les approches préexistantes. Cette définition fonctionnelle nous permettra de clairement identifier les liens sous-jacents entre l'approche analogique et l'approche par k plus-proches-voisins, tant au plan algorithmique de haut niveau qu'au plan des propriétés théoriques (taux d'erreur notamment). De plus, nous avons pu identifier un critère qui rend l'application de notre principe d'inférence analogique parfaitement certaine (c'est-à-dire sans erreur), exhibant ainsi les propriétés linéaires du raisonnement par analogie. / Analogical reasoning is recognized as a core component of human intelligence. It has been extensively studied from philosophical and psychological viewpoints, but recent works also address the modeling of analogical reasoning for computational purposes, particularly focused on analogical proportions. We are interested here in the use of analogical proportions for making predictions, in a machine learning context. In recent works, analogy-based classifiers have achieved noteworthy performances, in particular by performing well on some artificial problems where other traditional methods tend to fail. Starting from this empirical observation, the goal of this thesis is twofold. The first topic of research is to assess the relevance of analogical learners on real-world, practical application problems. The second topic is to exhibit meaningful theoretical properties of analogical classifiers, which were yet only empirically studied. The field of application that was chosen for assessing the suitability of analogical classifiers in real-world setting is the topic of recommender systems. A common reproach addressed towards recommender systems is that they often lack of novelty and diversity in their recommendations. As a way of establishing links between seemingly unrelated objects, analogy was thought as a way to overcome this issue. Experiments here show that while offering sometimes similar accuracy performances to those of basic classical approaches, analogical classifiers still suffer from their algorithmic complexity. On the theoretical side, a key contribution of this thesis is to provide a functional definition of analogical classifiers, that unifies the various pre-existing approaches. So far, only algorithmic definitions were known, making it difficult to lead a thorough theoretical study. From this functional definition, we clearly identified the links between our approach and that of the nearest neighbors classifiers, in terms of process and in terms of accuracy. We were also able to identify a criterion that ensures a safe application of our analogical inference principle, which allows us to characterize analogical reasoning as some sort of linear process.
3

Learning Deep Representations : Toward a better new understanding of the deep learning paradigm / Apprentissage de représentations profondes : vers une meilleure compréhension du paradigme d'apprentissage profond

Arnold, Ludovic 25 June 2013 (has links)
Depuis 2006, les algorithmes d’apprentissage profond qui s’appuient sur des modèles comprenant plusieurs couches de représentations ont pu surpasser l’état de l’art dans plusieurs domaines. Les modèles profonds peuvent être très efficaces en termes du nombre de paramètres nécessaires pour représenter des opérations complexes. Bien que l’entraînement des modèles profonds ait été traditionnellement considéré comme un problème difficile, une approche réussie a été d’utiliser une étape de pré-entraînement couche par couche, non supervisée, pour initialiser des modèles profonds supervisés. Tout d’abord, l’apprentissage non-supervisé présente de nombreux avantages par rapport à la généralisation car il repose uniquement sur des données non étiquetées qu’il est facile de trouver. Deuxièmement, la possibilité d’apprendre des représentations couche par couche, au lieu de toutes les couches à la fois, améliore encore la généralisation et réduit les temps de calcul. Cependant, l’apprentissage profond pose encore beaucoup de questions relatives à la consistance de l’apprentissage couche par couche, avec de nombreuses couches, et à la difficulté d’évaluer la performance, de sélectionner les modèles et d’optimiser la performance des couches. Dans cette thèse, nous examinons d’abord les limites de la justification variationnelle actuelle pour l’apprentissage couche par couche qui ne se généralise pas bien à de nombreuses couches et demandons si une méthode couche par couche peut jamais être vraiment consistante. Nous constatons que l’apprentissage couche par couche peut en effet être consistant et peut conduire à des modèles génératifs profonds optimaux. Pour ce faire, nous introduisons la borne supérieure de la meilleure probabilité marginale latente (BLM upper bound), un nouveau critère qui représente la log-vraisemblance maximale d’un modèle génératif profond quand les couches supérieures ne sont pas connues. Nous prouvons que la maximisation de ce critère pour chaque couche conduit à une architecture profonde optimale, à condition que le reste de l’entraînement se passe bien. Bien que ce critère ne puisse pas être calculé de manière exacte, nous montrons qu’il peut être maximisé efficacement par des auto-encodeurs quand l’encodeur du modèle est autorisé à être aussi riche que possible. Cela donne une nouvelle justification pour empiler les modèles entraînés pour reproduire leur entrée et donne de meilleurs résultats que l’approche variationnelle. En outre, nous donnons une approximation calculable de la BLM upper bound et montrons qu’elle peut être utilisée pour estimer avec précision la log-vraisemblance finale des modèles. Nous proposons une nouvelle méthode pour la sélection de modèles couche par couche pour les modèles profonds, et un nouveau critère pour déterminer si l’ajout de couches est justifié. Quant à la difficulté d’entraîner chaque couche, nous étudions aussi l’impact des métriques et de la paramétrisation sur la procédure de descente de gradient couramment utilisée pour la maximisation de la vraisemblance. Nous montrons que la descente de gradient est implicitement liée à la métrique de l’espace sous-jacent et que la métrique Euclidienne peut souvent être un choix inadapté car elle introduit une dépendance sur la paramétrisation et peut entraîner une violation de la symétrie. Pour pallier ce problème, nous étudions les avantages du gradient naturel et montrons qu’il peut être utilisé pour restaurer la symétrie, mais avec un coût de calcul élevé. Nous proposons donc qu’une paramétrisation centrée peut rétablir la symétrie avec une très faible surcharge computationnelle. / Since 2006, deep learning algorithms which rely on deep architectures with several layers of increasingly complex representations have been able to outperform state-of-the-art methods in several settings. Deep architectures can be very efficient in terms of the number of parameters required to represent complex operations which makes them very appealing to achieve good generalization with small amounts of data. Although training deep architectures has traditionally been considered a difficult problem, a successful approach has been to employ an unsupervised layer-wise pre-training step to initialize deep supervised models. First, unsupervised learning has many benefits w.r.t. generalization because it only relies on unlabeled data which is easily found. Second, the possibility to learn representations layer by layer instead of all layers at once improves generalization further and reduces computational time. However, deep learning is a very recent approach and still poses a lot of theoretical and practical questions concerning the consistency of layer-wise learning with many layers and difficulties such as evaluating performance, performing model selection and optimizing layers. In this thesis we first discuss the limitations of the current variational justification for layer-wise learning which does not generalize well to many layers. We ask if a layer-wise method can ever be truly consistent, i.e. capable of finding an optimal deep model by training one layer at a time without knowledge of the upper layers. We find that layer-wise learning can in fact be consistent and can lead to optimal deep generative models. To do this, we introduce the Best Latent Marginal (BLM) upper bound, a new criterion which represents the maximum log-likelihood of a deep generative model where the upper layers are unspecified. We prove that maximizing this criterion for each layer leads to an optimal deep architecture, provided the rest of the training goes well. Although this criterion cannot be computed exactly, we show that it can be maximized effectively by auto-encoders when the encoder part of the model is allowed to be as rich as possible. This gives a new justification for stacking models trained to reproduce their input and yields better results than the state-of-the-art variational approach. Additionally, we give a tractable approximation of the BLM upper-bound and show that it can accurately estimate the final log-likelihood of models. Taking advantage of these theoretical advances, we propose a new method for performing layer-wise model selection in deep architectures, and a new criterion to assess whether adding more layers is warranted. As for the difficulty of training layers, we also study the impact of metrics and parametrization on the commonly used gradient descent procedure for log-likelihood maximization. We show that gradient descent is implicitly linked with the metric of the underlying space and that the Euclidean metric may often be an unsuitable choice as it introduces a dependence on parametrization and can lead to a breach of symmetry. To mitigate this problem, we study the benefits of the natural gradient and show that it can restore symmetry, regrettably at a high computational cost. We thus propose that a centered parametrization may alleviate the problem with almost no computational overhead.
4

On pattern classification in motor imagery-based brain-computer interfaces / Méthodes d'apprentissage automatique pour les interfaces cerveau-machine basées sur l'imagerie motrice

Dalhoumi, Sami 19 November 2015 (has links)
Une interface cerveau-machine (ICM) est un système qui permet d'établir une communication directe entre le cerveau et un dispositif externe, en contournant les voies de sortie normales du système nerveux périphérique. Différents types d'ICMs existent dans la littérature. Parmi eux, les ICMs basées sur l'imagerie motrice sont les plus prometteuses. Elles sont basées sur l'autorégulation des rythmes sensorimoteurs par l'imagination de mouvement des membres différents (par exemple, imagination du mouvement de la main gauche et la main droite). Les ICMs basées sur l'imagerie motrice sont les meilleurs candidats pour les applications dédiées à des patients sévèrement paralysés mais elles sont difficiles à mettre en place parce que l'autorégulation des rythmes du cerveau n'est pas une tâche simple.Dans les premiers stades de la recherche en ICMs basées sur l'imagerie motrice, l'utilisateur devait effectuer des semaines, voire des mois, d'entrainement afin de générer des motifs d'activité cérébrale stables qui peuvent être décodés de manière fiable par le système. Le développement des techniques d'apprentissage automatique supervisé spécifiques à chaque utilisateur a permis de réduire considérablement la durée d'entrainement en ICMs. Cependant, ces techniques sont toujours confrontées aux problèmes de longue durée de calibrage et non-stationnarité des signaux cérébraux qui limitent l'utilisation de cette technologie dans la vie quotidienne. Bien que beaucoup de techniques d'apprentissage automatique avancées ont été essayées, ça reste toujours pas un problème non résolu.Dans cette thèse, j'étudie de manière approfondie les techniques d'apprentissage automatique supervisé qui ont été tentées afin de surmonter les problèmes de longue durée de calibrage et la non-stationnarité des signaux cérébraux en ICMs basées sur l'imagerie motrice. Ces techniques peuvent être classées en deux catégories: les techniques qui sont invariantes à la non-stationnarité et les techniques qui s'adaptent au changement. Dans la première catégorie, les techniques d'apprentissage par transfert entre différentes sessions et/ou différents individus ont attiré beaucoup d'attention au cours des dernières années. Dans la deuxième catégorie, différentes techniques d'adaptation en ligne des modèles d'apprentissage ont été tentées. Parmi elles, les techniques basées sur les potentiels d'erreurs sont les plus prometteuses. Les deux principales contributions de cette thèse sont basés sur des combinaisons linéaires des classificateurs. Ainsi, ces méthodes sont accordées un intérêt particulier tout au long de ce manuscrit. Dans la première contribution, je étudie l'utilisation de combinaisons linéaires des classificateurs dans les ICMs basées sur l'apprentissage par transfert et je propose une méthode de classification inter-sujets basée sur les combinaisons linéaires de classifieurs afin de réduire le temps de calibrage en ICMs. Je teste l'efficacité de la méthode de combinaison de classifieurs utilisée et j'étudie les cas ou l'apprentissage par transfert a un effet négatif sur les performances des ICMs. Dans la deuxième contribution, je propose une méthode de classification inter-sujets qui permet de combiner l'apprentissage par transfert l'adaptation en ligne. Dans cette méthode, l'apprentissage par transfert est effectué en combinant linéairement des classifieurs appris à partir de signaux EEG de différents sujets. L'adaptation en ligne est effectué en mettant à jours les poids de ces classifieurs d'une manière semi-supervisée. / A brain-computer interface (BCI) is a system that allows establishing direct communication between the brain and an external device, bypassing normal output pathways of peripheral neuromuscular system. Different types of BCIs exist in literature. Among them, BCIs based on motor imagery (MI) are the most promising ones. They rely on self-regulation of sensorimotor rhythms by imagination of movement of different limbs (e.g., left hand and right hand). MI-based BCIs are best candidates for applications dedicated to severely paralyzed patients but they are hard to set-up because self-regulation of brain rhythms is not a straightforward task.In early stages of BCI research, weeks and even months of user training was required in order to generate stable brain activity patterns that can be reliably decoded by the system. The development of user-specific supervised machine learning techniques allowed reducing considerably training periods in BCIs. However, these techniques are still faced with the problems of long calibration time and brain signals non-stationarity that limit the use of this technology in out-of-the-lab applications. Although many out-of-the-box machine learning techniques have been attempted, it is still not a solved problem.In this thesis, I thoroughly investigate supervised machine learning techniques that have been attempted in order to overcome the problems of long calibration time and brain signals non-stationarity in MI-based BCIs. These techniques can be mainly classified into two categories: techniques that are invariant to non-stationarity and techniques that adapt to the change. In the first category, techniques based on knowledge transfer between different sessions and/or subjects have attracted much attention during the last years. In the second category, different online adaptation techniques of classification models were attempted. Among them, techniques based on error-related potentials are the most promising ones. The aim of this thesis is to highlight some important points that have not been taken into consideration in previous work on supervised machine learning in BCIs and that have to be considered in future BCI systems in order to bring this technology out of the lab. The two main contributions of this thesis are based on linear combinations of classifiers. Thus, these methods are given a particular interest throughout this manuscript. In the first contribution, I study the use of linear combinations of classifiers in knowledge transfer-based BCIs and I propose a novel ensemble-based knowledge transfer framework for reducing calibration time in BCIs. I investigate the effectiveness of the classifiers combination scheme used in this framework when performing inter-subjects classification in MI-based BCIs. Then, I investigate to which extent knowledge transfer is useful in BCI applications by studying situations in which knowledge transfer has a negative impact on classification performance of target learning task. In the second contribution, I propose an online inter-subjects classification framework that allows taking advantage from both knowledge transfer and online adaptation techniques. In this framework, called “adaptive accuracy-weighted ensemble” (AAWE), inter-subjects classification is performed using a weighted average ensemble in which base classifiers are learned using EEG signals recorded from different subjects and weighted according to their accuracies in classifying brain signals of the new BCI user. Online adaptation is performed by updating base classifiers' weights in a semi-supervised way based on ensemble predictions reinforced by interaction error-related potentials.
5

Apprentissage artificiel collectif ; aspects dynamiques et structurels / Collective machine learning ; structural and dynamic aspects

Veillon, Lise-Marie 08 March 2018 (has links)
L’apprentissage collectif dans un système multi-agents considère comment une communauté constituée d’agents autonomes partageant un même objectif d’apprentissage peut bénéficier, au niveau individuel et collectif, d’échanges structurés d’informations. Les agents, reliés par un réseau de communication, ont tous la faculté de percevoir des observations, appelées exemples d’apprentissage. Cette thèse s’appuie sur un protocole pré-existant, SMILE (Sound-Multi-agent-Incremental-LEarning), qui organise un échange parcimonieux d’exemples et d’hypothèses. Ce protocole garantit, dans le cas d’agents tous connectés, que les agents obtiennent une hypothèse qui tient compte de tous les exemples perçus par l’ensemble des agents. Il existe des variantes séquentielles de ce protocole qui mettent en place une propagation de l’information pour offrir les mêmes garanties dans un réseau, non pas complet mais, connexe.Cette thèse apporte deux nouveaux éclairages sur l’apprentissage artificiel collectif. Une première étude montre l’influence de la structure du réseau sur l’apprentissage avec un protocole dont les communications sont limitées au voisinage, sans propagation. Une seconde contribution présente et analyse un nouveau protocole, Waves, qui préserve les garanties de SMILE et dont les interactions en parallèle rendent l’apprentissage en réseau plus dynamique. Ce protocole est évalué en détail,dans un contexte simplifié de tour par tour, ce qui permet de le raffiner par la suite avec diverses améliorations. Il est cependant conçu pour s’adapter à un apprentissage en ligne et une acquisition non limitée, ni en temps ni en nombre, de nouveaux exemples par la communauté. / Collective learning in multi-agent systems considers how a community of autonomous agents sharing a learning purpose may benefit from exchanging information to learn efficiently as a community as well as individuals. The community forms a communication network where each agent may accesses observations, called learning examples. This thesis is based on a former protocol, SMILE (Sound-Multi-agent-Incremental-LEarning), which sets up parsimonious examples and hypotheses exchanges between agents. In a fully connected community, this protocol guarantees an agent’s hypothesis takes into account all the examples obtained by the community. Some sequential protocols add propagation to SMILE in order to extend this consistency guarantee to other connected networks. This thesis contribution to the artificial collective learning field is two fold.First, we investigate the influence of network structures on learning in networks when communication is limited to neighbourhood without further information propagation. Second, we present and analyze a new protocol, Waves, with SMILE’s guarantees and a more dynamic learning process thanks to its execution in parallel. The evaluation of this protocol in a simple turn-based setting gives the opportunity to improve it here in multiple ways. It is however meant to be used with online learning without any restriction on the acquisition rate of new examples, neither on speed nor number.
6

Reconnaissance automatique des sillons corticaux

Perrot, Matthieu 26 October 2009 (has links) (PDF)
La mise en évidence de biomarqueurs spéciques de pathologies cérébrales à l'échelle d'une population reste extrêmement dicile compte tenu de la variabilité inter-individuelle de la topographie sulco-gyrale. Cette thèse propose de répondre à cette diculté par l'identication automatique de 125 structures sulcales et leur mise en correspondance au travers des individus, à partir d'une base de 62 sujets labélisés manuellement. En s'appuyant sur la théorie des racines sulcales, les plissements corticaux sont découpés en entités élémentaires à labéliser. Dans une première phase, l'approche structurelle proposée précédemment par Jean-François Mangin et Denis Rivière a été revisitée pour faire face aux nombreux descripteurs morphomé- triques impliqués dans le processus d'identication. Dans une deuxième phase, cette modélisation a été reconsidérée intégralement au prot d'un cadre Bayésien exploitant des informations localisées (positions ou directions) négligées jusqu'alors, autorisant ainsi des schémas d'optimisation ecace. Dans ce cadre, la normalisation des données est essentielle ; cette question a été traitée sous la forme d'un processus de recalage ane global ou local à chaque sillon, de façon couplée au probl ème d'identication des sillons. Dans l'optique d'introduire plus d'information structurelle, une modélisation Markovienne traduisant une vue localisée de l'agencement entre plissements corticaux voisins a été introduite avec succès pour atteindre un taux de reconnaissance de plus de 86% pour chaque hémisphère. Seules les congurations atypiques ou les structures anatomiques les plus variables présentent encore de réelles dicultés.
7

Une nouvelle méthode d'apprentissage de données structurées : applications à l'aide à la découverte de médicaments

Goulon-Sigwalt-Abram, Aurélie 21 May 2008 (has links) (PDF)
La modélisation de propriétés et d'activités de molécules constitue un champ de recherche important, qui permet par exemple de guider la synthèse de médicaments. Les méthodes traditionnelles de modélisation établissent des relations non linéaires entre les propriétés étudiées et les caractéristiques structurelles des molécules, appelées descripteurs. Leurs principaux inconvénients résident dans la difficulté du choix des descripteurs et leur calcul préalable. Nous avons mis au point une nouvelle technique de modélisation qui s'affranchit de ces problèmes, en établissant une relation directe entre la structure des données et la propriété modélisée. L'apprentissage s'effectue non plus à partir de vecteurs de données, mais à partir de graphes. Les molécules peuvent en effet être représentées par des graphes, qui tiennent compte des liaisons chimiques, de la nature des atomes ou encore de la stéréochimie du composé initial. Chaque graphe de la base étudiée est alors associé à une fonction de même structure mathématique, appelée graph machine, obtenue par combinaison de fonctions paramétrées identiques. Ces paramètres sont alors déterminés par apprentissage. Nous montrons que les techniques traditionnelles de sélection de modèle peuvent être utilisées dans le cadre des graph machines ; elles permettent d'évaluer les capacités en généralisation des modèles proposés, mais aussi de détecter les catégories de molécules sous-représentées dans la base d'apprentissage, et d'estimer les intervalles de confiance des prédictions. De très bons résultats ont été obtenus par l'utilisation de cette technique sur un grand nombre de bases de données de propriétés ou d'activités moléculaires.
8

Apprentissage : Paradigmes, Structures et abstractions

Soldano, Henry 07 December 2009 (has links) (PDF)
L'ensemble des travaux présentés relève de l'Apprentissage Artificiel, et aborde l'apprentissage supervisé, ainsi que l'aide à la découverte par la fouille de données. On se place ici dans le cas où un problème d'apprentissage passe par l'exploration d'un "Espace de Recherche", constitué de représentations formées dans un certain langage d'énoncés. La structure cachée liant "énoncés" et sous-ensembles d'"objets", représentable dans un treillis intension/extension, permet en particulier de réduire l'espace de recherche dans les problèmes d'apprentissage supervisé. Je présente ensuite une forme d'"abstraction" ordonnée faisant varier le niveau de granularité des énoncés, ou des objets considérés, et garantissant que le treillis intension/extension est ainsi lui-même réduit. Certains travaux concernant la recherche de motifs séquentiels réquents, sont également interprétés du point de vue de cette relation intension/extension. Enfin, deux "paradigmes" nouveaux en apprentissage supervisé sont présentés, l'un traitant de la notion d'ambiguïté des exemples, l'autre étendant l'apprentissage supervisé cohérent dans un cadre collectif.
9

Contribution à l'étude, la conception et la mise en oeuvre de stratégie de contrôle intelligent distribué en robotique collective

Wang, Ting 11 July 2012 (has links) (PDF)
L'objectif de cette thèse s'inscrit dans la cadre général du développement d'une stratégie de contrôle intelligent distribué en robotique collective. En effet, dans un avenir proche, de nombreux robots vont progressivement intégrer notre environnent aussi bien dans les milieux industriel que domestique. L'objectif de ces robots sera de fournir, de manière autonome, des services aux êtres humains afin de leurs faciliter la vie quotidienne comme par exemple dans le cas de robots compagnons. Ces services pourront être le résultat du travail d'un robot ou bien la conséquence de la coopération de plusieurs robots homogènes et/ou hétérogènes regroupés au sein d'un réseau. Dans ce contexte, si les progrès technologiques permettent sans problème de communiquer et d'échanger des données entre deux agents artificiels distants, la conception de stratégies de contrôle permettant l'auto-organisation de plusieurs robots dans le but de réaliser une tâche précise est encore aujourd'hui un verrou scientifique important. Cette thèse a donc pour but de proposer des pistes pour élaborer des stratégies de contrôle intelligent pour des systèmes multi-robots dans le cadre plus particulier de la logistique industrielle. En effet, le domaine de logistique industrielle nécessite l'utilisation de nombreux robots mobiles comme par exemple des AGV (Automatic Guided Vehicles) pour transporter et stoker des marchandises. Dans ce contexte, nous pensons que le domaine de la logistique peut tirer bénéfice de l'utilisation de systèmes multi-robots. Dans un premier temps, cette thèse aborde donc la problématique de transport d'objet volumineux et encombrant par une formation de robot. Effectivement, il semble que la solution qui consiste à utiliser un ensemble de robots identiques pour transporter des charges de grandes envergures soit, d'une part, très intéressante d'un point de vue économique et, d'autre part, plus robuste et flexible d'un point vue technologique. Dans un deuxième temps, cette thèse aborde l'utilisation d'un réseau de robots hétérogènes qui sont capables de s'organiser afin de réaliser une tâche précise dans un milieu dynamique. Les travaux effectués dans le cadre de la présente thèse doctorale ont donc abouti à la proposition des stratégies viables de contrôle intelligent pour des systèmes multi-robots. Une étude d'application des concepts étudiés a été réalisée, implantée et validée dans le cadre plus particulier de la logistique industrielle. Elle a concerné d'abord le contexte d'un groupe multi-robots homogène, puis a été étendue au contexte d'un système multi-robots hétérogènes. Les points forts des travaux réalisés peuvent être résumés comme ceci :- Proposition, conception, réalisation et validation expérimentale d'une stratégie de contrôle adaptatif par l'apprentissage artificiel pour un robot non-holonomique. Quatre publications internationales ont valorisé cette partie des travaux.- Proposition, conception, réalisation et validation expérimentale d'une stratégie de contrôle hybridant la vision artificielle et l'apprentissage artificiel pour un groupe de robots homogènes. Deux publications internationales ont valorisé cette partie des travaux.- Proposition, conception, réalisation et validation expérimentale d'une stratégie de contrôle hybridant la vision artificielle et l'apprentissage artificiel pour un groupe de robots hétérogènes. Deux publications internationales ont valorisé cette partie des travaux. Il est pertinent de souligner que les travaux relatifs aux aspects précités ont été couronnés par le prix : ″Innovation Award 2011″ de Industrial Robot
10

Interaction basée sur des gestes définis par l'utilisateur : Application à la réalité virtuelle

Jego, Jean-François 12 December 2013 (has links) (PDF)
Ces travaux de recherche proposent une nouvelle méthode d'interaction gestuelle. Nous nous intéressons en particulier à deux domaines d'application : la thérapie à domicile par la réalité virtuelle et les arts scéniques numériques. Nous partons du constat que les interfaces standardisées ne sont pas adaptées à ces cas d'usage, car elles font appel à des gestes prédéfinis et imposés. Notre approche consiste à laisser la possibilité à l'utilisateur de faire apprendre ses gestes d'interaction par le système. Cela permet de prendre en compte ses besoins et aptitudes sensorimotrices. L'utilisateur réutilise ensuite son langage gestuel appris par le système pour interagir dans l'environnement virtuel. Cette approche pose des questions de recherche centrées sur la mémorisation, la rétroaction visuelle et la fatigue. Pour aborder ces trois aspects, nous étudions d'abord le rôle de l'affordance visuelle des objets et celui de la colocalisation dans la remémoration d'un corpus de gestes. Ensuite, nous évaluons l'influence de différents types de rétroactions visuelles sur l'évolution des gestes répétés par l'utilisateur dans une série de tâches de manipulation. Nous comparons également les performances entre des gestes d'amplitude réaliste et des gestes d'amplitude faible pour effectuer la même action. Aussi, nous attachons une importance à rendre l'interface accessible en utilisant des dispositifs bas coûts et peu intrusifs. Nous explorons les moyens de pallier les contraintes techniques liées aux systèmes peu performants. Pour cela, nous avons conduit des expériences où plus de six mille gestes proposés par une quarantaine d'utilisateurs ont été étudiés.

Page generated in 0.4742 seconds