• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 103
  • 57
  • 5
  • Tagged with
  • 162
  • 96
  • 56
  • 38
  • 34
  • 28
  • 24
  • 24
  • 22
  • 20
  • 18
  • 15
  • 15
  • 14
  • 14
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Introducing contextual awareness within the state estimation process : Bayes filters with context-dependent time-heterogeneous distributions / Présentation de sensibilisation contextuelle dans le processus d'estimation d'état : Extension de Bayes filtres avec des distributions de temps hétérogènes dépendant du contexte

Ravet, Alexandre 13 October 2015 (has links)
Ces travaux se focalisent sur une problématique fondamentale de la robotique autonome: l'estimation d'état. En effet, la plupart des approches actuelles permettant à un robot autonome de réaliser une tâche requièrent tout d'abord l'extraction d'une information d'état à partir de mesures capteurs bruitées. Ce vecteur d'état contient un ensemble de variables caractérisant le système à un instant t, comme la position du robot, sa vitesse, etc. En robotique comme dans de nombreux autres domaines, le filtrage bayésien est devenu la solution la plus populaire pour estimer l'état d'un système de façon robuste et à haute fréquence. Le succès du filtrage bayésien réside dans sa relative simplicité, que ce soit dans la mise en oeuvre des équations récursives de filtrage, ou encore dans la représentation simplifiée et intuitive du système au travers du modèle de Markov caché d'ordre 1. Généralement, un filtre bayésien repose sur une description minimaliste de l'état du système. Cette représentation simplifiée permet de conserver un temps d'exécution réduit, mais est également la conséquence de notre compréhension partielle du fonctionnement du système physique. Tous les aspects inconnus ou non modélisés du système sont ensuite représentés de façon globale par l'adjonction de composantes de bruit. Si ces composantes de bruit constituent une représentation simple et unifiée des aspects non modélisés du système, il reste néanmoins difficile de trouver des paramètres de bruit qui sont pertinents dans tous les contextes. En effet, à l'opposé de ce principe de modélisation, la problématique de navigation autonome pose le problème de la multiplicité d'environnements différents pour lesquels il est nécessaire de s'adapter intelligemment. Cette problématique nous amène donc à réviser la modélisation des aspects inconnus du systèmes sous forme de bruits stationnaires, et requiert l'introduction d'une information de contexte au sein du processus de filtrage. Dans ce cadre, ces travaux se focalisent spécifiquement sur l'amélioration du modèle état-observation sous-jacent au filtre bayésien afin de le doter de capacités d'adaptation vis-à-vis des perturbations contextuelles modifiant les performances capteurs. L'objectif principal est donc ici de trouver l'équilibre entre complexité du modèle et modélisation précise des phénomènes physiques représentés au travers d'une information de contexte. Nous établissons cet équilibre en modifiant le modèle état-observation afin de compenser les hypothèses simplistes de bruit stationnaire tout en continuant de bénéficier du faible temps de calcul requis par les équations récursives. Dans un premier temps, nous définissons une information de contexte basée sur un ensemble de mesures capteurs brutes, sans chercher à identifier précisément la typologie réelle de contextes de navigation. Toujours au sein du formalisme bayésien, nous exploitons des méthodes d'apprentissage statistique pour identifier une distribution d'observation non stationnaire et dépendante du contexte. cette distribution repose sur l'introduction de deux nouvelles composantes: un modèle destiné à prédire le bruit d'observation pour chaque capteur, et un modèle permettant de sélectionner un sous-ensemble de mesures à chaque itération du filtre. Nos investigations concernent également l'impact des méthodes d'apprentissage: dans le contexte historique du filtrage bayésien, le modèle état-observation est traditionnellement appris de manière générative, c'est à dire de manière à expliquer au mieux les paires état-observation contenues dans les données d'apprentissage. Cette méthode est ici remise en cause puisque, bien que fondamentalement génératif, le modèle état-observation est uniquement exploité au travers des équations de filtrage, et ses capacités génératives ne sont donc jamais utilisées[...] / Prevalent approaches for endowing robots with autonomous navigation capabilities require the estimation of a system state representation based on sensor noisy information. This system state usually depicts a set of dynamic variables such as the position, velocity and orientation required for the robot to achieve a task. In robotics, and in many other contexts, research efforts on state estimation converged towards the popular Bayes filter. The primary reason for the success of Bayes filtering is its simplicity, from the mathematical tools required by the recursive filtering equations, to the light and intuitive system representation provided by the underlying Hidden Markov Model. Recursive filtering also provides the most common and reliable method for real-time state estimation thanks to its computational efficiency. To keep low computational complexity, but also because real physical systems are not perfectly understood, and hence never faithfully represented by a model, Bayes filters usually rely on a minimum system state representation. Any unmodeled or unknown aspect of the system is then encompassed within additional noise terms. On the other hand, autonomous navigation requires robustness and adaptation capabilities regarding changing environments. This creates the need for introducing contextual awareness within the filtering process. In this thesis, we specifically focus on enhancing state estimation models for dealing with context-dependent sensor performance alterations. The issue is then to establish a practical balance between computational complexity and realistic modelling of the system through the introduction of contextual information. We investigate on achieving this balance by extending the classical Bayes filter in order to compensate for the optimistic assumptions made by modeling the system through time-homogeneous distributions, while still benefiting from the recursive filtering computational efficiency. Based on raw data provided by a set of sensors and any relevant information, we start by introducing a new context variable, while never trying to characterize a concrete context typology. Within the Bayesian framework, machine learning techniques are then used in order to automatically define a context-dependent time-heterogeneous observation distribution by introducing two additional models: a model providing observation noise predictions and a model providing observation selection rules.The investigation also concerns the impact of the training method we choose. In the context of Bayesian filtering, the model we exploit is usually trained in the generative manner. Thus, optimal parameters are those that allow the model to explain at best the data observed in the training set. On the other hand, discriminative training can implicitly help in compensating for mismodeled aspects of the system, by optimizing the model parameters with respect to the ultimate system performance, the estimate accuracy. Going deeper in the discussion, we also analyse how the training method changes the meaning of the model, and how we can properly exploit this property. Throughout the manuscript, results obtained with simulated and representative real data are presented and analysed.
12

Méthodes de modélisation bayésienne et applications en recherche clinique / Methods of bayesian modelling and applications in clinical research

Denis, Marie 01 July 2010 (has links)
Depuis quelques années un engouement pour les méthodes de modélisation bayésienne a été observé dans divers domaines comme l'environnement, la médecine. Les études en recherche clinique s'appuient sur la modélisation mathématique et l'inférence statistique. Le but de cette thèse est d'étudier les applications possibles d'une telle modélisation dans le cadre de la recherche clinique. En effet, les jugements, les connaissances des experts (médecins, biologistes..) sont nombreux et importants. Il semble donc naturel de vouloir prendre en compte toutes ces connaissances a priori dans le modèle statistique. Après un rappel sur les fondamentaux des statistiques bayésiennes, des travaux préliminaires dans le cadre de la théorie de la décision sont présentés ainsi qu'un état de l'art des méthodes d'approximation. Une méthode de Monte Carlo par chaînes de Markov à sauts réversibles a été mise en place dans le contexte de modèles bien connus en recherche clinique : le modèle de Cox et le modèle logistique. Une approche de sélection de modèle est proposée comme une alternative aux critères classiques dans le cadre de la régression spline. Enfin différentes applications des méthodes bayésiennes non paramétriques sont développées. Des algorithmes sont adaptés et implémentés afin de pouvoir appliquer de telles méthodes. Cette thèse permet de mettre en avant les méthodes bayésiennes de différentes façons dans le cadre de la recherche clinique au travers de plusieurs jeux de données. / For some years a craze for the methods of bayesian modelling was observed in diverse domains as the environment, the medicine. The studies in clinical research lies on the modelling mathematical and the statistical inference. The purpose of this thesis is to study the possible applications of such a modelling within the framework of the clinical research. Indeed, judgments, knowledge of the experts (doctors, biologists) are many and important. It thus seems natural to want to take into account all these knowledge a priori in the statistical model. After a background on the fundamental of the bayesian statistics, preliminary works within the framework of the theory of the decision are presented as well as a state of the art of the methods of approximation. A MCMC method with reversible jumps was organized in the context of models known well in clinical research : the model of Cox and the logistic model. An approach of selection of model is proposed as an alternative in the classic criteria within the framework of the regression spline. Finally various applications of the nonparametric bayesian methods are developed. Algorithms are adapted and implemented to be able to apply such methods. This thesis allows to advance the bayesian methods in various ways within the framework of the clinical research through several sets of data.
13

Algorithmique pour les Réseaux Bayésiens et leurs extensions

Smail, Linda 30 April 2004 (has links) (PDF)
Cette thèse est consacrée à la présentation d'un algorithme nouveau et à la formalisation et l'amélioration d'algorithmes existants pour le calcul des lois marginales et conditionnelles dans les réseaux bayésiens.<br /> Le chapitre 1 présente la théorie des réseaux bayésiens. Nous introduisons une nouvelle notion, celle de réseau bayésien de niveau deux, utile pour l'introduction de notre algorithme de calcul sur les réseaux bayésiens ; nous donnons également quelques résultats fondamentaux et nous situons dans notre formalisme un exemple d'école de réseau bayésien dit «Visite en Asie» .<br />Dans le second chapitre, nous exposons une propriété graphique appelée «d-séparation» grâce à laquelle on peut déterminer, pour tout couple de variables aléatoires ou de groupes de variables, et tout ensemble de conditionnement, s'il y a nécessairement, ou non, indépendance conditionnelle. Nous présentons également dans ce chapitre des résultats concernant le calcul de probabilités ou probabilités conditionnelles dans les réseaux bayésiens en utilisant les propriétés de la d-séparation. Ces résultats, qui concernent des écritures à notre connaissance originales de la factorisation de la loi jointe et de la loi conditionnée d'une famille de variables aléatoires du réseau bayésien (en liaison avec la notion de réseau bayésien de niveau deux) doivent trouver leur utilité pour les réseaux bayésiens de grande taille.<br />Le troisième chapitre donne la présentation détaillée et la justification d'un des algorithmes connus de calcul dans les réseaux bayésiens : il s'agit de l'algorithme LS (Lauritzen and Spigelhalter), basé sur la méthode de l'arbre de jonction. Pour notre part, après avoir présenté la notion de suite recouvrante propre possédant la propriété d'intersection courante, nous proposons un algorithme en deux versions (dont l'une est originale) qui permet de construire une suite de parties d'un réseau bayésien possédant cette propriété. Cette présentation est accompagnée d'exemples. <br />Dans le chapitre 4, nous donnons une présentation détaillée de l'algorithme des restrictions successives que nous proposons pour le calcul de lois (dans sa première version), et de lois conditionnelles (dans sa deuxième version). Cela est présenté après l'introduction d'une nouvelle notion : il s'agit de la descendance proche. Nous présentons également une application de l'algorithme des restrictions successives sur l'exemple «Visite en Asie» présenté en chapitre 1, et nous comparons le nombre d'opérations élémentaires effectuées avec celui qui intervient dans l'application de l'algorithme LS sur le même exemple. Le gain de calcul qui, à la faveur de cet exemple, apparaît au profit de l'algorithme des restrictions successives, sera comme toujours, d'autant plus marqué que la taille des réseaux et le nombre de valeurs prises par les variables seront plus élevés. C'est ce qui justifie l'insertion de notre algorithme au seins de « ProBT » , un logiciel d'inférence probabiliste, réalisé et diffusé par l'équipe Laplace localisée dans le laboratoire Gravir à INRIA Rhône Alpes. <br />En annexes nous rappelons les propriétés des graphes orientés sans circuits, les notions de base sur l'indépendance conditionnelle et l'équivalence de plusieurs définitions des réseaux bayésiens.
14

Systèmes multi-agent pour le diagnostic pluri-disciplinaire / Multi-agent system for multi-disciplinary diagnostic

Dumont, Julien 24 February 2011 (has links)
Ce travail de recherche est consacré à la formalisation et à la réalisation d’un processus de diagnostic pluridisplinaire. La particularité d’un tel diagnostic résulte du fait qu’il nécessite de nombreux spécialistes, chacun ayant des connaissances sur leur domaine. Le problème principal réside dans les interconnexions entre les domaines. Ces interconnexions peuvent ou non être connues et influer sur le diagnostic. Dans ce manuscrit, nous proposons de réaliser un diagnostic pluridisciplinaire l’aide d’un système multi-agents. Les agents élaborent un diagnostic local à un domaine puis, fusionnent leurs diagnostics afin d’obtenir le diagnostic pluridisciplinaire. Dans ce but, nous proposons un cadre d’argumentation et une méthode de fusion des diagnostics. Ensemble, ces deux propositions forment le modèle ANDi. / Sharing opinions among different participants is a useful and common way to build a constructive argumentation in order to solve complex problems that require the confrontation of different discipline areas. In such settings, experts build different arguments in relation to their own discipline area, then share and confront them to the other experts’ opinions. In this report we present an argumentative framework ANDi based on a multi-agent approach and Bayesian networks. In this framework, the agents support the elaboration of a global diagnostic from local ones. Local diagnostics are resulting of argumentations between group of experts from the same discipline area. We illustrate the use of this argumentation framework on the domain of fault diagnosis.
15

Vers une nouvelle génération de modèles de glissements co-sismiques : analyse stochastique et approche multi-données / Toward the next generation of earthquake source models : a stochastic approach involving multiple data-types

Gombert, Baptiste 23 March 2018 (has links)
L’explosion du nombre et de la variété des données géodésiques, sismologiques et tsunami disponibles est une opportunité exceptionnelle pour produire de nouveaux modèles de la source sismique. Mais ces données n’apportent pas toutes la même information et sont soumises à différentes sources d’incertitudes, rendant la solution au problème inverse non-unique. Dans cette thèse, nous utilisons une méthode d’échantillonnage bayésien pour produire de nouveaux modèles de glissement moins assujettis au sur-ajustement des données et permettant une estimation réaliste de l’incertitude associée aux paramètres estimés. Nous l’appliquons à l’étude du glissement dans trois contextes tectoniques différents : le séisme de Landers (1992, Mw=7.3), la zone de subduction équato-colombienne où s’est produit le séisme de Pedernales (2016, Mw=7.8), et le séisme intra-plaque de Tehuantepec (2017, Mw=8.2). À travers ce travail, nous démontrons l’importance de la considération rigoureuse des incertitudes et les atouts de l’approche bayésienne pour l’étude des différentes phases du cycle sismique. / The explosion in the amount and variety of available geodetic, tsunami, and seismological observations offers an outstanding opportunity to develop new seismic source models. But these data are sensitive to different sources of uncertainty and provide heterogeneous information, which makes the solution of the inverse problem non-unique.In this thesis, we use a Bayesian sampling method to propose new slip models, which benefit from an objective weighting of the various datasets by combining observational and modelling errors. These models are less affected by data overfit and allow a realistic assessment of posterior uncertainties. We apply this method to the study of slip processes occurring in three different tectonic contexts: the Landers earthquake (1992, Mw=7.3), the Ecuador-Colombia subduction zone which hosted the Pedernales earthquake (2016, Mw=7.8), and the intraslab Tehuantepec earthquake (2017, Mw=8.2). Through these analyses, we demonstrate how the study of the seismic cycle can benefit from rigorous uncertainty estimates and Bayesian sampling.
16

Méthodes quasi-Monte Carlo et Monte Carlo : application aux calculs des estimateurs Lasso et Lasso bayésien / Monte Carlo and quasi-Monte Carlo methods : application to calculations the Lasso estimator and the Bayesian Lasso estimator

Ounaissi, Daoud 02 June 2016 (has links)
La thèse contient 6 chapitres. Le premier chapitre contient une introduction à la régression linéaire et aux problèmes Lasso et Lasso bayésien. Le chapitre 2 rappelle les algorithmes d’optimisation convexe et présente l’algorithme FISTA pour calculer l’estimateur Lasso. La statistique de la convergence de cet algorithme est aussi donnée dans ce chapitre en utilisant l’entropie et l’estimateur de Pitman-Yor. Le chapitre 3 est consacré à la comparaison des méthodes quasi-Monte Carlo et Monte Carlo dans les calculs numériques du Lasso bayésien. Il sort de cette comparaison que les points de Hammersely donne les meilleurs résultats. Le chapitre 4 donne une interprétation géométrique de la fonction de partition du Lasso bayésien et l’exprime en fonction de la fonction Gamma incomplète. Ceci nous a permis de donner un critère de convergence pour l’algorithme de Metropolis Hastings. Le chapitre 5 présente l’estimateur bayésien comme la loi limite d’une équation différentielle stochastique multivariée. Ceci nous a permis de calculer le Lasso bayésien en utilisant les schémas numériques semi implicite et explicite d’Euler et les méthodes de Monte Carlo, Monte Carlo à plusieurs couches (MLMC) et l’algorithme de Metropolis Hastings. La comparaison des coûts de calcul montre que le couple (schéma semi-implicite d’Euler, MLMC) gagne contre les autres couples (schéma, méthode). Finalement dans le chapitre 6 nous avons trouvé la vitesse de convergence du Lasso bayésien vers le Lasso lorsque le rapport signal/bruit est constant et le bruit tend vers 0. Ceci nous a permis de donner de nouveaux critères pour la convergence de l’algorithme de Metropolis Hastings. / The thesis contains 6 chapters. The first chapter contains an introduction to linear regression, the Lasso and the Bayesian Lasso problems. Chapter 2 recalls the convex optimization algorithms and presents the Fista algorithm for calculating the Lasso estimator. The properties of the convergence of this algorithm is also given in this chapter using the entropy estimator and Pitman-Yor estimator. Chapter 3 is devoted to comparison of Monte Carlo and quasi-Monte Carlo methods in numerical calculations of Bayesian Lasso. It comes out of this comparison that the Hammersely points give the best results. Chapter 4 gives a geometric interpretation of the partition function of the Bayesian lasso expressed as a function of the incomplete Gamma function. This allowed us to give a convergence criterion for the Metropolis Hastings algorithm. Chapter 5 presents the Bayesian estimator as the law limit a multivariate stochastic differential equation. This allowed us to calculate the Bayesian Lasso using numerical schemes semi-implicit and explicit Euler and methods of Monte Carlo, Monte Carlo multilevel (MLMC) and Metropolis Hastings algorithm. Comparing the calculation costs shows the couple (semi-implicit Euler scheme, MLMC) wins against the other couples (scheme method). Finally in chapter 6 we found the Lasso convergence rate of the Bayesian Lasso when the signal / noise ratio is constant and when the noise tends to 0. This allowed us to provide a new criteria for the convergence of the Metropolis algorithm Hastings.
17

Brain-inspired predictive control of robotic sensorimotor systems / Contrôle prédictif neuro-inspiré de systèmes robotiques sensori-moteurs

Lopez, Léo 05 July 2017 (has links)
Résumé indisponible. / Résumé indisponible.
18

Influence des annotations imparfaites sur les systèmes de Traitement Automatique des Langues, un cadre applicatif: la résolution de l'anaphore pronominale

Weissenbacher, Davy 20 November 2008 (has links) (PDF)
Un système informatique ne peut traiter automatiquement un texte sans qu'un certain nombre d'informations contenues dans ce texte, comme les mots ou les phrases, ne soient annotées. L'annotation est en général produite automatiquement par un processus incrémental. Pour ajouter un nouveau niveau d'annotation un système exploite des annotations d'entrée, plus "simples", produites par les systèmes qui ont été appliqués précédemment au texte. Or aucun système d'annotation, à ce jour, ne réalise automatiquement une annotation parfaite d'un texte. En raison de la complexité et de la diversité de la langue naturelle, le biais de représentation est élevé : il est difficile d'isoler les annotations l'entrée discriminantes qui sont nécessaires pour annoter un texte. De plus, ces annotations d'entrée, résultant elles-même d'un calcul automatique, sont imparfaites i.e. imprécises, bruitées et parfois manquantes. Enfin, le corpus sur lequel ont été choisies les annotations d'entrée discriminantes est un rassemblement artificiel de textes d'un même domaine qui donne une vue partielle de la langue. Cette erreur l'estimation implique une variation importante de la fiabilité de ces annotations lorsque le système est appliqué sur un corpus d'un autre domaine. L'imperfection des annotations d'entrée et de sortie des systèmes de traitement automatique des langues (TAL) semble être une fatalité avec laquelle nous devons composer plutôt qu'un désagrément passager dû à la maturité naissante des techniques de TAL. Nous ne pouvons donc pas l'ignorer. L'imprécision des annotations se transmet et augmente à chaque niveau d'annotation du traitement d'un document. Si nous pouvons chercher à atténuer l'imperfection des informations d'entrée en réduisant le biais de représentation et l'erreur d'estimation, elles ne seront certainement jamais, sans intervention humaine, d'une qualité parfaite. Ce constat fait, une série de questions s'impose. Quelles sont les caractéristiques que le modèle de représentation des informations d'entrée doit réunir pour réduire le biais de représentation ? Comment adapter le statut des informations d'entrée dans le processus l'inférence du système lorsque, le système étant appliqué à un corpus d'un autre domaine, leur utilité vient à changer ? L'étude de la logique nous montre que nous savons raisonner formellement à partir d'informations imparfaites mais pouvons-nous en espérer un bénéfice pour le TAL ? Autrement dit, lequel de ces deux systèmes de TAL obtient les meilleures performances : un système qui intègre l'imperfection des informations d'entrée dans son processus de raisonnement ou un système prévu pour raisonner à partir d'informations d'entrée parfaites mais travaillant avec des informations imparfaites ? Pour répondre à ces questions, nous avons proposé un classifieur reposant sur le modèle des réseaux bayésiens. Ce modèle d'inférence probabiliste est adapté pour raisonner sur les données de la langue naturelle. La possibilité de représenter dans un formalisme unique les attributs hétérogènes qui décrivent les annotations d'entrée diminue le biais de représentation. Tous les attributs pertinents pour une tâche d'annotation peuvent être exploités lors de l'inférence et les données de chaque classe discriminées au mieux. Les probabilités conditionnelles a priori associées au réseau expriment un ensemble de contraintes dont nous nous servons pour estimer les valeurs inconnues des attributs et renforcer la fiabilité des attributs les plus bruités. De plus, leur apprentissage automatique atténue l'erreur d'estimation. L'étape d'apprentissage adapte les probabilités conditionnelles aux corpus et garantit que les attributs engagés dans la décision du classifieur sont toujours discriminants. Nous avons validé notre modèle sur le problème de la résolution du pronom it anaphorique dans les textes anglais. Nous avons conçu et implémenté un classifieur pour la distinction des pronoms impersonnels des pronoms anaphoriques et pour le choix de l'antécédent puis, nous avons évalué les deux classifieurs sur des corpus de domaines et de genres différents. L'analyse des résultats du classifieur pour la distinction des pronoms impersonnels a mis clairement en évidence l'intérêt de notre approche. Les résultats de notre classifieur sont meilleurs que ceux des systèmes de l'état de l'art concurrents. Sur la tâche plus difficile du choix de l'antécédent, les résultats de notre second classifieur sont moins satisfaisants mais ils restent comparables aux résultats des systèmes de l'état de l'art : lorsque l'imperfection des attributs est prise en compte dans l'inférence, l'emploi d'attributs de mauvaise qualité ne dégrade que très faiblement les performances du système ; si, sans être parfaits, les attributs sont de meilleure qualité, leur utilisation améliore significativement les performances du système. De plus, l'analyse des erreurs du classifieur montre qu'il est encore trop simple et qu'il modélise imparfaitement le problème du choix de l'antécédent. Pour corriger ces défauts du classifieur, nous proposons, en dernière partie de cette thèse, le prototype d'un nouveau classifieur reposant sur une extension des réseaux bayésiens dynamiques.
19

Approche stochastique bayésienne de la composition sémantique pour les modules de compréhension automatique de la parole dans les systèmes de dialogue homme-machine

Meurs, Marie-Jean 10 December 2009 (has links) (PDF)
Les systèmes de dialogue homme-machine ont pour objectif de permettre un échange oral efficace et convivial entre un utilisateur humain et un ordinateur. Leurs domaines d'applications sont variés, depuis la gestion d'échanges commerciaux jusqu'au tutorat ou l'aide à la personne. Cependant, les capacités de communication de ces systèmes sont actuellement limités par leur aptitude à comprendre la parole spontanée. Nos travaux s'intéressent au module de compréhension de la parole et présentent une proposition entièrement basée sur des approches stochastiques, permettant l'élaboration d'une hypothèse sémantique complète. Notre démarche s'appuie sur une représentation hiérarchisée du sens d'une phrase à base de frames sémantiques. La première partie du travail a consisté en l'élaboration d'une base de connaissances sémantiques adaptée au domaine du corpus d'expérimentation MEDIA (information touristique et réservation d'hôtel). Nous avons eu recours au formalisme FrameNet pour assurer une généricité maximale à notre représentation sémantique. Le développement d'un système à base de règles et d'inférences logiques nous a ensuite permis d'annoter automatiquement le corpus. La seconde partie concerne l'étude du module de composition sémantique lui-même. En nous appuyant sur une première étape d'interprétation littérale produisant des unités conceptuelles de base (non reliées), nous proposons de générer des fragments sémantiques (sous-arbres) à l'aide de réseaux bayésiens dynamiques. Les fragments sémantiques générés fournissent une représentation sémantique partielle du message de l'utilisateur. Pour parvenir à la représentation sémantique globale complète, nous proposons et évaluons un algorithme de composition d'arbres décliné selon deux variantes. La première est basée sur une heuristique visant à construire un arbre de taille et de poids minimum. La seconde s'appuie sur une méthode de classification à base de séparateurs à vaste marge pour décider des opérations de composition à réaliser. Le module de compréhension construit au cours de ce travail peut être adapté au traitement de tout type de dialogue. Il repose sur une représentation sémantique riche et les modèles utilisés permettent de fournir des listes d'hypothèses sémantiques scorées. Les résultats obtenus sur les données expérimentales confirment la robustesse de l'approche proposée aux données incertaines et son aptitude à produire une représentation sémantique consistante
20

Utilisation de ressources externes dans un modèle Bayésien de Recherche d'Information. Application à la recherche d'information multilingue avec UMLS.

Le, Thi Hoang Diem 29 May 2009 (has links) (PDF)
Dans les systèmes de recherche d'information, une indexation à base de termes et une correspondance à base d'intersection introduisent le problème de la disparité à cause des variations linguistiques. Avec l'objectif de résoudre ce problème, notre travail de thèse se positionne dans l'utilisation des ressources externes dans la recherche d'information. Ces ressources offrent non seulement les concepts pour une indexation plus précise et indépendante de langue, mais aussi une base de relations sémantiques entre ces concepts. Nous étudions en premier une indexation par concepts extraits à partir d'une ressource externe. Nous proposons ensuite de prendre en compte ces relations sémantiques entre les concepts dans la correspondance par un modèle de recherche d'information basé sur un réseau Bayésien des concepts et leurs relations sémantiques. Ainsi, nous étudions les extensions de l'indexation conceptuelle à des documents et requête structurés et multi-médias. Les fonctions de reclassement et de combinaison ont été proposées afin d'améliorer la performance de la recherche dans ces contextes. La validation des propositions est effectuée par des expérimentations dans la recherche d'information multilingue médicale, avec l'utilisation du méta thésaurus UMLS comme ressource externe.

Page generated in 0.0854 seconds