• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 37
  • 15
  • 8
  • Tagged with
  • 60
  • 60
  • 36
  • 29
  • 29
  • 24
  • 20
  • 19
  • 16
  • 15
  • 15
  • 15
  • 13
  • 13
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Extraction de connaissances d'adaptation en raisonnement à partir de cas / Adaptation knowledge discovery in case-based reasoning

Badra, Fadi 20 November 2009 (has links)
Cette thèse se situe à l'intersection de trois domaines de recherche : le raisonnement à partir de cas, l'extraction de connaissances et la représentation des connaissances. Raisonner à partir de cas consiste à résoudre un nouveau problème en utilisant un ensemble de problèmes déjà résolus, appelés cas. Dans cette thèse, un langage de représentation des variations entre cas est introduit. Nous montrons comment ce langage peut être utilisé pour représenter les connaissances d'adaptation et pour modéliser la phase d'adaptation en raisonnement à partir de cas. Ce langage est ensuite appliqué à la tâche d'apprentissage de connaissances d’adaptation. Un processus d'extraction de connaissances, appelé CabamakA, est mis au point. Ce processus permet d'apprendre des connaissances d'adaptation par généralisation à partir d'une représentation des variations entre cas. Une discussion est ensuite menée sur les conditions d'opérationnalisation de CabamakA au sein d'un processus d’acquisition de connaissances. L'étude aboutit à la proposition d'un nouveau type d'approche pour l'acquisition de connaissances d'adaptation dans lequel le processus d'extraction de connaissances est déclenché de manière opportuniste au cours d'une session particulière de résolution de problèmes. Les différents concepts introduits dans la thèse sont illustrés dans le domaine culinaire à travers leur application au système de raisonnement à partir de cas Taaable, qui constitue le contexte applicatif de l'étude. / This thesis presents some contributions in three research domains : case-based reasoning, knowledge discovery and knowledge representation. Case-based reasoning consists in solving new problems by reusing a set of previous problem-solving experiences, called cases. In this thesis, a language is introduced to represent variations between cases. We first show how this language can be used to represent adaptation knowledge and to model the adaptation phase in case-based reasoning. This language is then applied to the task of adaptation knowledge learning. A knowledge discovery process, called CabamakA, is proposed, that learns adaptation knowledge by generalization from a representation of variations between cases. A discussion follows on how to make this knowledge discovery process operational in a knowledge acquisition process. The discussion leads to the proposition of a new approach for adaptation knowledge acquisition, in which the knowledge discovery process is triggered in an opportunistic manner at problem-solving time. The concepts introduced in the thesis are illustrated in the cooking domain through their application in the case-based reasoning system Taaable, that constitutes the application domain of the study.
2

Découverte et représentation des trajectoires de soins par analyse formelle de concepts

Jay, Nicolas 07 October 2008 (has links) (PDF)
Enjeu majeur de santé publique, les maladies chroniques nécessitent souvent une approche multidisciplinaire et des contacts multiples entre le patient et le système de soins. La maîtrise de ce parcours, la trajectoire de soins, est un gage de qualité des soins, qualité de vie et d'efficience médico-économique. Pour maîtriser les trajectoires de soins, il faut les connaître. Or, à ce jour en France, aucun système d'information en santé à grande échelle n'est conçu pour décrire les trajectoires de soins, encore moins d'en établir une typologie. Malgré tout, d'énormes quantités de données sont produites chaque année par le système de soins. Dans ce travail, nous proposons un système d'analyse et de représentation des trajectoires de soins à partir de données récoltées à l'origine pour d'autres utilisations. Ce système est fondé sur l'Analyse Formelle de Concepts (AFC), une méthode de classification conceptuelle capable de découvrir des liens naturels dans les données d'un tableau binaire et de les représenter sous forme de treillis de concepts. Nous montrons les apports de l'AFC dans la compréhension du fonctionnement du système de soins et les perspectives en termes d'exploration des réseaux sociaux en général. Par ailleurs, nous étudions, combinons et comparons deux mesures d'intérêt pour réduire la complexité des grands treillis et sélectionner les connaissances les plus pertinentes : la stabilité et le support d'un concept. Dans un parallèle avec la recherche de motifs fréquents simple et séquentiels, nous proposons une méthode de classification non supervisée des trajectoires de soins qui présente d'intéressantes capacités de visualisation et d'interprétabilité.
3

Métaheuristiques pour l'extraction de connaissances: Application à la génomique

Jourdan, Laetitia 26 November 2003 (has links) (PDF)
Le travail présenté dans cette thèse traite de l'extraction de connaissances à l'aide de métaheuristiques et de ses applications à des problématiques en génomique. Dans un premier temps, nous donnons un état de l'art des métaheuristiques utilisées pour l'extraction de connaissances et plus particulièrement de l'utilisation des algorithmes génétiques en orientant notre présentation sur trois aspects fondamentaux des métaheuristiques : la représentation d'une solution, la fonction d'évaluation et le choix des opérateurs. Nous présentons ensuite deux problématiques issues d'une collaboration avec l'Institut de Biologie de Lille autour de la recherche de facteurs génétiques de prédisposition à certaines maladies multifactorielles (diabète de type II, obésité). Nous proposons une modélisation de ces problèmes en problèmes d'extraction de connaissances. Nous traitons ensuite les différentes taches d'extraction de connaissances identifiées comme des problèmes d'optimisation et proposons un schéma d'algorithme génétique possédant des mécanismes avancés d'intensification et de diversification pour les résoudre. Les apports de ces mécanismes sont testés modulairement afin de montrer leurs performances. Nous intégrons également des connaissances du domaine biologique afin de répondre aux problématiques posées. Cette intégration s'effectue aussi bien au niveau des fonctions d'évaluation proposées qu'au niveau de certains mécanismes utilisés. Enfin, différents modèles de parallélisme sont utilisés.
4

Extraction de Connaissances a partir de Textes : M ethodes et Applications

Latiri, Chiraz 24 June 2013 (has links) (PDF)
Non dispo
5

Cadre général pour la recherche d'information et l'extraction de connaissances par l'exploration de treillis / General framework for information retrieval and knowledge discovery through lattice exploration

Viaud, Jean-François 31 August 2017 (has links)
Au cours des deux dernières décennies, nous avons été littéralement submergés par les données. Nous recevons, rapidement, un flux colossal de données hétérogènes. Les techniques issues de la recherche d’information doivent évoluer afin de les ordonner et de les sélectionner. D’un autre côté, les techniques d’extraction de connaissances sont capables d’extraire une quantité (exponentielle) de connaissances des données, en particulier lors de la fouille de règles d’association. De nouveaux outils doivent être fournis aux analystes des données. La recherche d’information et l’extraction de connaissances abordent la même problématique : elles structurent et organisent les données. La première sélectionne et attribue un rang, l’autre partitionne et hiérarchise. L’Analyse des Concepts Formels (FCA), introduite par R. Wille, utilise les treillis de concepts afin de mettre en évidence à la fois un ordre (au sens d’attribuer un rang) et une classification (au sens de partition). Cependant, il est bien connu de la communauté FCA que ces treillis peuvent avoir une taille exponentielle. Pour toutes ces raisons, des outils pour réduire la taille des données ou des treillis, sont nécessaires. Dans cette thèse, nous avons utilisé différentes approches. Des algorithmes distribués pour la FCA ont été définis afin de réduire la taille des données d’entrée en petits morceaux. Différentes méthodes de décomposition de treillis ont été étudiées ou définies. Certaines sont basées sur les relations de congruence, d’autres sur les relations de tolérance. Pour aider l’utilisateur dans ses choix de réduction, un cadre général, nommé LattExp, a été mis en place. LattExp fournit une possibilité de navigation à travers les réductions/décompositions et aide l’utilisateur dans ses choix. / During the last two decades, data have literrally overwhelmed the world. Indeed a huge amount of heterogenous data is daily produced, so that techniques of Information Retrieval have to evolve to order them and select relevant ones. On the other side, techniques of Knowledge Discovery are able to extract a potentially exponential number of patterns from data, especially association rules, so that new tools have to be defined to help data analysts in their job. Both information retrieval and knowledge discovery address the same issue : they structure and organize data. Nevertheless their points of view are different : the former selects and ranks data whether the latter classifies and clusters them. Formal Concept Analysis (FCA), introduced by R. Wille, uses concept lattices to reveal both an order and a classification inside data. However, it is well known in the FCA community, that these concept lattices may have an exponential size with respect to data. For all these reasons, tools to reduce the size of data, or lattices, are needed. In this thesis, some distributed algorithms for FCA have been designed in order to reduce input data into small pieces. Different decompositions of lattices have also been studied or defined, some based on congruence relations, other on tolerance relations. At last, to help the user in his choices of reduction, a general framework, named LattExp, have been defined. LattExp provides a navigation facility through reductions/decompositions and guide the user in his choices.
6

Gestion de l'incertitude dans le processus d'extraction de connaissances à partir de textes / Uncertainty management in the knowledge extraction process from text

Kerdjoudj, Fadhela 08 December 2015 (has links)
La multiplication de sources textuelles sur le Web offre un champ pour l'extraction de connaissances depuis des textes et à la création de bases de connaissances. Dernièrement, de nombreux travaux dans ce domaine sont apparus ou se sont intensifiés. De ce fait, il est nécessaire de faire collaborer des approches linguistiques, pour extraire certains concepts relatifs aux entités nommées, aspects temporels et spatiaux, à des méthodes issues des traitements sémantiques afin de faire ressortir la pertinence et la précision de l'information véhiculée. Cependant, les imperfections liées au langage naturel doivent être gérées de manière efficace. Pour ce faire, nous proposons une méthode pour qualifier et quantifier l'incertitude des différentes portions des textes analysés. Enfin, pour présenter un intérêt à l'échelle du Web, les traitements linguistiques doivent être multisources et interlingue. Cette thèse s'inscrit dans la globalité de cette problématique, c'est-à-dire que nos contributions couvrent aussi bien les aspects extraction et représentation de connaissances incertaines que la visualisation des graphes générés et leur interrogation. Les travaux de recherche se sont déroulés dans le cadre d'une bourse CIFRE impliquant le Laboratoire d'Informatique Gaspard Monge (LIGM) de l'Université Paris-Est Marne la Vallée et la société GEOLSemantics. Nous nous appuyons sur une expérience cumulée de plusieurs années dans le monde de la linguistique (GEOLSemantics) et de la sémantique (LIGM).Dans ce contexte, nos contributions sont les suivantes :- participation au développement du système d'extraction de connaissances de GEOLSemantics, en particulier : (1) le développement d'une ontologie expressive pour la représentation des connaissances, (2) le développement d'un module de mise en cohérence, (3) le développement d'un outil visualisation graphique.- l'intégration de la qualification de différentes formes d'incertitude, au sein du processus d'extraction de connaissances à partir d'un texte,- la quantification des différentes formes d'incertitude identifiées ;- une représentation, à l'aide de graphes RDF, des connaissances et des incertitudes associées ;- une méthode d'interrogation SPARQL intégrant les différentes formes d'incertitude ;- une évaluation et une analyse des résultats obtenus avec notre approche / The increase of textual sources over the Web offers an opportunity for knowledge extraction and knowledge base creation. Recently, several research works on this topic have appeared or intensified. They generally highlight that to extract relevant and precise information from text, it is necessary to define a collaboration between linguistic approaches, e.g., to extract certain concepts regarding named entities, temporal and spatial aspects, and methods originating from the field of semantics' processing. Moreover, successful approaches also need to qualify and quantify the uncertainty present in the text. Finally, in order to be relevant in the context of the Web, the linguistic processing need to be consider several sources in different languages. This PhD thesis tackles this problematic in its entirety since our contributions cover the extraction, representation of uncertain knowledge as well as the visualization of generated graphs and their querying. This research work has been conducted within a CIFRE funding involving the Laboratoire d'Informatique Gaspard Monge (LIGM) of the Université Paris-Est Marne la Vallée and the GEOLSemantics start-up. It was leveraging from years of accumulated experience in natural language processing (GeolSemantics) and semantics processing (LIGM).In this context, our contributions are the following:- the integration of a qualifation of different forms of uncertainty, based on ontology processing, within the knowledge extraction processing,- the quantification of uncertainties based on a set of heuristics,- a representation, using RDF graphs, of the extracted knowledge and their uncertainties,- an evaluation and an analysis of the results obtained using our approach
7

Fouille de données par extraction de motifs graduels : contextualisation et enrichissement / Data mining based on gradual itemsets extraction : contextualization and enrichment

Oudni, Amal 09 July 2014 (has links)
Les travaux de cette thèse s'inscrivent dans le cadre de l'extraction de connaissances et de la fouille de données appliquée à des bases de données numériques ou floues afin d'extraire des résumés linguistiques sous la forme de motifs graduels exprimant des corrélations de co-variations des valeurs des attributs, de la forme « plus la température augmente, plus la pression augmente ». Notre objectif est de les contextualiser et de les enrichir en proposant différents types de compléments d'information afin d'augmenter leur qualité et leur apporter une meilleure interprétation. Nous proposons quatre formes de nouveaux motifs : nous avons tout d'abord étudié les motifs dits « renforcés », qui effectuent, dans le cas de données floues, une contextualisation par intégration d'attributs complémentaires, ajoutant des clauses introduites linguistiquement par l'expression « d'autant plus que ». Ils peuvent être illustrés par l'exemple « plus la température diminue, plus le volume de l'air diminue, d'autant plus que sa densité augmente ». Ce renforcement est interprété comme validité accrue des motifs graduels. Nous nous sommes également intéressées à la transposition de la notion de renforcement aux règles d'association classiques en discutant de leurs interprétations possibles et nous montrons leur apport limité. Nous proposons ensuite de traiter le problème des motifs graduels contradictoires rencontré par exemple lors de l'extraction simultanée des deux motifs « plus la température augmente, plus l'humidité augmente » et « plus la température augmente, plus l'humidité diminue ». Pour gérer ces contradictions, nous proposons une définition contrainte du support d'un motif graduel, qui, en particulier, ne dépend pas uniquement du motif considéré, mais aussi de ses contradicteurs potentiels. Nous proposons également deux méthodes d'extraction, respectivement basées sur un filtrage a posteriori et sur l'intégration de la contrainte du nouveau support dans le processus de génération. Nous introduisons également les motifs graduels caractérisés, définis par l'ajout d'une clause linguistiquement introduite par l'expression « surtout si » comme par exemple « plus la température diminue, plus l'humidité diminue, surtout si la température varie dans [0, 10] °C » : la clause additionnelle précise des plages de valeurs sur lesquelles la validité des motifs est accrue. Nous formalisons la qualité de cet enrichissement comme un compromis entre deux contraintes imposées à l'intervalle identifié, portant sur sa taille et sa validité, ainsi qu'une extension tenant compte de la densité des données.Nous proposons une méthode d'extraction automatique basée sur des outils de morphologie mathématique et la définition d'un filtre approprié et transcription. / This thesis's works belongs to the framework of knowledge extraction and data mining applied to numerical or fuzzy data in order to extract linguistic summaries in the form of gradual itemsets: the latter express correlation between attribute values of the form « the more the temperature increases, the more the pressure increases ». Our goal is to contextualize and enrich these gradual itemsets by proposing different types of additional information so as to increase their quality and provide a better interpretation. We propose four types of new itemsets: first of all, reinforced gradual itemsets, in the case of fuzzy data, perform a contextualization by integrating additional attributes linguistically introduced by the expression « all the more ». They can be illustrated by the example « the more the temperature decreases, the more the volume of air decreases, all the more its density increases ». Reinforcement is interpreted as increased validity of the gradual itemset. In addition, we study the extension of the concept of reinforcement to association rules, discussing their possible interpretations and showing their limited contribution. We then propose to process the contradictory itemsets that arise for example in the case of simultaneous extraction of « the more the temperature increases, the more the humidity increases » and « the more the temperature increases, the less the humidity decreases ». To manage these contradictions, we define a constrained variant of the gradual itemset support, which, in particular, does not only depend on the considered itemset, but also on its potential contradictors. We also propose two extraction methods: the first one consists in filtering, after all itemsets have been generated, and the second one integrates the filtering process within the generation step. We introduce characterized gradual itemsets, defined by adding a clause linguistically introduced by the expression « especially if » that can be illustrated by a sentence such as « the more the temperature decreases, the more the humidity decreases, especially if the temperature varies in [0, 10] °C »: the additional clause precise value ranges on which the validity of the itemset is increased. We formalize the quality of this enrichment as a trade-off between two constraints imposed to identified interval, namely a high validity and a high size, as well as an extension taking into account the data density. We propose a method to automatically extract characterized gradual based on appropriate mathematical morphology tools and the definition of an appropriate filter and transcription.
8

Contribution to study and implementation of a bio-inspired perception system based on visual and auditory attention / Contribution à l’étude et à la mise en œuvre d’un système de perception bio-inspiré basé sur l’attention visuelle et auditive

Wang, Jingyu 09 January 2015 (has links)
L'objectif principal de cette thèse porte sur la conception d'un système de perception artificiel permettant d'identifier des scènes ou évènements pertinents dans des environnements complexes. Les travaux réalisés ont permis d'étudier et de mettre en œuvre d'un système de perception bio-inspiré basé sur l'attention visuelle et auditive. Les principales contributions de cette thèse concernent la saillance auditive associée à une identification des sons et bruits environnementaux ainsi que la saillance visuelle associée à une reconnaissance d'objets pertinents. La saillance du signal sonore est calculée en fusionnant des informations extraites des représentations temporelles et spectrales du signal acoustique avec une carte de saillance visuelle du spectrogramme du signal concerné. Le système de perception visuelle est quant à lui composé de deux mécanismes distincts. Le premier se base sur des méthodes de saillance visuelle et le deuxième permet d'identifier l'objet en premier plan. D'autre part, l'originalité de notre approche est qu'elle permet d'évaluer la cohérence des observations en fusionnant les informations extraites des signaux auditifs et visuels perçus. Les résultats expérimentaux ont permis de confirmer l'intérêt des méthodes utilisées dans le cadre de l'identification de scènes pertinentes dans un environnement complexe / The main goal of these researches is the design of one artificial perception system allowing to identify events or scenes in a complex environment. The work carried out during this thesis focused on the study and the conception of a bio-inspired perception system based on the both visual and auditory saliency. The main contributions of this thesis are auditory saliency with sound recognition and visual saliency with object recognition. The auditory saliency is computed by merging information from the both temporal and spectral signals with a saliency map of a spectrogram. The visual perception system is based on visual saliency and recognition of foreground object. In addition, the originality of the proposed approach is the possibility to do an evaluation of the coherence between visual and auditory observations using the obtained information from the features extracted from both visual and auditory patters. The experimental results have proven the interest of this method in the framework of scene identification in a complex environment
9

Démarche centrée utilisateur pour la conception de SIAD basés sur un processus d'Extraction de Connaissances à partir de Données, Application à la lutte contre les infections nosocomiales

Ltifi, Hela 09 July 2011 (has links) (PDF)
Ce mémoire contribue au domaine de l'interaction homme-machine (IHM), en proposant un cadre méthodologique global en vue de la conception et la réalisation de systèmes interactifs d'aide à la décision basés sur l'extraction de connaissances à partir de données (SIAD/ECD). Dans ce travail, nous mettons l'accent sur les aspects humain et itératif du développement des SIAD, et en tenant compte des spécificités des systèmes d'ECD. Le cadre méthodologique proposé consiste à étendre les activités du processus unifié sous l'angle de l'IHM pour le développement des différents modules d'un SIAD/ECD. Cette méthodologie, nommée processus unifié étendu, a été appliquée en vue de démontrer ou valider ses principes fondateurs sur une étude de cas dans le domaine médical, relative à la prise de décision dynamique pour la lutte contre les infections nosocomiales (SIADDM/ECD) dans un service de réanimation d'un hôpital situé à Sfax, Tunisie. Une évaluation globale de la démarche suivie d'un ensemble de perspectives de recherche termine le mémoire.
10

Optimisation Combinatoire Multi-Objectif : Apport des méthodes coopératives et contribution à l'extraction de connaissances

Dhaenens, C. 05 October 2005 (has links) (PDF)
Ce manuscrit est décomposé en un chapitre introductif et deux parties principales.<br /><br />Le chapitre 1, pose le contexte du travail. Pour cela les principales définitions liées à l'optimisation combinatoire multi-objectif sont présentées. Puis, les problématiques spécifiques à ce domaine sont exposées et étudiées. Parmi ces problématiques nous parlerons en particulier de la structure de l'ensemble des solutions de compromis (solutions Pareto), du choix des méthodes de résolution et de l'analyse de performances en multi-objectif. Ce chapitre permettra de cerner ce qui est étudié dans le manuscrit et ce qui ne l'est pas.<br /><br />La première partie (chapitres 2 et 3) traite de la coopération de méthodes en vue d'améliorer les résultats des méthodes d'optimisation combinatoire multi-objectif. Au cours de cette partie, un problème d'ordonnancement - problème de flowshop de permutation bi-objectif - est utilisé à titre d'exemple. Nous commençons donc le chapitre 2 par la présentation de ce problème. Puis, le chapitre s'attarde sur les méthodes exactes pour l'optimisation multi-objectif. Ces méthodes n'étant pas nombreuses, une revue de la littérature est réalisée. Inspirée de cette étude, un nouveau schéma de méthode exacte - PPM - est proposé.<br /> Le chapitre 3 s'intéresse à la coopération entre méthodes. Pour cela, la première partie du chapitre concerne l'utilisation des métaheuristiques en multi-objectif. Ainsi, après avoir présenté nos travaux concernant le développement d'un algorithme génétique pour le flowshop bi-objectif, une présentation rapide des méthodes les plus connues est réalisée. Puis, la deuxième partie discute des possibilités de coopération entre les différentes méthodes et présente les résultats obtenus.<br /><br />La deuxième partie (chapitres 4, 5 et 6) s'intéresse à un tout autre domaine d'application. Il s'agit de l'extraction de connaissances. En effet, de nombreux problèmes d'extraction de connaissances peuvent être modélisés, entièrement ou en partie, en des problèmes d'optimisation combinatoire. C'est ce que nous présentons dans le chapitre 4. Dans ce chapitre, une partie est consacrée à l'apport du multi-objectif pour ce type de problèmes. Puis, une étude plus approfondie porte sur la problématique de recherche de règles d'association. Pour ce problème, nous exposons la modélisation multi-objectif proposée ainsi que les méthodes de résolution développées.<br /> Le chapitre 5 présente deux approches coopératives : une approche coopérative parallèle mettant en jeux plusieurs métaheuristiques et une coopération avec une méthode exacte.<br /> Finalement, le chapitre 6 donne des indications sur le contexte applicatif utilisé, à savoir l'étude de données issues de la bio-informatique.<br />Au cours du mémoire, chaque chapitre se termine par un certain nombre de perspectives. Le dernier chapitre, conclusions et perspectives, fait une synthèse des principaux apports des travaux présentés dans le manuscrit ainsi que des perspectives annoncées.

Page generated in 0.1686 seconds