• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 15
  • 5
  • 2
  • Tagged with
  • 22
  • 22
  • 11
  • 11
  • 10
  • 8
  • 6
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Knowledge base ontological debugging guided by linguistic evidence

Corman, Julien 18 December 2015 (has links)
Le résumé en français n'a pas été communiqué par l'auteur. / When they grow in size, knowledge bases (KBs) tend to include sets of axioms which are intuitively absurd but nonetheless logically consistent. This is particularly true of data expressed in OWL, as part of the Semantic Web framework, which favors the aggregation of set of statements from multiple sources of knowledge, with overlapping signatures.Identifying nonsense is essential if one wants to avoid undesired inferences, but the sparse usage of negation within these datasets generally prevents the detection of such cases on a strict logical basis. And even if the KB is inconsistent, identifying the axioms responsible for the nonsense remains a non trivial task. This thesis investigates the usage of automatically gathered linguistic evidence in order to detect and repair violations of common sense within such datasets. The main intuition consists in exploiting distributional similarity between named individuals of an input KB, in order to identify consequences which are unlikely to hold if the rest of the KB does. Then the repair phase consists in selecting axioms to be preferably discarded (or at least amended) in order to get rid of the nonsense. A second strategy is also presented, which consists in strengthening the input KB with a foundational ontology, in order to obtain an inconsistency, before performing a form of knowledge base debugging/revision which incorporates this linguistic input. This last step may also be applied directly to an inconsistent input KB. These propositions are evaluated with different sets of statements issued from the Linked Open Data cloud, as well as datasets of a higher quality, but which were automatically degraded for the evaluation. The results seem to indicate that distributional evidence may actually constitute a relevant common ground for deciding between conflicting axioms.
2

Extraction des règles d'association dans des bases de connaissances / Rule mining in knowledge bases

Galarraga Del Prado, Luis 29 September 2016 (has links)
Le développement rapide des techniques d’extraction d’information a permis de construire de vastes bases de connaissances généralistes. Ces bases de connaissances contiennent des millions de faits portant sur des entités du monde réel, comme des personnes, des lieux, ou des organisations. Ces faits sont accessibles aux ordinateurs, et leur permettent ainsi de “comprendre” le monde réel. Ces bases trouvent donc de nombreuses applications, notamment pour la recherche d’information, le traitement de requêtes, et le raisonnement automatique. Les nombreuses informations contenues dans les bases de connaissances peuvent également être utilisées pour découvrir des motifs intéressants et fréquents dans les données. Cette tâche, l’extraction de règles d’association, permet de comprendre la structure des données ; les règles ainsi obtenues peuvent être employées pour l’analyse de données, la prédiction, et la maintenance de données, entre autres applications. Cette thèse présente deux contributions principales. En premier lieu, nous proposons une nouvelle méthode pour l’extraction de règles d’association dans les bases de connaissances. Cette méthode s’appuie sur un modèle d’extraction qui convient particulièrement aux bases de connaissances potentiellement incomplètes, comme celles qui sont extraites à partir des données du Web. En second lieu, nous montrons que l’extraction de règles peut être utilisée sur les bases de connaissances pour effectuer de nombreuses tâches orientées vers les données. Nous étudions notamment la prédiction de faits, l’alignement de schémas, la mise en forme canonique de bases de connaissances ouvertes, et la prédiction d’annotations de complétude. / The continuous progress of information extraction (IE) techniques has led to the construction of large general-purpose knowledge bases (KBs). These KBs contain millions of computer-readable facts about real-world entities such as people, organizations and places. KBs are important nowadays because they allow computers to “understand” the real world. They are used in multiple applications in Information Retrieval, Query Answering and Automatic Reasoning, among other fields. Furthermore, the plethora of information available in today’s KBs allows for the discovery of frequent patterns in the data, a task known as rule mining. Such patterns or rules convey useful insights about the data. These rules can be used in several applications ranging from data analytics and prediction to data maintenance tasks. The contribution of this thesis is twofold : First, it proposes a method to mine rules on KBs. The method relies on a mining model tailored for potentially incomplete webextracted KBs. Second, the thesis shows the applicability of rule mining in several data-oriented tasks in KBs, namely facts prediction, schema alignment, canonicalization of (open) KBs and prediction of completeness.
3

Approches hybrides pour la recherche sémantique de l'information : intégration des bases de connaissances et des ressources semi-structurées

Mrabet, Yassine 12 July 2012 (has links) (PDF)
La recherche sémantique de l'information a connu un nouvel essor avec les nouvelles technologies du Web sémantique. Des langages standards permettent aujourd'hui aux logiciels de communiquer par le biais de données écrites dans le vocabulaire d'ontologies de domaine décrivant une sémantique explicite. Cet accès ''sémantique'' à l'information requiert la disponibilité de bases de connaissances décrivant les instances des ontologies de domaine. Cependant, ces bases de connaissances, bien que de plus en plus riches, contiennent relativement peu d'information par comparaison au volume des informations contenu dans les documents du Web.La recherche sémantique de l'information atteint ainsi certaines limites par comparaison à la recherche classique de l'information qui exploite plus largement ces documents. Ces limites se traduisent explicitement par l'absence d'instances de concepts et de relations dans les bases de connaissances construites à partir des documents du Web. Dans cette thèse nous étudions deux directions de recherche différentes afin de permettre de répondre à des requêtes sémantiques dans de tels cas. Notre première étude porte sur la reformulation des requêtes sémantiques des utilisateurs afin d'atteindre des parties de document pertinentes à la place des faits recherchés et manquants dans les bases de connaissances. La deuxième problématique que nous étudions est celle de l'enrichissement des bases de connaissances par des instances de relations.Nous proposons deux solutions pour ces problématiques en exploitant des documents semi-structurés annotés par des concepts ou des instances de concepts. Un des points clés de ces solutions est qu'elles permettent de découvrir des instances de relations sémantiques sans s'appuyer sur des régularités lexico-syntaxiques ou structurelles dans les documents. Nous situons ces deux approches dans la littérature et nous les évaluons avec plusieurs corpus réels extraits du Web. Les résultats obtenus sur des corpus de citations bibliographiques, des corpus d'appels à communication et des corpus géographiques montrent que ces solutions permettent effectivement de retrouver de nouvelles instances relations à partir de documents hétérogènes tout en contrôlant efficacement leur précision.
4

Approches hybrides pour la recherche sémantique de l'information : intégration des bases de connaissances et des ressources semi-structurées / Hybrid Approaches for Semantic Information Retrieval : Towards the Integration of Knowledge Bases and Semistructured Resources

Mrabet, Yassine 12 July 2012 (has links)
La recherche sémantique de l'information a connu un nouvel essor avec les nouvelles technologies du Web sémantique. Des langages standards permettent aujourd'hui aux logiciels de communiquer par le biais de données écrites dans le vocabulaire d'ontologies de domaine décrivant une sémantique explicite. Cet accès ``sémantique'' à l'information requiert la disponibilité de bases de connaissances décrivant les instances des ontologies de domaine. Cependant, ces bases de connaissances, bien que de plus en plus riches, contiennent relativement peu d'information par comparaison au volume des informations contenu dans les documents du Web.La recherche sémantique de l'information atteint ainsi certaines limites par comparaison à la recherche classique de l'information qui exploite plus largement ces documents. Ces limites se traduisent explicitement par l'absence d'instances de concepts et de relations dans les bases de connaissances construites à partir des documents du Web. Dans cette thèse nous étudions deux directions de recherche différentes afin de permettre de répondre à des requêtes sémantiques dans de tels cas. Notre première étude porte sur la reformulation des requêtes sémantiques des utilisateurs afin d'atteindre des parties de document pertinentes à la place des faits recherchés et manquants dans les bases de connaissances. La deuxième problématique que nous étudions est celle de l'enrichissement des bases de connaissances par des instances de relations.Nous proposons deux solutions pour ces problématiques en exploitant des documents semi-structurés annotés par des concepts ou des instances de concepts. Un des points clés de ces solutions est qu'elles permettent de découvrir des instances de relations sémantiques sans s'appuyer sur des régularités lexico-syntaxiques ou structurelles dans les documents. Nous situons ces deux approches dans la littérature et nous les évaluons avec plusieurs corpus réels extraits du Web. Les résultats obtenus sur des corpus de citations bibliographiques, des corpus d'appels à communication et des corpus géographiques montrent que ces solutions permettent effectivement de retrouver de nouvelles instances relations à partir de documents hétérogènes tout en contrôlant efficacement leur précision. / Semantic information retrieval has known a rapid development with the new Semantic Web technologies. With these technologies, software can exchange and use data that are written according to domain ontologies describing explicit semantics. This ``semantic'' information access requires the availability of knowledge bases describing both domain ontologies and their instances. The most often, these knowledge bases are constructed automatically by annotating document corpora. However, while these knowledge bases are getting bigger, they still contain much less information when comparing them with the HTML documents available on the surface Web.Thus, semantic information retrieval reaches some limits with respect to ``classic'' information retrieval which exploits these documents at a bigger scale. In practice, these limits consist in the lack of concept and relation instances in the knowledge bases constructed from the same Web documents. In this thesis, we study two research directions in order to answer semantic queries in such cases. The first direction consists in reformulating semantic user queries in order to reach relevant document parts instead of the required (and missing) facts. The second direction that we study is the automatic enrichment of knowledge bases with relation instances.We propose two novel solutions for each of these research directions by exploiting semi-structured documents annotated with concept instances. A key point of these solutions is that they don't require lexico-syntactic or structure regularities in the documents. We position these approaches with respect to the state of the art and experiment them on several real corpora extracted from the Web. The results obtained from bibliographic citations, call-for-papers and geographic corpora show that these solutions allow to retrieve new answers/relation instances from heterogeneous documents and rank them efficiently according to their precision.
5

Traitement de requêtes conjonctives avec négation : algorithmes et expérimentations / Processing of conjunctive queries with negation : algorithms and experiments

Ben Mohamed, Khalil 08 December 2010 (has links)
Dans cette thèse, nous nous intéressons à des problèmes à la croisée de deux domaines, les bases de données et les bases de connaissances. Nous considérons deux problèmes équivalents concernant les requêtes conjonctives avec négation : l'inclusion de requêtes et l'évaluation d'une requête booléenne sous l'hypothèse du monde ouvert. Nous reformulons ces problèmes sous la forme d'un problème de déduction dans un fragment de la logique du premier ordre. Puis nous raffinons des schémas d'algorithmes déjà existants et proposons de nouveaux algorithmes. Pour les étudier et les comparer expérimentalement, nous proposons un générateur aléatoire et analysons l'influence des différents paramètres sur la difficulté des instances du problème étudié. Finalement, à l'aide de cette méthodologie expérimentale, nous comparons les apports des différents raffinements et les algorithmes entre eux. / In this thesis, we consider problems at the intersection of two areas: databases and knowledge bases. We focus on two equivalent problems on conjunctive queries with negation : query containment and query answering with boolean queries while making the open-world assumption. We reformulate these problems as a problem of deduction in a first order logic fragment. Then we refine existing algorithm schemes and propose new algorithms. To study and compare them experimentally, we propose a random generator and we analyze the influence of parameters on problem instances difficulty. Finally, we analyse the contributions of the different refinements and we compare experimentally the algorithms.
6

Interrogation de grandes bases de connaissances : algorithmes de réécriture de requêtes conjonctives en présence de règles existentielles / Querying large knowledge bases

König, Mélanie 24 October 2014 (has links)
La problématique d'interrogation d'une base de données en présence d'une ontologie (OBQA pour "Ontology-based Query Answering") consiste à prendre en compte des connaissances générales, typiquement une ontologie de domaine, lors de l'évaluation d'une requête. Dans le cadre de cette thèse, ces connaissances sont représentées par des formules de la logique du premier ordre appelées "règles existentielles". Les règles existentielles sont aussi connues sous le nom de règles Datalog+/- ou "tuple-generating dependencies". Nous considérons une approche couramment utilisée, qui consiste à réécrire la requête en exploitant les règles de façon à se ramener à un problème classique l'interrogation d'une base de données. Nous définissons un cadre théorique d'étude des algorithmes de réécriture d'une requête conjonctive en une union de requêtes conjonctives, accompagné d'un algorithme de réécriture générique, prenant en paramètre un opérateur de réécriture. Nous proposons ensuite plusieurs opérateurs de réécriture et développons différentes optimisations, que nous évaluons sur des benchmarks du domaine. / The issue of querying a knowledge base, also called Ontology-based Query Answering (OBQA), consists of taking into account general knowledge, typically a domain ontology, when evaluating queries. In this thesis, ontological knowledge is represented by first-order logical formulas, called existential rules. Existential rules are also known as Datalog+/- and tuple-generating dependencies. We adopt a well-known approach, which consists of rewriting the query with the rules to reduce the problem to a classical database query answering problem. We define a theoretical framework to study algorithms that rewrite a conjunctive query into a union of conjunctive queries, as well as a generic rewriting algorithm that takes into account a rewriting operator. Then, we propose several rewriting operators and develop several optimisations, which we evaluate on benchmarks of the domain.
7

Le raisonnement spatial dans les systèmes à base de connaissances : application à l'analyse de sites avalancheux

Buisson, Laurent 05 November 1990 (has links) (PDF)
Les connaissances spatiales sont définies a partir d'une classification qui met en évidence l'importance de la topologie. L'examen d'applications différentes montre que le raisonnement spatial revêt souvent trois formes particulières non exclusives les unes des autres: la construction de topologies, l'inférence de propriétés spatiales et la localisation d'objets. Les données et les mécanismes d'inférence qui sont utilises peuvent être introduits dans des systèmes a base de connaissances qui servent alors de support au raisonnement spatial. Son graphe de dépendances possède, par ailleurs, des particularités qu'il est intéressant et, parfois, nécessaire d'exploiter pour gérer la dynamique de ces bases de connaissances spatiales. Les résultats d'inférences doivent en particulier être enregistres et le maintien de la vérité qu'exige cet enregistrement peut être facilite en exploitant une forme de localité au sein de ce graphe. Ces considérations prennent appui sur l'expérience du développement du système Elsa, destine a l'analyse de sites avalancheux. D'autres utilisations des bases de connaissances spatiales ont également été étudiées: modélisation symbolique de phénomènes spatiaux, environnements de resolution de problèmes et bases de connaissances géographiques. Elsa utilise une représentation de connaissances par objets, qui se révèle bien adaptée même si des extensions apparaissent utiles; il s'agit notamment de la prise en compte, au sein du modèle de représentation, des relations entre objets, de l'insertion d'un filtrage constructif et d'une ouverture plus grande du langage de requête. Le fait que ces extensions ne soient pas propres a l'espace et qu'elles puissent concerner d'autres types de connaissances suggère que le raisonnement sur l'espace, a défaut d'être spécifique, apparait comme un révélateur des besoins du raisonnement en général
8

Introduction à la tolérance sémantique : la prise en compte des exceptions dans le cadre du couplage des bases de données et des bases de connaissances

Esculier, Christian 05 July 1989 (has links) (PDF)
L'approche proposée traduit l'imperfection potentielle des règles en transposant, dans le domaine informatique, le concept de tolérance, classique en ingénierie. Elle s'articule autour d'un prédicat de tolérance qui permet de décider si une instance non conforme est une exception ou une erreur et d'un comportement exceptionnel du système qui assure l'intégration de l'exception et sa gestion ultérieure
9

Contribution des systèmes a bases de connaissances en sciences de l'eau ; promise : un simulateur de projet ; moise : un système de diagnostic en assainissement autonome

Cres, François-Noël 27 November 1989 (has links) (PDF)
La formalisation de la connaissance sous forme de règles permet de modéliser des problèmes dont on ne possède pas d'algorithme de résolution. Ce sont les systèmes à bases de connaissances (SBC) qui vont permettre de séparer la machinerie informatique du domaine d'expertise. C'est a travers deux applications du domaine de l'eau que les SBC sont mis en œuvre. Promise est un simulateur de projet intelligent et interactif capable d'intégrer dans son comportement le passe du projet, d'activer n'importe quelle procédure externe, de poser des questions programmées... La mise en forme des règles de simulation est une étape vers une meilleure maitrise des facteurs d'un projet d'assainissement. Moise est un système de diagnostic en assainissement autonome dont on montre que le formalisme de règles peut être adapte a plusieurs aspects: choix d'un dispositif d'assainissement autonome, dimensionnement, maintenance, cohérence de la base de faits. Une version télématique de moise a été développée. L'association SBC-télématique est envisagée dans un autre domaine d'application (choix en instrumentation chimique).
10

SHIVA - un modèle de données relationnel étendu pour la mise en oeuvre de base de connaissances centrée objets

Bensaid, Ali 10 May 1985 (has links) (PDF)
Cette thèse présente un modèle de base de données relationnel étendu : SHIVA, conçu pour permettre la mise en ouvre de bases de connaissances centrées objets. Le modèle SHIVA a été développé dans le cadre du projet SHIRKA : des bases de connaissances centrées objets et, un interpréteur de ce modèle sera utilisé pour écrire le système de gestion de bases de connaissances du système SHIRKA.<br /><br />Le premier chapitre est une description du système SHIRKA et de la représentation des connaissances centrée objets. Dans le deuxième chapitre, les principales extensions du mode relationnel sont exposées. Enfin, le troisième chapitre est consacré au modèle SHIVA.

Page generated in 0.1068 seconds