• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 4
  • 2
  • Tagged with
  • 6
  • 6
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

De l'optimisation à la décomposition de l'ontologique dans la logique de description

Le Pham, Anh 21 January 2008 (has links) (PDF)
Le raisonnement efficace dans une grande base de connaissance en logique de description est un défi actuel en raison des inférences "insurmontables", même pour des langages des logiques de description relativement inexpressives. En effet, la présence des axiomes dans la terminologie (TBox) est une des raisons importantes causant une augmentation exponentielle de la taille de l'espace de recherche explorée par les algorithmes d'inférence. Le raisonnement dans la logique de description (LD), c'est essentiellement le test de la relation de la subsomption entre les concepts. Par conséquent, on cherche toujours les expédients pour optimiser ce raisonnement. Des techniques d'optimisation pour améliorer la performance du raisonneur d'une LD se divisent donc naturellement en trois niveaux. Le premier est le niveau conceptuel considérant des techniques pour optimiser les structures d'axiomes dans la TBox. Le deuxième, le niveau algorithmique examinant des techniques pour réduire les exigences de stockage de l'algorithme de tableaux et pour optimiser le test de la relation de subsomption (satisfaisabilité). Le troisième, l'optimisation de requête cherchant des stratégies d'exécution optimales d'une requête d'interrogation dans une base de connaissances. Dans ce mémoire, nous avons étudié une approche de décomposition de l'ontologie s'appelant la "décomposition overlay" qui vise à un deux objectifs principaux : l'optimisation du raisonnement et la méthodologie de conception des ontologies. D'une part l'optimisation pour laquelle nous cherchons à diviser une ontologie dans un ensemble de sous ontologies dont chacune contient une partie de l'ensemble d'axiomes de l'ontologie originale permet d'obtenir ainsi une réduction relative du temps de raisonnement ; d'autre part la méthodologie de conception qui permet de remplacer une ontologie par un ensemble d'ontologies dans une organisation plus ou moins "optimale". Pour le premier objectif, la décomposition overlay d'une ontologie a comme résultat un ensemble de sous-ontologies regroupées dans une ontologie distribuée, appelée ontologie-décomposante (TBox-décomposante) et représentée par la logique de description distribuée. Intuitivement, le fait de pouvoir raisonner parallèlement sur ces sous-ontologies ayant chacune un espace de recherche réduit peut conduire à une réduction du temps relatif du raisonnement. Une propriété importante de cette ontologie est d'être interprétée dans le même domaine que l'ontologie originale. Ceci est une base qui nous suggère la proposition de deux algorithmes de raisonnement pour cette ontologie-décomposante. Concernant l'objectif de méthodologie de conception, nous introduisons deux méthodes de décomposition de l'ontologie reposant sur la décomposition heuristique des graphes. Une méthode repose sur la décomposition selon les séparateurs minimaux des graphes triangulaires et la seconde sur la décomposition selon la mesure des coupes normalisées des régions d'un graphe.
2

Transformation d'ontologies basées sur la logique de description : Application dans le commerce électronique

Le Duc, Chan 06 July 2004 (has links) (PDF)
Ce travail s'inscrit dans le cadre de la formalisation des connaissances pour l'échange de données dans le domaine du Commerce Électronique. Cette formalisation basée sur la Logique de Description (LD) a pour objectif d'établir la transparence sémantique de l'échange de données entre des acteurs de profil différent. Lorsque les connaissances sont formalisées dans les ontologies des acteurs, la transparence sémantique de l'échange de données peut être assurée par la transformation des ontologies en question. Généralisées à partir des problèmes posés dans les modèles d'échanges en usage, deux instances du problème de transparence sémantique (PTS) sont formulées comme des inférences permettant de transformer des ontologies. La première instance du problème porte sur l'échange de données sans contexte entre deux acteurs qui utilisent deux ontologies représentées par deux langages LD différents. Cette instance peut se réduire au calcul d'équivalence ou d'approximation sémantique d'un terme défini dans l'ontologie de l'expéditeur et ce terme est inexprimable dans l'ontologie du destinataire. En se basant sur un algorithme existant pour ce calcul, un optimal algorithme qui améliore la performance de l'algorithme existant en terme d'espace, est introduit. La deuxième instance du problème porte sur l'échange de données dans lequel les informations contextuelles représentées comme les règles de contexte sont prises en compte. Afin de formaliser ces règles de contexte, la révision d'une ontologie et les règles de révision devraient être introduites dans les ontologies. Une partie importante de ce travail étudie la révision d'une ontologie basée sur la LD et développe les algorithmes pour les opérations de révision et pour la procédure d'extension de la base de connaissances déclenchée par les règles de révision. Enfin, le projet ONDIL (ONtology DesIgn Layers) est présenté comme un prototype qui implémente les algorithmes développés et dont un champs d'application est la conception et la maintenance des ontologies dans le secteur de la construction.
3

Knowledge Extraction from Description Logic Terminologies / Extraction de connaissances à partir de terminologies en logique de description

Chen, Jieying 30 November 2018 (has links)
Un nombre croissant d'ontologies de grandes tailles ont été développées et mises à disposition dans des référentiels tels que le NCBO Bioportal. L'accès aux connaissances les plus pertinentes contenues dans les grandes ontologies a été identifié comme un défi important. À cette fin, nous proposons dans cette thèse trois notions différentes : modules d’ontologie minimale (sous-ontologies conservant toutes les implications sur un vocabulaire donné), meilleurs extraits ontologiques (certains petits nombres d’axiomes qui capturent le mieux les connaissances sur le vocabulaire permettant un degré de perte sémantique) et un module de projection (sous-ontologies d'une ontologie cible qui impliquent la subsomption, les requêtes d'instance et les requêtes conjonctives issues d'une ontologie de référence). Pour calculer le module minimal et le meilleur extrait, nous introduisons la notion de justification de subsomption en tant qu'extension de la justification (ensemble minimal d'axiomes nécessaires pour conserver une conséquence logique) pour capturer la connaissance de subsomption entre un terme et tous les autres termes du vocabulaire. De même, nous introduisons la notion de justifications de projection qui impliquent une conséquence pour trois requêtes différentes afin de calculer le module de projection. Enfin, nous évaluons nos approches en appliquant une implémentation prototype sur de grandes ontologies. / An increasing number of ontologies of large sizes have been developed and made available in repositories such as the NCBO Bioportal. Ensuring access to the most relevant knowledge contained in large ontologies has been identified as an important challenge. To this end, in this thesis, we propose three different notions: minimal ontology modules (sub-ontologies that preserve all entailments over a given vocabulary), best ontology excerpts (certain, small number of axioms that best capture the knowledge regarding the vocabulary by allowing for a degree of semantic loss) and projection module (sub-ontologies of a target ontology that entail subsumption, instance and conjunctive queries that follow from a reference ontology). For computing minimal module and best excerpt, we introduce the notion of subsumption justification as an extension of justification (a minimal set of axioms needed to preserve a logical consequence) to capture the subsumption knowledge between a term and all other terms in the vocabulary. Similarly, we introduce the notion of projection justifications that entail consequence for three different queries in order to computing projection module. Finally, we evaluate our approaches by applying a prototype implementation on large ontologies.
4

Découverte de règles d'association multi-relationnelles à partir de bases de connaissances ontologiques pour l'enrichissement d'ontologies / Discovering multi-relational association rules from ontological knowledge bases to enrich ontologies

Tran, Duc Minh 23 July 2018 (has links)
Dans le contexte du Web sémantique, les ontologies OWL représentent des connaissances explicites sur un domaine sur la base d'une conceptualisation des domaines d'intérêt, tandis que la connaissance correspondante sur les individus est donnée par les données RDF qui s'y réfèrent. Dans cette thèse, sur la base d'idées dérivées de l'ILP, nous visons à découvrir des motifs de connaissance cachés sous la forme de règles d'association multi-relationnelles en exploitant l'évidence provenant des assertions contenues dans les bases de connaissances ontologiques. Plus précisément, les règles découvertes sont codées en SWRL pour être facilement intégrées dans l'ontologie, enrichissant ainsi son pouvoir expressif et augmentant les connaissances sur les individus (assertions) qui en peuvent être dérivées. Deux algorithmes appliqués aux bases de connaissances ontologiques peuplées sont proposés pour trouver des règles à forte puissance inductive : (i) un algorithme de génération et test par niveaux et (ii) un algorithme évolutif. Nous avons effectué des expériences sur des ontologies accessibles au public, validant les performances de notre approche et les comparant avec les principaux systèmes de l'état de l'art. En outre, nous effectuons une comparaison des métriques asymétriques les plus répandues, proposées à l'origine pour la notation de règles d'association, comme éléments constitutifs d'une fonction de fitness pour l'algorithme évolutif afin de sélectionner les métriques qui conviennent à la sémantique des données. Afin d'améliorer les performances du système, nous avons proposé de construire un algorithme pour calculer les métriques au lieu d'interroger viaSPARQL-DL. / In the Semantic Web context, OWL ontologies represent explicit domain knowledge based on the conceptualization of domains of interest while the corresponding assertional knowledge is given by RDF data referring to them. In this thesis, based on ideas derived from ILP, we aim at discovering hidden knowledge patterns in the form of multi-relational association rules by exploiting the evidence coming from the assertional data of ontological knowledge bases. Specifically, discovered rules are coded in SWRL to be easily integrated within the ontology, thus enriching its expressive power and augmenting the assertional knowledge that can be derived. Two algorithms applied to populated ontological knowledge bases are proposed for finding rules with a high inductive power: (i) level-wise generated-and-test algorithm and (ii) evolutionary algorithm. We performed experiments on publicly available ontologies, validating the performances of our approach and comparing them with the main state-of-the-art systems. In addition, we carry out a comparison of popular asymmetric metrics, originally proposed for scoring association rules, as building blocks for a fitness function for evolutionary algorithm to select metrics that are suitable with data semantics. In order to improve the system performance, we proposed to build an algorithm to compute metrics instead of querying via SPARQL-DL.
5

Partage de données biomédicales : modèles, sémantique et qualité

Choquet, Rémy 16 December 2011 (has links) (PDF)
Le volume de données disponibles dans les systèmes d'information est de plus en plus important et pour autant, nous n'avons jamais autant essayer d'interconnecter cette information pour en extraire de la connaissance sans véritable succès généralisable. L'origine du problème est multiple. Tout d'abord, l'information est représentée dans des structures différentes. Ensuite, les vocabulaires utilisés pour exprimer les données sont hétérogènes. Enfin, la qualité de l'information est souvent trop mauvaise pour utiliser une information et en déduire des connaissances. Ce diagnostic est d'autant plus vrai dans le cadre du partage d'information dans le domaine biomédical où il reste difficile de s'entendre sur des représentations (structures et vocabulaires) pivots d'un domaine de la médecine, et donc où il apparaît difficile de résoudre le problème du partage d'information par l'imposition de standard de codage et de structuration de l'information. Plus récemment, l'introduction de la sémantique dans des processus de partage d'information, nous offre la possibilité de mettre en oeuvre des représentations pivots indépendantes de la structuration ou du nommage d'une donnée. Cette thèse s'inscrit dans cette problématique de partage de données biomédicales dans le cadre de l'évaluation de l'évolution de la résistance des bactéries aux antibiotiques en Europe. L'hypothèse générale de travail que nous proposons est la suivante: comment partager de l'information biomédicale de manière non ambigüe, en temps réel, et à la demande en Europe. Cette hypothèse pose diverses problématiques que nous abordons dans ce mémoire. La problématique de la qualité des données. Celle de la représentation des données à travers leur structure, leur vocabulaire et de leur sémantique. Nous aborderons aussi les problèmes d'alignement de données aux ontologies de domaine et de la fédération de données aidée d'ontologie. Enfin, nous présenterons un système d'interopérabilité sémantique basé sur des règles qui aborde le problème d'alignement sémantique de systèmes hétérogènes appliqué à notre domaine. Nous discuterons finalement de l'apport de la sémantique pour le partage d'information et des limites des outils et méthodes actuels.
6

Vers plus d'automatisation dans la construction de systèmes mediateurs pour le web semantique : une application des logiques de description / Towards more automation in building mediator systems in the semantic web context : a description logic application

Niang, Cheikh Ahmed Tidiane 05 July 2013 (has links)
Les travaux que nous présentons dans cette thèse concernent l’automatisation de la construction de systèmes médiateurs pour le web sémantique. L’intégration de données de manière générale et la médiation en particulier sont des processus qui visent à exploiter conjointement des sources d’information indépendantes, hétérogènes et distribuées. L’objectif final est de permettre à un utilisateur d’interroger ces données comme si elles provenaient d’un système unique et centralisé grâce à une interface d’interrogation uniforme basée sur un modèle du domaine d’application, appelé schéma global. Durant ces dernières années, beaucoup de projets de recherche se sont intéressés à cette problématique et de nombreux systèmes d’intégration ont été proposés. Cependant, la quantité d’intervention humaine nécessaire pour construire ces systèmes est beaucoup trop importante pour qu’il soit envisageable de les mettre en place dans bien des situations. De plus, face à la diversité et à l’évolution croissante des sources d’information apparaissent de nouveaux chalenges relatifs notamment à la flexibilité et à la rapidité d’accès à l’information. Nos propositions s’appuient sur les modèles et technologies du web sémantique. Cette généralisation du web qui est un vaste espace d’échange de ressources, non seulement entre êtres humains, mais également entre machines, offre par essence les moyens d’une automatisation des processus d’intégration. Ils reposent d’une part sur des langages et une infrastructure dont l’objectif est d’enrichir le web d’informations "sémantiques", et d’autre part sur des usages collaboratifs qui produisent des ressources ontologiques pertinentes et réutilisables. / This thesis is set in a research effort that aims to bring more automation in building mediator-based data integration systems in the semantic Web context. The mediator approach is a conceptual architecture of data integration that involves combining data residing in different sources and providing users with a unified view of these data. The problem of designing effective data integration solutions has been addressed by several researches, and well-known data integration projects have been developed during the 90’s. However, the building process of these systems rely heavily on human intervention so that it is difficult to implement them in many situations. Moreover, faced with the diversity and the increase of available information sources, the easiness and fastness of information access are new challenges. Our proposals are based on models and technologies of semantic web. The semantic web is recognized as a generalization of the current web which enables to find, combine and share resources, not only between humans but also between machines. It provides a good track for automating the integration process. Possibilities offered by the semantic web are based, on the one hand, on languages and an infrastructure aiming to enrich the web with "semantic" information and, on the other hand, on collaborative practices that allow the production of relevant and reusable ontological resources.

Page generated in 0.0835 seconds