• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 78
  • 12
  • 6
  • 5
  • 4
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 127
  • 81
  • 55
  • 49
  • 38
  • 32
  • 28
  • 22
  • 22
  • 21
  • 21
  • 16
  • 13
  • 13
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Ontological Reasoning with Taxonomies in RDF Database / Ontological Reasoning with Taxonomies in RDF Database

Hoferek, Ondřej January 2013 (has links)
13548805670613-46162052c208770f99e83a586780d16c.txt As the technologies for the realisation of the idea of the Semantic Web have evolved rapidly during past few years, it is possible to use them in variety of applications. As they are designed with the ability to process and analyze semantic information found in the data in mind, they are particularly suitable for the task of enhancing relevance of the document retrieval. In this work, we discuss the possibilities of identifying a suitable subset of the expressing capabilities of the SPARQL querying language and create a component that encapsulates the technical details of its usage. Page 1
102

Ontology-based cooperation of information systems : contributions to database-to-ontology mapping and XML-to-ontology mapping / Coopération des systèmes d'information basée sur les ontologies

Ghawi, Raji 15 March 2010 (has links)
Cette thèse traite le domaine de coopération des systèmes d'informations basée sur les ontologies. Nous proposons une architecture globale, appelée OWSCIS, qui se base sur les ontologies et les services-web pour la coopération des systèmes d'informations distribués et hétérogènes. Dans cette thèse, nous focalisons sur la problématique de connexion des sources d'informations locales vers des ontologies locales dans le cadre de l'architecture OWSCIS. Cette problématique est articulée en trois axes principaux: 1) la création de l'ontologie locale des sources d'informations locales, 2) la mise en correspondance des sources d'informations locales avec l'ontologie locale, et 3) la traduction des requêtes sur l'ontologie locale vers des requêtes sur les sources d'informations locales. / This thesis treats the area of ontology-based cooperation of information systems. We propose a global architecture called OWSCIS that is based on ontologies and web-services for the cooperation of distributed heterogeneous information systems. In this thesis, we focus on the problem of connecting the local information sources to the local ontologies within OWSCIS architecture. This problem is articulated by three main axes: 1) the creation of the local ontology from the local information sources, 2) the mapping of local information sources to an existing local ontology, and 3) the translation of queries over the local ontologies into queries over local information sources.
103

Distributed collaboration on RDF datasets using Git

Arndt, Natanael, Radtke, Norman, Martin, Michael 23 June 2017 (has links)
Collaboration is one of the most important topics regarding the evolution of the World Wide Web and thus also for the Web of Data. In scenarios of distributed collaboration on datasets it is necessary to provide support for multiple different versions of datasets to exist simultaneously, while also providing support for merging diverged datasets. In this paper we present an approach that uses SPARQL 1.1 in combination with the version control system Git, that creates commits for all changes applied to an RDF dataset containing multiple named graphs. Further the operations provided by Git are used to distribute the commits among collaborators and merge diverged versions of the dataset. We show the advantages of (public) Git repositories for RDF datasets and how this represents a way to collaborate on RDF data and consume it. With SPARQL 1.1 and Git in combination, users are given several opportunities to participate in the evolution of RDF data.
104

Implementierung eines effizienten datenbankbasierten SPARQL-Prozessors und Erweiterungen zu SPARQL

Weiske, Christian 21 November 2017 (has links)
Die Vision des Internets als weltumspannendes Informationsnetz ist zur Wirklichkeit geworden. Um die Idee des weltweiten Datennetzes wahr werden zu lassen, wurde das Resource Description Framework RDF entwickelt. Die dieses Netz speisenden Daten sind zu großen Teilen in Datenbanken abgelegt. Eine Abfragesprache für RDF-Daten ist die vom World Wide Web Consortium im Standardisierungsprozess befindliche SPARQL Protocol And Query Language. Die RDF API for PHP ist eine in der Skriptsprache PHP programmierte Funktionsbibliothek zum Arbeiten mit Daten im RDF-Format. Ziel dieser Arbeit ist es, eine effiziente, datenbankgestützte Implementierung von SPARQL auf Basis der RAP-Bibliothek zu schaffen. Nach den Grundlagen des semantischen Netzes werden neben SPARQL und der RDF API for PHP auch konkurrierende Bibliotheken mit SPARQL-Unterstützung vorgestellt. Der bereits existierende, speicherbasierte SPARQL Prozessor des RAP-Frameworks wird analysiert und dessen Probleme identifiziert. Im Folgenden werden die Anforderungen und die Implementierung des neuen datenbankgestützten Prozessors im Detail beschrieben. Abschließend kommt es zur Evaluation der Geschwindigkeit des neuen Prozessors im Vergleich zu anderen SPARQL-fähigen Datensystemen. Während der täglichen Arbeit mit SPARQL hat sich herausgestellt, dass sich das Protokoll aufgrund einiger Unzulänglichkeiten noch nicht vollständig für den praktischen Einsatz eignet. Aus diesem Grund werden abschließend Erweiterungen zu SPARQL vorgestellt, die sich in der Praxis als hilfreich erwiesen haben. Der im Rahmen dieser Diplomarbeit umgesetzte SPARQL Prozessor erweist sich als robust und schnell. Er liegt trotz der Umsetzung mit einer Skriptsprache in der gleichen Leistungsdimension wie andere State-of-the-Art-Implementierungen und ist diesen häufig sogar überlegen. Er wird bereits in mehreren Anwendungen produktiv eingesetzt und ist als Open-Source-Projekt einer internationalen Anwender- und Entwicklergemeinde zugänglich.
105

A Natural Language Interface for Querying Linked Data

Akrin, Christoffer, Tham, Simon January 2020 (has links)
The thesis introduces a proof of concept idea that could spark great interest from many industries. The idea consists of a remote Natural Language Interface (NLI), for querying Knowledge Bases (KBs). The system applies natural language technology tools provided by the Stanford CoreNLP, and queries KBs with the use of the query language SPARQL. Natural Language Processing (NLP) is used to analyze the semantics of a question written in natural language, and generates relational information about the question. With correctly defined relations, the question can be queried on KBs containing relevant Linked Data. The Linked Data follows the Resource Description Framework (RDF) model by expressing relations in the form of semantic triples: subject-predicate-object. With our NLI, any KB can be understood semantically. By providing correct training data, the AI can learn to understand the semantics of the RDF data stored in the KB. The ability to understand the RDF data allows for the process of extracting relational information from questions about the KB. With the relational information, questions can be translated to SPARQL and be queried on the KB.
106

Semantic Agent Based Process Planning for Distributed Cloud Manufacturing

Sarkar, Arkopaul 02 June 2020 (has links)
No description available.
107

Getting Graphical with Knowledge Graphs : A proof-of-concept for extending and modifying knowledge graphs

Granberg, Roberth, Hellman, Anton January 2022 (has links)
Knowledge Graph (KG) is an emerging topic of research. The promise of KGs is to be able to turn data into knowledge by supplying the data with context at the source. This could in turn allow machines to make sense of data by inference; looking at the context of the data and being able to derive knowledge from its context and relations, thus allowing for new ways of finding value in the sea of data that the world produces today. Working with KGs today involves many steps that are open to simplification and improvement, especially in regards to usability. In this thesis, we've aimed to design and produce an application that can be used to modify, extend and build KGs. The work includes the front-end library VueJS, the Scalable Vector Graphics (SVG) library D3 and the graph database Stardog. The project has made use of Scrum methodology to distribute and plan the work that took place over a span of six months, with two developers working halftime (20 hours/week). The result of the project is a working application that can be used by developers within the KG domain who want to be able to test and modify their graphs in a visual manner.
108

Contrôle d'accès et présentation contextuelle pour le Web des données

Costabello, Luca 29 November 2013 (has links) (PDF)
La thèse concerne le rôle joué par le contexte dans l'accès au Web de données depuis les dispositifs mobiles. Le travail analyse ce problème de deux points de vue distincts: adapter au contexte la présentation de triplets, et protéger l'accès aux bases des données RDF depuis les dispositifs mobiles. La première contribution est PRISSMA, un moteur de rendu RDF qui étend Fresnel avec la sélection de la meilleure représentation pour le contexte physique où on se trouve. Cette opération est effectuée par un algorithme de recherche de sous-graphes tolérant aux erreurs basé sur la notion de distance d'édition sur les graphes. L'algorithme considère les différences entre les descriptions de contexte et le contexte détecté par les capteurs, supporte des dimensions de contexte hétérogènes et est exécuté sur le client pour ne pas révéler des informations privées. La deuxième contribution concerne le système de contrôle d'accès Shi3ld. Shi3ld supporte tous les triple stores et il ne nécessite pas de les modifier. Il utilise exclusivement les langages du Web sémantique, et il n'ajoute pas des nouveaux langages de définition de règles d'accès, y compris des analyseurs syntaxiques et des procédures de validation. Shi3ld offre une protection jusqu'au niveau des triplets. La thèse décrit les modèles, algorithmes et prototypes de PRISSMA et de Shi3ld. Des expériences montrent la validité des résultats de PRISSMA ainsi que les performances au niveau de mémoire et de temps de réponse. Le module de contrôle d'accès Shi3ld a été testé avec différents triple stores, avec et sans moteur SPARQL. Les résultats montrent l'impact sur le temps de réponse et démontrent la faisabilité de l'approche.
109

Semantic knowledge extraction from relational databases

Mogotlane, Kgotatso Desmond 05 1900 (has links)
M. Tech. (Information Technology, Department of Information and Communications Technology, Faculty of Applied an Computer Sciences), Vaal University of Technolog / One of the main research topics in Semantic Web is the semantic extraction of knowledge stored in relational databases through ontologies. This is because ontologies are core components of the Semantic Web. Therefore, several tools, algorithms and frameworks are being developed to enable the automatic conversion of relational databases into ontologies. Ontologies produced with these tools, algorithms and frameworks needs to be valid and competent for them to be useful in Semantic Web applications within the target knowledge domains. However, the main challenges are that many existing automatic ontology construction tools, algorithms, and frameworks fail to address the issue of ontology verification and ontology competency evaluation. This study investigates possible solutions to these challenges. The study began with a literature review in the semantic web field. The review let to the conceptualisation of a framework for semantic knowledge extraction to deal with the abovementioned challenges. The proposed framework had to be evaluated in a real life knowledge domain. Therefore, a knowledge domain was chosen as a case study. The data was collected and the business rules of the domain analysed to develop a relational data model. The data model was further implemented into a test relational database using Oracle RDBMS. Thereafter, Protégé plugins were applied to automatically construct ontologies from the relational database. The resulting ontologies are further validated to match their structures against existing conceptual database-to-ontology mapping principles. The matching results show the performance and accuracy of Protégé plugins in automatically converting relational databases into ontologies. Finally, the study evaluated the resulting ontologies against the requirements of the knowledge domain. The requirements of the domain are modelled with competency questions (CQs) and mapped to the ontology using SPARQL queries design, execution and analysis against users’ views of CQs answers. Experiments show that, although users have different views of the answers to CQs, the execution of the SPARQL translations of CQs against the ontology does produce outputs instances that satisfy users’ expectations. This indicates that Protégé plugins generated ontology from relational database embodies domain and semantic features to be useful in Semantic Web applications.
110

Accès et utilisation de documents multimédia complexes dans une bibliothèque numérique

Ly, Anh Tuan 09 July 2013 (has links) (PDF)
Dans le cadre de trois projets européens, notre équipe a mis au point un modèle de données et un langage de requête pour bibliothèques numériques supportant l'identification, la structuration, les métadonnées, la réutilisation, et la découverte des ressources numériques. Le modèle proposé est inspiré par le Web et il est formalisé comme une théorie du premier ordre, dont certains modèles correspondent à la notion de bibliothèque numérique. En outre, une traduction complète du modèle en RDF et du langage de requêtes en SPARQL a également été proposée pour démontrer son adéquation à des applications pratiques. Le choix de RDF est dû au fait qu'il est un langage de représentation généralement accepté dans le cadre des bibliothèques numériques et du Web sémantique. L'objectif de cette thèse était double: concevoir et mettre en œuvre une forme simplifiée de système de gestion de bibliothèques numériques, d'une part, et contribuer à l'enrichissement du modèle, d'autre part. Pour atteindre cet objectif nous avons développé un prototype d'un système de bibliothèque numérique utilisant un stockage RDF pour faciliter la gestion interne des métadonnées. Le prototype permet aux utilisateurs de gérer et d'interroger les métadonnées des ressources numériques ou non-numériques dans le système en utilisant des URIs pour identifier les ressources, un ensemble de prédicats pour la description de ressources, et des requêtes conjonctives simples pour la découverte de connaissances dans le système. Le prototype est mis en œuvre en utilisant les technologies Java et l'environnement de Google Web Toolkit dont l'architecture du système se compose d'une couche de stockage, d'une couche de métier logique, d'une couche de service, et d'une interface utilisateur. Pendant la thèse, le prototype a été construit, testé et débogué localement, puis déployé sur Google App Engine. Dans l'avenir, il peut être étendu pour devenir un système complet de gestion de bibliothèques numériques. Par ailleurs, la thèse présente également notre contribution à la génération de contenu par réutilisation de ressources. Il s'agit d'un travail théorique dont le but est d'enrichir le modèle en lui ajoutant un service important, à savoir la possibilité de création de nouvelles ressources à partir de celles stockées dans le système. L'incorporation de ce service dans le système sera effectuée ultérieurement.

Page generated in 0.0472 seconds