• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 78
  • 12
  • 6
  • 5
  • 4
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 127
  • 81
  • 55
  • 49
  • 38
  • 32
  • 28
  • 22
  • 22
  • 21
  • 21
  • 16
  • 13
  • 13
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Un intergiciel gérant des événements pour permettre l'émergence d'interactions dynamiques et ubiquitaires dans l'Internet des services

Pellegrino, Laurent 03 April 2014 (has links) (PDF)
Resource Description Framework (RDF) est devenu un modèle de données pertinentafin de décrire et de modéliser les informations qui sont partagées sur le Web.Cependant, fournir une solution permettant de stocker et de récupérer cesdonnées de manière efficace tout en passant à l'échelle reste un défi majeur.Dans le contexte de cette thèse nous proposons un intergiciel dévoué austockage, à la récupération synchrone mais aussi à la dissémination sélectiveet asynchrone en quasi temps réel d'informations RDF dans un environnementcomplètement distribué. L'objectif est de pouvoir tirer parti des informationsdu passé comme de celles filtrées en quasi temps réel. Contrairement à unegrande majorité de solutions existantes, nous avons avons fait le choixd'éviter le hachage pour indexer les données ce qui nous permet de traiter lesrequêtes à intervalles de manière efficace. Le filtrage des informations enquasi temps réel est permis par l'expression des intérêts à l'aide desouscriptions basées sur le contenu des évènements futurs. Nous avons proposédeux algorithmes qui permettent de vérifier la concordance des évènements RDFavec les souscriptions enregistrées. Les deux algorithmes ont été testésexpérimentalement. En sus de la récupération synchrone et de la diffusionasynchrone d'évènements, nous nous sommes intéressés à améliorer la répartitiondes données RDF qui souffrent de dissymétrie. Finalement, nous avons consacréun effort non négligeable à rendre notre intergiciel modulaire.
112

Metody extrakce informací / Methods of Information Extraction

Adamček, Adam January 2015 (has links)
The goal of information extraction is to retrieve relational data from texts written in natural human language. Applications of such obtained information is wide - from text summarization, through ontology creation up to answering questions by QA systems. This work describes design and implementation of a system working in computer cluster which transforms a dump of Wikipedia articles to a set of extracted information that is stored in distributed RDF database with a possibility to query it using created user interface.
113

Using Vocabulary Mappings for Federated RDF Query Processing / Att använda vokabulär mappning för federerad RDF frågebehandling

Winneroth, Juliette January 2023 (has links)
Federated RDF querying systems provide an interface to multiple autonomous RDF data sources, allowing a user to execute a SPARQL query on multiple data sources at once and get one unified result. When these autonomous data sources use different vocabularies, the SPARQL query must be rewritten to the vocabulary of the data source in order to get the desired results. This thesis describes how vocabulary mappings can be used to rewrite SPARQL queries for federated RDF query processing. In this thesis, different types of vocabulary mappings are explored to find a suitable vocabulary mapping representation to use in formulating an approach for query rewriting. The approach describes how the SPARQL subqueries and solution mappings can be rewritten in order to handle heterogeneous vocabularies. The thesis then presents how the query federation engine HeFQUIN is extended to rewrite the federated queries and their results. A final evaluation of the implementation shows how implementing a query rewriting approach can improve the federated query engine’s execution times.
114

DISCOVERY AND PRIORITIZATION OF BIOLOGICAL ENTITIES UNDERLYING COMPLEX DISORDERS BY PHENOME-GENOME NETWORK INTEGRATION

GUDIVADA, RANGA CHANDRA January 2007 (has links)
No description available.
115

Real Time Semantic Analysis of Streaming Sensor Data

Patni, Harshal Kamlesh January 2011 (has links)
No description available.
116

Intégration d'une couche spatiale dans l'architecture du Web sémantique : une proposition via la plateforme ArchaeoKM / Introduction of a spatial layer in the Semantic Web framework : a proposition through the Web platform ArchaeoKM

Karmacharya, Ashish 30 June 2011 (has links)
L’analyse spatiale de données géographies connaît un regain d’intérêt dans la communauté des bases de données relationnelles. Plus spécifiquement, les opérations et les fonctions spatiales utilisées comme base de l’analyse spatiale sont implémentées par les grands noms des systèmes de gestion de bases de données relationnelles limitant ainsi l’hétérogénéité structurelle des systèmes. En outre, la littérature est abondante en publications dans le domaine des ontologies spatiales afin de limiter l’hétérogénéité sémantique des sources de données tout en améliorant l’interopérabilité de ces données. Bien que l’interopérabilité des données soit l’un des objectifs du Web Sémantique, tout le potentiel de ces outils et de ces techniques basés sur la connaissance n’a pas été révélé. Avec l’influence sans cesse croissante du Web Sémantique à travers ces outils et applications en gestion de la connaissance et système intelligent, les applications utilisant des données géospatiales suivent ce phénomène en bénéficiant de son influence. Cette thèse se focalise sur l’utilisation de la connaissance métier afin de gérer des données spatiales à l’aide des technologies du Web sémantique. L’activité de recherche menée dans le cadre de cette thèse est réalisée sur des données provenant du domaine de l’archéologie industrielle. Cet environnement se caractérise par son hétérogénéité et sa grande quantité de données offrant ainsi un cadre idéal pour la réalisation d’un outil de gestion de connaissance. Cet outil basé sur les technologies du Web Sémantique a été prototypé sous le nom d’ArchaeoKM suivant le principe des 4 K, Knowledge Acquisition, Knowledge Management, Knowledge Visualization and Knowledge Analysis. Ce même principe est mis en œuvre pour les données spatiales. Une ontologie de haut niveau a été développée pour servir de cadre applicatif à la gestion des données spatiales permettant d’ajuster une ontologie de domaines sans composante spatiale. Le processus de gestion de la connaissance commence avec l’acquisition de la signature spatiale des objets identifiés. Cette signature est stockée dans un système de gestion de bases de données spatiales et est référencée par l’objet correspondant dans la base de connaissance. La connaissance spatiale de ces objets est générée à l’aide des fonctions et des opérations spatiales au niveau de la base de données spatiale et l’enrichissement de la base de connaissance est réalisé avec le résultat de ces opérations et fonctions. L’inférence de nouvelle connaissance sur la base des données existante est réalisée à l’aide de SWRL (Semantic Web Rule Language). De plus, ce langage a été étendu à l’aide de nouveaux built-ins spatiaux afin de prendre en sidération la dimension spatiale des données. De même, cette dimension spatiale a été apportée au langage SPARQL afin de réaliser des requêtes spatiales sur la base de connaissances.En effet, l’objectif principal de cette thèse est d’initier le premier pas vers l’intégration des composantes spatiales avec les technologies du Web Sémantique. Le processus d’intégration est premier plan pour les deux technologies. D’un point de vue Web Sémantique, l’intégration de données non communes dans ce cadre applicatif ouvre la porte à l’intégration de données beaucoup plus large. D’un point de vue des systèmes d’information géographique, l’inclusion de la connaissance permet une gestion métier des données rendant l’analyse plus proche de l’interprétation humaine. / Spatial technology has gained momentum under database systems. More specifically, the spatial operations and spatial functions are used to carry out spatial analysis which can be executed through these database systems. In addition, there has been significant amount of research in the field of the geospatial ontology domain in order to achieve the semantic interoperability between different data sources. Although, data interoperability is one of the main objectives of the Semantic Web technologies, the potentiality of the underlying knowledge tools and techniques have not been completely identified. With the growing influence of the Semantic Web technologies towards the application based on knowledge management and intelligent systems, the geospatial application benefits from this influence. This thesis emphasizes on the use of knowledge to manage spatial data within spatial information systems through the Semantic Web framework. This research activity is carried out with the backdrop of the case study of the industrial archaeology. It sets up an ideal environment for the application of knowledge to manage the huge and heterogeneous dataset. The use of knowledge to manage the diversity of information was well executed through the application prototype named ArchaeoKM which is based on the Semantic Web. The ArchaeoKM framework follows the 4Ks processing steps: Knowledge Acquisition, Knowledge Management, Knowledge Visualization and Knowledge Analysis. The same processing principle of 4Ks was implemented during the spatial knowledge processing. A top level ontology was developed in order to serve as the background representation of the case study in order to adjust the spatial components. Keeping the custom, the spatial knowledge processing begins with acquiring spatial signatures of the identified objects. The spatial signatures are stored within the spatial database system with proper mapping to the objects in the knowledge base. The spatial knowledge of these objects is managed through executing the spatial functions at the database level and enriching the knowledge base with the results. This spatially enriched knowledge base is used again to analyze the spatial knowledge. This research thesis benefits from Semantic Web Rule Language in order to infer knowledge. In addition, the spatial built-ins proposed during the course add up spatial dimension to the SWRL for spatial inferences. Similarly, a spatial extension of the query language SPARQL is proposed in order to query spatial knowledge from the knowledge base. Actually, this research thesis provides the initial steps in integrating spatial components within the Semantic Web framework. This integration process is important for both technologies. Regarding the Semantic Web, the integration of non-typical semantic information within this framework opens up doors to other data pattern making the transformation of technologies easier. Likewise, geospatial technologies and GIS systems benefits through the inclusion of knowledge in the analysis process making the analysis much closer and efficient to human interpretation.
117

A Bayesian learning approach to inconsistency identification in model-based systems engineering

Herzig, Sebastian J. I. 08 June 2015 (has links)
Designing and developing complex engineering systems is a collaborative effort. In Model-Based Systems Engineering (MBSE), this collaboration is supported through the use of formal, computer-interpretable models, allowing stakeholders to address concerns using well-defined modeling languages. However, because concerns cannot be separated completely, implicit relationships and dependencies among the various models describing a system are unavoidable. Given that models are typically co-evolved and only weakly integrated, inconsistencies in the agglomeration of the information and knowledge encoded in the various models are frequently observed. The challenge is to identify such inconsistencies in an automated fashion. In this research, a probabilistic (Bayesian) approach to abductive reasoning about the existence of specific types of inconsistencies and, in the process, semantic overlaps (relationships and dependencies) in sets of heterogeneous models is presented. A prior belief about the manifestation of a particular type of inconsistency is updated with evidence, which is collected by extracting specific features from the models by means of pattern matching. Inference results are then utilized to improve future predictions by means of automated learning. The effectiveness and efficiency of the approach is evaluated through a theoretical complexity analysis of the underlying algorithms, and through application to a case study. Insights gained from the experiments conducted, as well as the results from a comparison to the state-of-the-art have demonstrated that the proposed method is a significant improvement over the status quo of inconsistency identification in MBSE.
118

Research Ontology Data Models for Data and Metadata Exchange Repository

Kamenieva, Iryna January 2009 (has links)
<p>For researches in the field of the data mining and machine learning the necessary condition is an availability of various input data set. Now researchers create the databases of such sets. Examples of the following systems are: The UCI Machine Learning Repository, Data Envelopment Analysis Dataset Repository, XMLData Repository, Frequent Itemset Mining Dataset Repository. Along with above specified statistical repositories, the whole pleiad from simple filestores to specialized repositories can be used by researchers during solution of applied tasks, researches of own algorithms and scientific problems. It would seem, a single complexity for the user will be search and direct understanding of structure of so separated storages of the information. However detailed research of such repositories leads us to comprehension of deeper problems existing in usage of data. In particular a complete mismatch and rigidity of data files structure with SDMX - Statistical Data and Metadata Exchange - standard and structure used by many European organizations, impossibility of preliminary data origination to the concrete applied task, lack of data usage history for those or other scientific and applied tasks.</p><p>Now there are lots of methods of data miming, as well as quantities of data stored in various repositories. In repositories there are no methods of DM (data miming) and moreover, methods are not linked to application areas. An essential problem is subject domain link (problem domain), methods of DM and datasets for an appropriate method. Therefore in this work we consider the building problem of ontological models of DM methods, interaction description of methods of data corresponding to them from repositories and intelligent agents allowing the statistical repository user to choose the appropriate method and data corresponding to the solved task. In this work the system structure is offered, the intelligent search agent on ontological model of DM methods considering the personal inquiries of the user is realized.</p><p>For implementation of an intelligent data and metadata exchange repository the agent oriented approach has been selected. The model uses the service oriented architecture. Here is used the cross platform programming language Java, multi-agent platform Jadex, database server Oracle Spatial 10g, and also the development environment for ontological models - Protégé Version 3.4.</p>
119

Intégration d'une couche spatiale dans l'architecture du Web sémantique : une proposition via la plateforme ArchaeoKM

Karmacharya, Ashish 30 June 2011 (has links) (PDF)
L'analyse spatiale de données géographies connaît un regain d'intérêt dans la communauté des bases de données relationnelles. Plus spécifiquement, les opérations et les fonctions spatiales utilisées comme base de l'analyse spatiale sont implémentées par les grands noms des systèmes de gestion de bases de données relationnelles limitant ainsi l'hétérogénéité structurelle des systèmes. En outre, la littérature est abondante en publications dans le domaine des ontologies spatiales afin de limiter l'hétérogénéité sémantique des sources de données tout en améliorant l'interopérabilité de ces données. Bien que l'interopérabilité des données soit l'un des objectifs du Web Sémantique, tout le potentiel de ces outils et de ces techniques basés sur la connaissance n'a pas été révélé. Avec l'influence sans cesse croissante du Web Sémantique à travers ces outils et applications en gestion de la connaissance et système intelligent, les applications utilisant des données géospatiales suivent ce phénomène en bénéficiant de son influence. Cette thèse se focalise sur l'utilisation de la connaissance métier afin de gérer des données spatiales à l'aide des technologies du Web sémantique. L'activité de recherche menée dans le cadre de cette thèse est réalisée sur des données provenant du domaine de l'archéologie industrielle. Cet environnement se caractérise par son hétérogénéité et sa grande quantité de données offrant ainsi un cadre idéal pour la réalisation d'un outil de gestion de connaissance. Cet outil basé sur les technologies du Web Sémantique a été prototypé sous le nom d'ArchaeoKM suivant le principe des 4 K, Knowledge Acquisition, Knowledge Management, Knowledge Visualization and Knowledge Analysis. Ce même principe est mis en œuvre pour les données spatiales. Une ontologie de haut niveau a été développée pour servir de cadre applicatif à la gestion des données spatiales permettant d'ajuster une ontologie de domaines sans composante spatiale. Le processus de gestion de la connaissance commence avec l'acquisition de la signature spatiale des objets identifiés. Cette signature est stockée dans un système de gestion de bases de données spatiales et est référencée par l'objet correspondant dans la base de connaissance. La connaissance spatiale de ces objets est générée à l'aide des fonctions et des opérations spatiales au niveau de la base de données spatiale et l'enrichissement de la base de connaissance est réalisé avec le résultat de ces opérations et fonctions. L'inférence de nouvelle connaissance sur la base des données existante est réalisée à l'aide de SWRL (Semantic Web Rule Language). De plus, ce langage a été étendu à l'aide de nouveaux built-ins spatiaux afin de prendre en sidération la dimension spatiale des données. De même, cette dimension spatiale a été apportée au langage SPARQL afin de réaliser des requêtes spatiales sur la base de connaissances.En effet, l'objectif principal de cette thèse est d'initier le premier pas vers l'intégration des composantes spatiales avec les technologies du Web Sémantique. Le processus d'intégration est premier plan pour les deux technologies. D'un point de vue Web Sémantique, l'intégration de données non communes dans ce cadre applicatif ouvre la porte à l'intégration de données beaucoup plus large. D'un point de vue des systèmes d'information géographique, l'inclusion de la connaissance permet une gestion métier des données rendant l'analyse plus proche de l'interprétation humaine.
120

Analyse Statique de Requête pour le Web Sémantique

Chekol, Melisachew Wudage 19 December 2012 (has links) (PDF)
L'inclusion de requête est un problème bien étudié durant plusieurs décen- nies de recherche. En règle générale, il est défini comme le problème de déterminer si le résultat d'une requête est inclus dans le résultat d'une autre requête pour tout ensem- ble de données. Elle a des applications importantes dans l'optimisation des requêtes et la vérification de bases de connaissances. L'objectif principal de cette thèse est de fournir des procédures correctes et complètes pour déterminer l'inclusion des requêtes SPARQL en vertu d'axiomes exprimés en logiques de description. De plus, nous met- tons en œuvre ces procédures à l'appui des résultats théoriques par l'expérimentation. À ce jour, l'inclusion de requête a été testée à l'aide de différentes techniques: ho- momorphisme de graphes, bases de données canoniques, les techniques de la théorie des automates et réduction au problème de la validité d'une logique. Dans cette thèse, nous utilisons la derniere technique pour tester l'inclusion des requêtes SPARQL utilisant une logique expressive appelée le μ-calcul. Pour ce faire, les graphes RDF sont codés comme des systèmes de transitions, et les requêtes et les axiomes du schéma sont codés comme des formules de μ-calcul. Ainsi, l'inclusion de requêtes peut être réduite au test de la validité d'une formule logique. Dans cette thèse j'identifier les divers fragments de SPARQL (et PSPARQL) et les langages de description logique de schéma pour lequelle l'inculsion est décidable. En outre, afin de fournir théoriquement et expérimentalement des procédures éprouvées pour vérifier l'inclusion de ces fragments décidables. Enfin, cette thèse propose un point de repère pour les solveurs d'inclusion. Ce benchmark est utilisé pour tester et comparer l'état actuel des solveurs d'inclusion.

Page generated in 0.0945 seconds