• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 31
  • 5
  • 4
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 47
  • 47
  • 19
  • 15
  • 13
  • 11
  • 11
  • 9
  • 8
  • 8
  • 8
  • 8
  • 7
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Exploiting Alignments in Linked Data for Compression and Query Answering

Joshi, Amit Krishna 06 June 2017 (has links)
No description available.
32

Qualitative calculi with heterogeneous universes / Calculs qualitatifs avec des univers hétérogènes

Inants, Armen 25 April 2016 (has links)
Représentation et raisonnement qualitatifs fonctionnent avec des relations non-numériques entre les objets d'un univers. Les formalismes généraux développés dans ce domaine sont basés sur différents types d'algèbres de relations, comme les algèbres de Tarski. Tous ces formalismes, qui sont appelés des calculs qualitatifs, partagent l'hypothèse implicite que l'univers est homogène, c'est-à-dire qu'il se compose d'objets de même nature. Toutefois, les objets de différents types peuvent aussi entretenir des relations. L'état de l'art du raisonnement qualitatif ne permet pas de combiner les calculs qualitatifs pour les différents types d'objets en un seul calcul.De nombreuses applications discriminent entre différents types d'objets. Par exemple, certains modèles spatiaux discriminent entre les régions, les lignes et les points, et différentes relations sont utilisées pour chaque type d'objets. Dans l'alignement d'ontologies, les calculs qualitatifs sont utiles pour exprimer des alignements entre un seul type d'entités, telles que des concepts ou des individus. Cependant, les relations entre les individus et les concepts, qui imposent des contraintes supplémentaires, ne sont pas exploitées.Cette thèse introduit la modularité dans les calculs qualitatifs et fournit une méthodologie pour la modélisation de calculs qualitatifs des univers hétérogènes. Notre contribution principale est un cadre basé sur une classe spéciale de schémas de partition que nous appelons modulaires. Pour un calcul qualitatif engendré par un schéma de partition modulaire, nous définissons une structure qui associe chaque symbole de relation avec un domaine et codomain abstrait à partir d'un treillis booléen de sortes. Un module d'un tel calcul qualitatif est un sous-calcul limité à une sorte donnée, qui est obtenu par une opération appelée relativisation à une sorte. D'un intérêt pratique plus grand est l'opération inverse, qui permet de combiner plusieurs calculs qualitatifs en un seul calcul. Nous définissons une opération appelée combinaison modulo liaison, qui combine deux ou plusieurs calculs qualitatifs sur différents univers, en fonction de quelques relations de liaison entre ces univers. Le cadre est suffisamment général pour soutenir la plupart des calculs spatio-temporels qualitatifs connus. / Qualitative representation and reasoning operate with non-numerical relations holding between objects of some universe. The general formalisms developed in this field are based on various kinds of algebras of relations, such as Tarskian relation algebras. All these formalisms, which are called qualitative calculi, share an implicit assumption that the universe is homogeneous, i.e., consists of objects of the same kind. However, objects of different kinds may also entertain relations. The state of the art of qualitative reasoning does not offer a combination operation of qualitative calculi for different kinds of objects into a single calculus.Many applications discriminate between different kinds of objects. For example, some spatial models discriminate between regions, lines and points, and different relations are used for each kind of objects. In ontology matching, qualitative calculi were shown useful for expressing alignments between only one kind of entities, such as concepts or individuals. However, relations between individuals and concepts, which impose additional constraints, are not exploited.This dissertation introduces modularity in qualitative calculi and provides a methodology for modeling qualitative calculi with heterogeneous universes. Our central contribution is a framework based on a special class of partition schemes which we call modular. For a qualitative calculus generated by a modular partition scheme, we define a structure that associates each relation symbol with an abstract domain and codomain from a Boolean lattice of sorts. A module of such a qualitative calculus is a sub-calculus restricted to a given sort, which is obtained through an operation called relativization to a sort. Of a greater practical interest is the opposite operation, which allows for combining several qualitative calculi into a single calculus. We define an operation called combination modulo glue, which combines two or more qualitative calculi over different universes, provided some glue relations between these universes. The framework is general enough to support most known qualitative spatio-temporal calculi.
33

[en] STDTRIP: AN A PRIORI DESIGN PROCESS FOR PUBLISHING LINKED DATA / [pt] STDTRIP: UM PROCESSO DE PROJETO A PRIORI PARA PUBLICAÇÃO DE LINKED DATA

PERCY ENRIQUE RIVERA SALAS 30 January 2017 (has links)
[pt] A abordagem de Dados Abertos tem como objetivo promover a interoperabilidade de dados na Web. Consiste na publicação de informações em formatos que permitam seu compartilhamento, descoberta, manipulação e acesso por parte de usuários e outros aplicativos de software. Essa abordagem requer a triplificação de conjuntos de dados, ou seja, a conversão do esquema de bases de dados relacionais, bem como suas instâncias, em triplas RDF. Uma questão fundamental neste processo é decidir a forma de representar conceitos de esquema de banco de dados em termos de classes e propriedades RDF. Isto é realizado através do mapeamento das entidades e relacionamentos para um ou mais vocabulários RDF, usados como base para a geração das triplas. A construção destes vocabulários é extremamente importante, porque quanto mais padrões são utilizados, melhor o grau de interoperabilidade com outros conjuntos de dados. No entanto, as ferramentas disponíveis atualmente não oferecem suporte adequado ao reuso de vocabulários RDF padrão no processo de triplificação. Neste trabalho, apresentamos o processo StdTrip, que guia usuários no processo de triplificação, promovendo o reuso de vocabulários de forma a assegurar interoperabilidade dentro do espaço da Linked Open Data (LOD). / [en] Open Data is a new approach to promote interoperability of data in the Web. It consists in the publication of information produced, archived and distributed by organizations in formats that allow it to be shared, discovered, accessed and easily manipulated by third party consumers. This approach requires the triplification of datasets, i.e., the conversion of database schemata and their instances to a set of RDF triples. A key issue in this process is deciding how to represent database schema concepts in terms of RDF classes and properties. This is done by mapping database concepts to an RDF vocabulary, used as the base for generating the triples. The construction of this vocabulary is extremely important, because the more standards are reused, the easier it will be to interlink the result to other existing datasets. However, tools available today do not support reuse of standard vocabularies in the triplification process, but rather create new vocabularies. In this thesis, we present the StdTrip process that guides users in the triplification process, while promoting the reuse of standard, RDF vocabularies.
34

Contribution à l'interopérabilité des entreprises par alignement d'ontologies / Contribution of ontology alignment to enterprise interoperability

Song, Fuqi 28 October 2013 (has links)
Cette thèse propose l’utilisation de l’alignement d'ontologies pour contribuer à l'interopérabilité d’une fédération d’entreprises en se basant sur l'interopérabilité des données au niveau sémantique. Une approche d'alignement basée sur des modèles d’ontologie utilisant les mots noyaux est proposée en réponse aux problèmes et aux défis existants, visant ainsi à améliorer la capacité d'adaptation et la précision dans la mise en correspondance de concepts. De plus une étape d'agrégation des « matchers » analytique, qui permet de combiner automatiquement plusieurs adaptateurs et d'améliorer les résultats combinés, vient compléter l’approche. Un système prototype a été mis en œuvre à l’issue des travaux conceptuels pour la validation de l’approche proposée. Les expériences démontrent que l’approche proposée a obtenu des résultats prometteurs et a atteint les objectifs escomptés sur la définition de proximité des concepts. L'approche d'alignement d’ontologies proposée et le système de prototype mis en œuvre ont enfin été appliqués à une architecture dirigée par les ontologies et axée sur l'interrogation des données de plusieurs bases de données relationnelles. / This thesis brings ontology alignment to contribute to federated enterprise interoperability focusing on data interoperability at the semantic level. In response to existing problems and challenges, aiming at improving the matching ability and precision, a pattern-based core word ontology alignment approach is proposed, as well as an analytic matcher aggregation approach, which allows combining the multiple matchers automatically and improve the combined results. A prototype system is implemented for validation and further application based on the proposed approaches. The experiments suggest that the proposed approaches obtained promising results and reached expected goals. The proposed ontology alignment approach and implemented prototype system are applied to an ontology-driven architecture for querying data from multiple relational databases.
35

Améliorer l'interopérabilité sémantique : applicabilité et utilité de l'alignement d'ontologies / Enhancing the semantic interoperability : applicability and utility of the ontology alignment

Hamdi, Fayçal 02 December 2011 (has links)
Dans cette thèse, nous présentons des approches d’adaptation d’un processus d’alignement aux caractéristiques des ontologies alignées, qu'il s'agisse de caractéristiques quantitatives telles que leur volume ou de caractéristiques particulières liées par exemple à la façon dont les labels des concepts sont construits. Concernant les caractéristiques quantitatives, nous proposons deux méthodes de partitionnement d'ontologies qui permettent l’alignement des ontologies très volumineuses. Ces deux méthodes génèrent, en entrée du processus d'alignement, des sous ensembles de taille raisonnable des deux ontologies à aligner en prenant en compte dès le départ l'objectif d'alignement dans le processus de partitionnement.Concernant les caractéristiques particulières des ontologies alignées, nous présentons l’environnement TaxoMap Framework qui permet la spécification de traitements de raffinement à partir de primitives prédéfinies. Nous proposons un langage de patrons MPL (the Mapping Pattern Language) que nous utilisons pour spécifier les traitements de raffinement.En plus des approches d’adaptation aux caractéristiques des ontologies alignées, nous présentons des approches de réutilisation des résultats d'alignement pour l'ingénierie ontologique. Nous nous focalisons plus particulièrement sur l'utilisation de l'alignement pour l'enrichissement d'ontologies. Nous étudions l'apport des techniques d'alignement pour l'enrichissement et l'impact des caractéristiques de la ressource externe utilisée comme source d'enrichissement. Enfin, nous présentons la façon dont l'environnement TaxoMap Framework a été implémenté et les expérimentations réalisées : des tests sur le module d'alignement TaxoMap, sur l'approche de raffinement de mappings, sur les méthodes de partitionnement d'ontologies de très grande taille et sur l'approche d'enrichissement d'ontologies. / In this thesis, we present approaches for adapting an alignment process to the characteristics of the aligned ontologies, whether in respect of the quantitative characteristics such as their volume or the particular characteristics related for example to the way in which the labels of the concepts are built.Concerning the quantitative characteristics, we propose two ontology partitioning methods that make the alignment of very large ontologies possible. Both methods generate in the input of the alignment process, subsets of reasonable size of the two ontologies to be aligned by taking into account, as soon as possible, the alignment objective in the partitioning process.Concerning the particular characteristics of the aligned ontologies, we present the TaxoMap Framework environment that allows the specification of refinement treatments from predefined primitives. We propose a pattern language MPL (the Mapping Pattern Language) that we use to specify the refinement treatments.In addition to the adaptation approaches to the characteristics of the aligned ontologies, we present approaches for re-using the alignment results for the ontological engineering. We focus specifically on the use of the alignment for the ontology enrichment. We study the contribution of the alignment techniques for the enrichment and the impact of the characteristics of the external resource used as a source of enrichment.Finally, we present how the TaxoMap Framework environment was implemented and the performed experiments: tests on the TaxoMap alignment module, on the mappings refinement approach, on the partitioning methods of very large ontologies and on the ontology enrichment approach.
36

Análisis de la incertidumbre en la estimación de la movilidad electoral mediante el procedimiento LPHOM

Martín Marín, Jorge 21 December 2020 (has links)
[ES] La estimación del trasvase de votos de unos partidos a otros entre dos procesos electorales es un tema relevante dentro de la sociología política. Dadas las limitaciones de las encuestas en este campo, existe un interés creciente en los procedimientos de estimación que utilizan exclusivamente la realidad incuestionable de los propios resultados electorales. lphom es uno de estos métodos. lphom es un procedimiento, relativamente sencillo, que, tras ser aplicado en estos últimos años en algunos estudios reales, ha proporcionado, en todos los casos, resultados muy razonables. En la presente tesis se aborda el problema, hasta ahora no investigado, de desarrollar procedimientos para estimar los márgenes de incertidumbre de los resultados obtenidos al aplicar este procedimiento en estudios reales. Tras definir unos indicadores adecuados, EI y EP, para cuantificar dicha incertidumbre, el proceso se basa en utilizar los residuos del modelo lphom para (i) evaluar el grado de incumplimiento de la hipótesis de homogeneidad en la que se sustenta lphom, y (ii) investigar, mediante un conjunto de estudios de simulación desarrollados en diferentes escenarios, las relaciones entre estos indicadores. Las conclusiones generales de estos estudios permiten desarrollar unos procedimientos para estimar los valores previsibles de EI y EP en estudios reales, así como los límites de confianza superior para los mismos. También se desarrolla un procedimiento para obtener intervalos de confianza para las diferentes probabilidades de transición de votos pjk estimadas mediante lphom. Los métodos desarrollados se ilustran aplicándolos a la estimación del trasvase de votos entre la primera y la segunda vuelta de las elecciones presidenciales francesas de 2017. Se indican finalmente una serie de líneas futuras de investigación sugeridas por los resultados de esta tesis. / [CAT] L'estimació del transvasament de vots d'uns partits a altres entre dos processos electorals és un tema rellevant dins de la sociología política. Donades les limitacions de les enquestes en aquest camp, hi ha un creixent interés en els procediments d'estimació que utilitzen exclusivamente la realitat inqüestionable dels propis resultats electorals. En aquest sentit, lphom és un mètode senzill que després de ser aplicat aquestos últims anys en alguns estudis reals, ha proporcionat en tots els casos resultats molt razonables. En la següent tesi, s'aborda el problema, encara no investigat, de desenvolupar procediments per a estimar els margens d'incentidumbre dels resultats obtenguts al aplicar aquest procediment en els estudis reals. Després d'haber definit uns indicadors adecuats, EI y EP, per a quantificar dita incertidumbre, el procés es basa en utilitzar els residus del model lphom per a (i) evaluar el grau de incompliment de la hipótesis d'homogeneïtat en què es sustenta lphom, i (ii) investigar, mitjançant un conjunt d'estudis de simulacions desenvolupades en diferents escenaris, les relacions entre aquestos indicadors. Les conclusions generals d'aquestos estudis permeten desenvolupar uns procediments per a estimar els valors previsibles de EI y EP en estudis reals, així com els límits de confianza superior per als mateixos. També s'aconsegueix un procediment per a obtindre intervals de confiança per a les diferents probabilitats de transició de vots pjk estimats mediant lphom. Els métodes desenvolupats s'ilustren aplicats a l'estimació del transvasament de vots entre la primera y segona volta de les eleccions presidencials franceses de 2017. S'indiquen finalment una sèrie de línies futures d'investigació suggerides pels resultats d'aquesta tesi. / [EN] The estimation of the transfer of votes from some political parties to another between two electoral processes is a relevant issue within political sociology. Given the limitations of the surveys in this field, there is a growing interest in estimation procedures that exclusively use the unquestionable reality of the electoral results themselves. In this sense, lphom is a simple method that, after being applied in recent years in some real studies, has provided, in all cases, very reasonable results. This thesis addresses the problem, so far not investigated, of developing procedures to estimate the margins of uncertainty of the results obtained by applying this procedure in real studies. After defining suitable indicators, EI and EP, to quantify this uncertainty, the process is based on using the residuals of the lphom model to (i) evaluate the degree of non-compliance with the homogeneity hypothesis on which lphom is based, and (ii) investigate, through a set of simulation studies developed in different scenarios, the relationships between these indicators. The general conclusions of these studies allow the development of procedures to estimate the predictable values of IE and PE in real studies, as well as the upper confidence limits for them. A procedure is also developed to obtain confidence intervals for the different transition probabilities of votes pjk estimated by lphom. The methods developed are illustrated by applying them to the estimation of the transfer of votes between the first and second rounds of the 2017 French presidential elections. A series of future lines of research suggested by the results of this thesis are finally indicated. / Martín Marín, J. (2020). Análisis de la incertidumbre en la estimación de la movilidad electoral mediante el procedimiento LPHOM [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/157638 / TESIS
37

Conception d'une ontologie hybride à partir d'ontologies métier évolutives : intégration et alignement d'ontologies / Designing a hybrid ontologie from evolutive business ontologies : ontology Integration and Alignment

Ziani, Mina 06 December 2012 (has links)
Cette thèse se situe dans le champ de la gestion des connaissances à l’aide de modèles ontologiques. Pour représenter les connaissances de domaine, nous avons conçu une ontologie hybride à deux niveaux : au niveau local, chaque groupe d’experts (du même métier) a construit sa propre ontologie, au niveau global une ontologie consensuelle regroupant les connaissances partagées est créée de façon automatique. De plus, des liens sémantiques entre les éléments de différentes ontologies locales peuvent être ajoutés.Nous avons construit un système d’aide pour guider les experts dans le processus de création de liens sémantiques ou mises en correspondance. Ses particularités sont de proposer des mesures de similarité en fonction des caractéristiques des ontologies à aligner, de réutiliser des résultats déjà calculés et de vérifier la cohérence des mises en correspondances créées.Par ailleurs, les ontologies locales peuvent être mises à jour. Cela implique des changements au niveau de l’ontologie globale ainsi que des mises en correspondances créées. De ce fait, nous avons développé une approche, adaptée à notre domaine pour gérer l’évolution de l’ontologie hybride. En particulier, nous avons utilisé la notion de versions d’ontologies afin de garder trace de toutes les modifications apportées au niveau des ontologies et de pouvoir revenir à tout moment à une version précédente.Nous avons appliqué notre travail de recherche à la géotechnique qui est un domaine complexe impliquant des experts de différents métiers. Une plateforme logicielle est en cours de réalisation et permettra de tester la faisabilité de nos travaux. / This thesis concerns the scope of knowledge management using ontological models.To represent domain knowledge, we design a hybrid ontology on two levels: In a local level, each experts’ group has designed its own ontology. In a global level, a consensual ontology containing all the shared knowledge is automatically created.We design a computer-aided system to help experts in the process of mapping creation. It allows experts to choice similarity measures relatively to the ontology characteristics, to reuse the calculated similarities and to verify the consistency of the created mappings.In addition, local ontologies can be updated. This involves modifications in the global ontology and on the created mappings. A relevant approach of our domain was developed.In particular, ontology versioning is used in order to keep a record of all the occurred modifications in the ontologies; it allows to return at any time a previous version of the hybrid ontology.The exploited domain is geotechnics which gathers various business experts. A prototype is in progress and currently does not still captures ontology evolution.
38

ROMIE, une approche d'alignement d'ontologies à base d'instances / ROMIE, Resource based Ontology Mapping within an Interactive and Extensible environment

Elbyed, Abdeltif 16 October 2009 (has links)
L'interoperabilite semantique est une question importante, largement identifiee dans les technologies d’organisation et de l'information et dans la communaute de recherche en systemes d'information. L’adoption large du Web afin d’acceder a des informations distribuees necessite l'interoperabilite des systemes qui gerent ces informations. Des solutions et reflexions comme le Web Semantique facilitent la localisation et l’integration des donnees d'une maniere plus intelligente par l'intermediaire des ontologies. Il offre une vision plus semantique et comprehensible du web. Pourtant, il souleve un certain nombre de defis de recherche. Un des principaux defis est de comparer et aligner les differentes ontologies qui apparaissent dans des taches d'integration. Le principal objectif de cette these est de proposer une approche d’alignement pour identifier les liens de correspondance entre des ontologies. Notre approche combine les techniques et les methodes d’appariement linguistiques, syntaxiques, structurelles ou encore semantiques (basees sur les instances). Elle se compose de deux phases principales : la phase d'enrichissement semantique des ontologies a comparer et la phase d’alignement ou de mapping. La phase d'enrichissement est basee sur l'analyse des informations que les ontologies developpent (des ressources web, des donnees, des documents, etc.) et qui sont associes aux concepts de l’ontologie. Notre intuition est que ces informations ainsi que les relations qui peuvent exister entre elles participent a l’enrichissement semantique entre les concepts. A l’issue de la phase d'enrichissement, une ontologie contient plus de relations semantiques entre les concepts qui seront exploitees dans la deuxieme phase. La phase de mapping prend deux ontologies enrichies et calcule la similarite entre les couples de concepts. Un processus de filtrage nous permet de reduire automatiquement le nombre de fausses relations. La validation des correspondances est un processus interactif direct (avec un expert) ou indirect (en mesurant le degre de satisfaction de l’utilisateur). Notre approche a donne lieu a un systeme de mapping appele ROMIE (Resource based Ontology Mapping within an Interactive and Extensible environment). Il a ete experimente et evalue dans deux differentes applications : une application biomedicale et une application dans le domaine de l’apprentissage enrichi par les technologies (ou e-learning). / System interoperability is an important issue, widely recognized in information technology intensive organizations and in the research community of information systems. The wide adoption of the World Wide Web to access and distribute information further stresses the need for system interoperability. Initiative solutions like the Semantic Web facilitate the localization and the integration of the data in a more intelligent way via the use of ontologies. The Semantic Web offers a compelling vision, yet it raises a number of research challenges. One of the key challenges is to compare and map different ontologies, which evidently appears in integration tasks. The main goal of the work is to introduce a method for finding semantic correspondences among ontologies with the intention to support interoperability of Information Systems. The approach brings together syntactic, linguistic, structural and semantic (based on instance information) matching methods in order to provide a semi-automatic mapping. The approach consists of two phases: semantic enrichment phase and mapping phase. The enrichment phase is based on the analysis of the information developed by the ontologies (like web resources, data, documents, etc.) and that are associated to the concepts in the ontologies. Our intuition is that this information as well as the relations that can exist between them is used in semantic enrichment between the concepts. At the end of enrichment phase, the ontology contains more semantic relations between its concepts that will be exploited in the second phase. The phase of mapping takes two enriched ontologies and calculates the similarity between the couples of concepts. A process of filtering enables us to automatically reduce the number of false relations. The validation of the correspondences is a direct interactive process (with an expert) or indirect (by measuring the satisfaction level of the user). The approach has been implemented in a prototype system called ROMIE (Resource based Ontology Mapping within and Interactive and Extensible environment). It was tested and evaluated in two applications: a biomedical application and technology enhanced learning (or e-learning) domain application.
39

Data Integration with XML and Semantic Web Technologies

Tous Liesa, Rubén 04 October 2006 (has links)
En general, la integració de múltiples bases de dades heterogènies té com a objectiu oferir una visió unificada sobre un conjunt de dades preexistent. Aquesta tesi contribueix a diferents aspectes del disseny de sistemes de integració de dades moderns en el context de la World Wide Web. Per un costat, la tesi contribueix a la línia de recerca de la Integració Semàntica, que fa referència al problema de reconciliar dades de fonts autònomes mitjançant l'ús d'ontologies i altres eines semàntiques. La tesi suggereix una nova solució a la integració semàntica XML-RDF, i també contribueix al problema de l'Alineació d'Ontologies, definint una mesura de similitud semàntica rigorosa i escalable per grafs etiquetats i dirigits RDF. Per un altre costat, la tesi suggereix una nova solució al problema de traduir una consulta d'un usuari (dirigida a un esquema lògic intermediari), en consultes sobre un conjunt de fonts de dades autònomes, provistes de interfícies web restringides. / En general, la integración de múltiples bases de datos heterogenias tiene como objetivo ofrecer una visión unificada sobre un conjunto de datos preexistente. Esta tesis contribuye a diferentes aspectos del diseño de sistemas de integración de datos modernos en el contexto de la World Wide Web. Por un lado, la tesis contribuye a la línea de investigación de la Integración Semántica, que hace referencia al problema de reconciliar datos de fuentes autónomas mediante el uso de ontologías i otras herramientas semánticas. La tesis sugiere una nueva solución a la integración semántica XML-RDF, y también contribuye al problema de la Alineación de Ontologías, definiendo una medida de similitud semántica rigurosa i escalable para grafos etiquetados y dirigidos RDF. Por otro lado, la tesis sugiere una nueva solución al problema de traducir una consulta de un usuario (dirigida a un esquema lógico intermediario), en consultas sobre un conjunto de fuentes de datos autónomas, provistas de interfaces web restringidas. / In general, integration of multiple heterogeneous databases aims at giving a unified view over a set of pre-existent data. This thesis contributes to different aspects of the design of modern data integration systems in the context of the World Wide Web. On one hand, this thesis contributes to the Semantic Integration research trend, which refers to the problem of reconciling data from autonomous sources using ontologies and other semantic-based tools. The thesis suggests a novel solution to XML-RDF semantic integration and also contributes to the problem of Ontology Alignment, defining a rigorous and scalable semantic similarity measure for RDF labelled directed graphs. On the other hand, this thesis suggests a novel solution to the problem of translating a user query (targeting a logical mediated schema), into queries over a set of autonomous data sources provided with restricted web interfaces.
40

Toward semantic interoperability for software systems

Lister, Kendall January 2008 (has links)
“In an ill-structured domain you cannot, by definition, have a pre-compiled schema in your mind for every circumstance and context you may find ... you must be able to flexibly select and arrange knowledge sources to most efficaciously pursue the needs of a given situation.” [57] / In order to interact and collaborate effectively, agents, whether human or software, must be able to communicate through common understandings and compatible conceptualisations. Ontological differences that occur either from pre-existing assumptions or as side-effects of the process of specification are a fundamental obstacle that must be overcome before communication can occur. Similarly, the integration of information from heterogeneous sources is an unsolved problem. Efforts have been made to assist integration, through both methods and mechanisms, but automated integration remains an unachieved goal. Communication and information integration are problems of meaning and interaction, or semantic interoperability. This thesis contributes to the study of semantic interoperability by identifying, developing and evaluating three approaches to the integration of information. These approaches have in common that they are lightweight in nature, pragmatic in philosophy and general in application. / The first work presented is an effort to integrate a massive, formal ontology and knowledge-base with semi-structured, informal heterogeneous information sources via a heuristic-driven, adaptable information agent. The goal of the work was to demonstrate a process by which task-specific knowledge can be identified and incorporated into the massive knowledge-base in such a way that it can be generally re-used. The practical outcome of this effort was a framework that illustrates a feasible approach to providing the massive knowledge-base with an ontologically-sound mechanism for automatically generating task-specific information agents to dynamically retrieve information from semi-structured information sources without requiring machine-readable meta-data. / The second work presented is based on reviving a previously published and neglected algorithm for inferring semantic correspondences between fields of tables from heterogeneous information sources. An adapted form of the algorithm is presented and evaluated on relatively simple and consistent data collected from web services in order to verify the original results, and then on poorly-structured and messy data collected from web sites in order to explore the limits of the algorithm. The results are presented via standard measures and are accompanied by detailed discussions on the nature of the data encountered and an analysis of the strengths and weaknesses of the algorithm and the ways in which it complements other approaches that have been proposed. / Acknowledging the cost and difficulty of integrating semantically incompatible software systems and information sources, the third work presented is a proposal and a working prototype for a web site to facilitate the resolving of semantic incompatibilities between software systems prior to deployment, based on the commonly-accepted software engineering principle that the cost of correcting faults increases exponentially as projects progress from phase to phase, with post-deployment corrections being significantly more costly than those performed earlier in a project’s life. The barriers to collaboration in software development are identified and steps taken to overcome them. The system presented draws on the recent collaborative successes of social and collaborative on-line projects such as SourceForge, Del.icio.us, digg and Wikipedia and a variety of techniques for ontology reconciliation to provide an environment in which data definitions can be shared, browsed and compared, with recommendations automatically presented to encourage developers to adopt data definitions compatible with previously developed systems. / In addition to the experimental works presented, this thesis contributes reflections on the origins of semantic incompatibility with a particular focus on interaction between software systems, and between software systems and their users, as well as detailed analysis of the existing body of research into methods and techniques for overcoming these problems.

Page generated in 0.4249 seconds