• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 376
  • 218
  • 76
  • 53
  • 24
  • 20
  • 20
  • 18
  • 18
  • 16
  • 8
  • 7
  • 7
  • 6
  • 6
  • Tagged with
  • 917
  • 917
  • 270
  • 206
  • 192
  • 160
  • 156
  • 126
  • 112
  • 109
  • 107
  • 107
  • 107
  • 106
  • 104
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
311

OntoFeed um leitor de Feeds com extensão ontológica. / Ontofeed: a feed reader with ontological extension.

Marcelo Gomes Rodrigues 23 August 2011 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / O problema que justifica o presente estudo refere-se à falta de semântica nos mecanismos de busca na Web. Para este problema, o consórcio W3 vem desenvolvendo tecnologias que visam construir uma Web Semântica. Entre estas tecnologias, estão as ontologias de domínio. Neste sentido, o objetivo geral desta dissertação é discutir as possibilidades de se imprimir semântica às buscas nos agregadores de notícia da Web. O objetivo específico é apresentar uma aplicação que usa uma classificação semi-automática de notícias, reunindo, para tanto, as tecnologias de busca da área de recuperação de informação com as ontologias de domínio. O sistema proposto é uma aplicação para a Web capaz de buscar notícias sobre um domínio específico em portais de informação. Ela utiliza a API do Google Maps V1 para a localização georreferenciada da notícia, sempre que esta informação estiver disponível. Para mostrar a viabilidade da proposta, foi desenvolvido um exemplo apoiado em uma ontologia para o domínio de chuvas e suas consequências. Os resultados obtidos por este novo Feed de base ontológica são alocados em um banco de dados e disponibilizados para consulta via Web. A expectativa é que o Feed proposto seja mais relevante em seus resultados do que um Feed comum. Os resultados obtidos com a união de tecnologias patrocinadas pelo consórcio W3 (XML, RSS e ontologia) e ferramentas de busca em página Web foram satisfatórios para o propósito pretendido. As ontologias mostram-se como ferramentas de usos múltiplos, e seu valor de análise em buscas na Web pode ser ampliado com aplicações computacionais adequadas para cada caso. Como no exemplo apresentado nesta dissertação, à palavra chuva agregaram-se outros conceitos, que estavam presentes nos desdobramentos ocasionados por ela. Isto realçou a ligação do evento chuva com as consequências que ela provoca - ação que só foi possível executar através de um recorte do conhecimento formal envolvido. / The problem addressed in this work refers to the lack of semantics in Web search engine. As solution, the W3 consortium has been developing technologies that aim to build a Semantic Web, including the domain ontology. Considering this issue, the work main goal is to discuss the possibilities of placing semantics context in the searches in Web feed applications. The specific goal is to propose a Web application that uses a semi-automatic classification of news, by joining information retrieval technologies and domain ontology. The software is able to get news about a given domain from Web information portals. It uses the Google Map API VI for gather the new geo-referenced location, whenever this information is available. To show the proposal feasibility, an example was developed supported by an ontology in the domain of rainfall and its consequences. The results of this new ontology-based feed are allocated in a database e make available for query via the Web. It is expected that the proposed feed offers more relevant results than the current feeds. In addition, the union of technologies sponsored by the W3C and traditional search methods on Web pages were satisfactory for the intended purposes. Ontology is showed as multi-use tool and its value in Web search can be extended for appropriate computer applications. In the example presented, other concepts were added to the word rainfall, which is present in the deployments caused by it. This highlighted the connection of the event rainfall with its consequences, action that was only possible to run through a cutout of the formal knowledge involved.
312

Mise en contexte des traces pour une analyse en niveaux d'abstraction / Exploiting context for an structuration of execution traces in abstraction layers

Fopa, Léon Constantin 23 June 2015 (has links)
Les techniques d'analyse et de débogage d'applications sont de plus en plus mises à mal dans les systèmes modernes. En particulier dans les systèmes basés sur des composants embarqués multiprocesseurs (ou MPSoc) qui composent aujourd'hui la plupart de nos dispositifs quotidiens. Le recours à des traces d'exécution devient incontournable pour appliquer une analyse fine de tels systèmes et d'en identifier les comportements divergents. Même si la trace représente une source d'information riche mise à disposition du développeur pour travailler, les informations pertinentes à l'analyse se retrouvent noyées dans la masse et sont difficilement utilisables sans une expertise de haut niveau. Des outils dédiés à l'exploitation des traces deviennent nécessaires. Cependant les outils existants prennent rarement en compte les aspects métiers spécifiques à l'application afin d'optimiser le travail d'analyse. Dans cette thèse, nous proposons une approche qui permet au développeur de représenter, manipuler et interroger une trace d'exécution en se basant sur des concepts liés à ses propres connaissances métier. Notre approche consiste en l'utilisation d'une ontologie pour modéliser et interroger les concepts métier dans une trace, et l'utilisation d'un moteur d'inférence pour raisonner sur ces concepts métier. Concrètement, nous proposons VIDECOM l'ontologie du domaine de l'analyse des traces d'exécution des applications embarquées multimédia sur MPSoC. Nous nous intéressons ensuite au passage à l'échelle de l'exploitation de cette ontologie pour l'analyse des traces de grandes tailles. Ainsi, nous faisons une étude comparative des différents systèmes de gestion des ontologies pour déterminer l'architecture la plus adaptée aux traces de très grande taille au sein de notre ontologie VIDECOM. Nous proposons également un moteur d'inférence qui adresse les défis que pose le raisonnement sur les concepts métier, à savoir l'inférence de l'ordre temporel entre les concepts métier dans la trace et la terminaison du processus de génération de nouvelles connaissances métier. Enfin, nous illustrons la mise en pratique de l'utilisation de l'ontologie VIDECOM dans le cadre du projet SoC-Trace pour l'analyse des traces d'exécution réelles sur MPSoC. / Applications analysis and debugging techniques are increasingly challenging task in modern systems. Especially in systems based on embedded multiprocessor components (or MPSoC) that make up the majority of our daily devices today. The use of execution traces is unavoidable to apply a detailed analysis of such systems and identify unexpected behaviors. Even if the trace offers a rich corpus of information to the developer for her work, information relevant to the analysis are hidden in the trace and is unusable without a high level of expertise. Tools dedicated to trace analysis become necessary. However existing tools take little or no account of the specific business aspects to an application or the developer's business knowledge to optimize the analysis task. In this thesis, we propose an approach that allows the developer to represent, manipulate and query an execution trace based on concepts related to her own business knowledge. Our approach is the use of an ontology to model and query business concepts in a trace, and the use of an inference engine to reason about these business concepts. Specifically, we propose VIDECOM, the domain ontology for the analysis of execution traces of multimedia applications embedded on MPSoC. We then focus on scaling the operation of this ontology for the analysis of huge traces. Thus, we make a comparative study of different ontologies management systems (or triplestores) to determine the most appropriate architecture for very large traces in our VIDECOM ontology.We also propose an inference engine that addresses the challenges of reasoning about business concepts, namely the inference of the temporal order between business concepts in the trace and the termination of the process of generating new knowledge from business knowledge. Finally, we illustrate the practical use of VIDECOM in the SoC-Trace project for the analysis of real execution traces on MPSoC.
313

Integração de recursos da web semântica e mineração de uso para personalização de sites / Integrating semantic web resources and web usage mining for websites personalization

Rigo, Sandro Jose January 2008 (has links)
Um dos motivos para o crescente desenvolvimento da área de mineração de dados encontra-se no aumento da quantidade de documentos gerados e armazenados em formato digital, estruturados ou não. A Web contribui sobremaneira para este contexto e, de forma coerente com esta situação, observa-se o surgimento de técnicas específicas para utilização nesta área, como a mineração de estrutura, de conteúdo e de uso. Pode-se afirmar que esta crescente oferta de informação na Web cria o problema da sobrecarga cognitiva. A Hipermídia Adaptativa permite minorar este problema, com a adaptação de hiperdocumentos e hipermídia aos seus usuários segundo suas necessidades, preferências e objetivos. De forma resumida, esta adaptação é realizada relacionando-se informações sobre o domínio da aplicação com informações sobre o perfil de usuários. Um dos tópicos importantes de pesquisa em sistemas de Hipermídia Adaptativa encontra-se na geração e manutenção do perfil dos usuários. Dentre as abordagens conhecidas, existe um contínuo de opções, variando desde cadastros de informações preenchidos manualmente, entrevistas, até a aquisição automática de informações com acompanhamento do uso da Web. Outro ponto fundamental de pesquisa nesta área está ligado à construção das aplicações, sendo que recursos da Web Semântica, como ontologias de domínio ou anotações semânticas de conteúdo podem ser observados no desenvolvimento de sistemas de Hipermídia Adaptativa. Os principais motivos para tal podem ser associados com a inerente flexibilidade, capacidade de compartilhamento e possibilidades de extensão destes recursos. Este trabalho descreve uma arquitetura para a aquisição automática de perfis de classes de usuários, a partir da mineração do uso da Web e da aplicação de ontologias de domínio. O objetivo principal é a integração de informações semânticas, obtidas em uma ontologia de domínio descrevendo o site Web em questão, com as informações de acompanhamento do uso obtidas pela manipulação dos dados de sessões de usuários. Desta forma é possível identificar mais precisamente os interesses e necessidades de um usuário típico. Integra o trabalho a implementação de aplicação de Hipermídia Adaptativa a partir de conceitos de modelagem semântica de aplicações, com a utilização de recursos de serviços Web, para validação experimental da proposta. / One of the reasons for the increasing development observed in Data Mining area is the raising in the quantity of documents generated and stored in digital format, structured or not. The Web plays central role in this context and some specific techniques can be observed, as structure, content and usage mining. This increasing information offer in the Web brings the cognitive overload problem. The Adaptive Hypermedia permits a reduction of this problem, when the contents of selected documents are presented in accordance with the user needs, preferences and objectives. Briefly put, this adaptation is carried out on the basis of relationship between information concerning the application domain and information concerning the user profile. One of the important points in Adaptive Hypermedia systems research is to be found in the generation and maintenance of the user profiles. Some approaches seek to create the user profile from data obtained from registration, others incorporate the results of interviews, and some have the objective of automatic acquisition of information by following the usage. Another fundamental research point is related with the applications construction, where can be observed the use of Web semantic resources, such as semantic annotation and domain ontologies. This work describes the architecture for automatic user profile acquisition, using domain ontologies and Web usage mining. The main objective is the integration of usage data, obtained from user sessions, with semantic description, obtained from a domain ontology. This way it is possible to identify more precisely the interests and needs of a typical user. The implementation of an Adaptive Hypermedia application based on the concepts of semantic application modeling and the use of Web services resources that were integrated into the proposal permitted greater flexibility and experimentation possibilities.
314

Towards a security framework for the semantic web

Mbaya, Ibrahim Rajab 30 November 2007 (has links)
With the increasing use of the Web and the need to automate, interoperate, and reason about resources and services on the Web, the Semantic Web aims to provide solutions for the future needs of World Wide Web computing. However, the autonomous, dynamic, open, distributed and heterogeneous nature of the Semantic Web introduces new security challenges. Various security standards and mechanisms exist that address different security aspects of the current Web and Internet, but these have not been integrated to address security aspects of the Semantic Web specifically. Hence, there is a need to have a security framework that integrates these disparate security tools to provide a holistic, secure environment for the Semantic Web. This study proposes a security framework that provides various security functionalities to Semantic Web entities, namely, agents, Web services and Web resources. The study commences with a literature survey carried out in order to establish security aspects related to the Semantic Web. In addition, requirements for a security framework for the Semantic Web are extracted from the literature. This is followed by a model-building study that is used to compile a security framework for the Semantic Web. In order to prove the feasibility thereof, the framework is then applied to different application scenarios as a proof-of-concept. Following the results of the evaluation, it is possible to argue that the proposed security framework allows for the description of security concepts and service workflows, reasoning about security concepts and policies, as well as the specification of security policies, security services and security mechanisms. The security framework is therefore useful in addressing the identified security requirements of the Semantic Web. / School of Computing / M.Sc. (Computer Science)
315

O controle de autoridade no consórcio VIAF /

Romanetto, Luiza de Menezes. January 2017 (has links)
Orientador: Plácida Leopoldina Ventura Amorim da Costa Santos / Banca: Zaira Regina Zafalon / Banca: Raquel Cristina Vesú Alves / Resumo: O controle de autoridade garante consistência aos sistemas de informação. Adotado na catalogação, o tema recebeu maior visibilidade durante a década de 1980 com a automação dos catálogos. Desde então, surgiram projetos direcionados ao intercâmbio e compartilhamento de dados de autoridade. O Virtual International Authority File (VIAF) é um consórcio de cooperação internacional entre bibliotecas e agências nacionais que disponibiliza arquivos de autoridade no Linking Open Data. Este estudo foi desenvolvido com o intuito de responder ao problema de pesquisa: como o controle de autoridade no VIAF contribui para a efetivação da Web Semântica de modo a proporcionar maior qualidade aos sistemas de busca e recuperação da informação? Para isso, foram definidos os objetivos: 1) descrever sobre os princípios, técnicas e padrões que proporcionam o controle de autoridade na catalogação; 2) analisar o controle de autoridade de nomes para pessoas, instituições e geográfico; 3) apresentar o VIAF, sua origem, as tecnologias envolvidas em sua estrutura e sua perspectiva de contribuição para a Web Semântica. A metodologia compreende um estudo qualitativo, de natureza aplicada, com objetivos exploratórios. Os resultados obtidos apresentam a abrangência internacional do VIAF e a caracterização sobre as tecnologias e a forma pela qual são estabelecidos os registros de autoridade no consórcio. Os registros de autoridade estabelecidos no VIAF compreendem a agregação de vocabulários de valor estabele... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: Authority control ensures consistency in information systems. Adopted in the cataloging, the theme received greater visibility from the automation of the catalogs, during the decade of 1980 with automation of catalogs. Since then emerged projects cooperation targeted to exchange and cooperation of authority data. The Virtual International Authority File (VIAF) is consortium of international cooperation between library and national agencies what provides authority file in the linking open data. This study was developed with intent to respond to research problem: how does the authority control in VIAF contributes to the effectiveness from the semantic web so provide higher quality to the search systems and information retrieval? For this were defined the objectives: 1) to describe about the principles, techniques and standards what provide authority control in cataloging; 2) to analyze authority control of names for people, institutions and geographical; 3) present the VIAF, your origin, the technologies involved in your structure and its perspective of contribution to the Semantic Web. The methodology comprises a qualitative study of an applied nature with exploratory objectives. The obtained results present the international scope of VIAF and characterization about the technologies and the way in which are established authority records in the consortium. The authority established the VIAF records comprise the vocabulary of aggregate value established by the main catalogers agencies in the world. What stands out to the importance relevance of the consortium to the international community. / Mestre
316

Everything you always wanted to know about blank nodes (but were afraid to ask)

Hogan, Aidan, Arenas, Macelo, Mallea, Alejandro, Polleres, Axel 06 May 2014 (has links) (PDF)
In this paper we thoroughly cover the issue of blank nodes, which have been defined in RDF as "existential variables". We first introduce the theoretical precedent for existential blank nodes from first order logic and incomplete Information in database theory. We then cover the different (and sometimes incompatible) treatment of blank nodes across the W3C stack of RDF-related standards. We present an empirical survey of the blank nodes present in a large sample of RDF data published on the Web (the BTC-2012 dataset), where we find that 25.7% of unique RDF terms are blank nodes, that 44.9% of documents and 66.2% of domains featured use of at least one blank node, and that aside from one Linked Data domain whose RDF data contains many "blank node cycles", the vast majority of blank nodes form tree structures that are efficient to compute simple entailment over. With respect to the RDF-merge of the full data, we show that 6.1% of blank-nodes are redundant under simple entailment. The vast majority of non-lean cases are isomorphisms resulting from multiple blank nodes with no discriminating information being given within an RDF document or documents being duplicated in multiple Web locations. Although simple entailment is NP-complete and leanness-checking is coNP-complete, in computing this latter result, we demonstrate that in practice, real-world RDF graphs are sufficiently "rich" in ground information for problematic cases to be avoided by non-naive algorithms.
317

Static analysis of semantic web queries with ShEx schema constraints / Analyse statique de requêtes au web sémantique avec des contraintes de schéma ShEx

Abbas, Abdullah 06 November 2017 (has links)
La disponibilité de gros volumes de données structurées selon le modèle Resource Description Framework (RDF) est en constante augmentation. Cette situation implique un intérêt scientifique et un besoin important de rechercher de nouvelles méthodes d’analyse et de compilation de requêtes pour tirer le meilleur parti de l’extraction de données RDF. SPARQL est le plus utilisé et le mieux supporté des langages de requêtes sur des données RDF. En parallèle des langages de requêtes, les langages de définition de schéma d’expression de contraintes sur des jeux de données RDF ont également évolués. Les Shape Expressions (ShEx) sont de plus en plus utilisées pour valider des données RDF et pour indiquer les motifs de graphes attendus. Les schémas sont importants pour les tâches d’analyse statique telles que l’optimisation ou l’injection de requêtes. Notre intention est d’examiner les moyens et méthodologies d’analyse statique et d’optimisation de requêtes associés à des contraintes de schéma.Notre contribution se divise en deux grandes parties. Dans la première, nous considérons le problème de l’injection de requêtes SPARQL en présence de contraintes ShEx. Nous proposons une procédure rigoureuse et complète pour le problème de l’injection de requêtes avec ShEx, en prenant en charge plusieurs fragments de SPARQL. Plus particulièrement, notre procédure gère les patterns de requêtes OPTIONAL, qui s’avèrent former un important fonctionnalité à étudier avec les schémas. Nous fournissons ensuite les limites de complexité de notre problème en considération des fragments gérés. Nous proposons également une méthode alternative pour l’injection de requêtes SPARQL avec ShEx. Celle-ci réduit le problème à une satisfiabilité de Logique de Premier Ordre, qui permet de considérer une extension du fragment SPARQL traité par la première méthode. Il s’agit de la première étude traitant l’injection de requêtes SPARQL en présence de contraintes ShEx.Dans la seconde partie de nos contributions, nous proposons une méthode d’analyse pour optimiser l’évaluation de requêtes SPARQL groupées, sur des graphes RDF, en tirant avantage des contraintes ShEx. Notre optimisation s’appuie sur le calcul et l’assignation de rangs aux triple patterns d’une requête, permettant de déterminer leur ordre d’exécution. La présence de jointures intermédiaires entre ces patterns est la raison pour laquelle l’ordonnancement est important pour gagner en efficicacité. Nous définissons un ensemble de schémas ShEx bien- formulés, qui possède d’intéressantes caractéristiques pour l’optimisation de requêtes SPARQL. Nous développons ensuite notre méthode d’optimisation par l’exploitation d’informations extraites d’un schéma ShEx. Enfin, nous rendons compte des résultats des évaluations effectuées, montrant les avantages de l’application de notre optimisation face à l’état de l’art des systèmes d’évaluation de requêtes. / Data structured in the Resource Description Framework (RDF) are increasingly available in large volumes. This leads to a major need and research interest in novel methods for query analysis and compilation for making the most of RDF data extraction. SPARQL is the widely used and well supported standard query language for RDF data. In parallel to query language evolutions, schema languages for expressing constraints on RDF datasets also evolve. Shape Expressions (ShEx) are increasingly used to validate RDF data, and to communicate expected graph patterns. Schemas in general are important for static analysis tasks such as query optimisation and containment. Our purpose is to investigate the means and methodologies for SPARQL query static analysis and optimisation in the presence of ShEx schema constraints.Our contribution is mainly divided into two parts. In the first part we consider the problem of SPARQL query containment in the presence of ShEx constraints. We propose a sound and complete procedure for the problem of containment with ShEx, considering several SPARQL fragments. Particularly our procedure considers OPTIONAL query patterns, that turns out to be an important feature to be studied with schemas. We provide complexity bounds for the containment problem with respect to the language fragments considered. We also propose alternative method for SPARQL query containment with ShEx by reduction into First Order Logic satisfiability, which allows for considering SPARQL fragment extension in comparison to the first method. This is the first work addressing SPARQL query containment in the presence of ShEx constraints.In the second part of our contribution we propose an analysis method to optimise the evaluation of conjunctive SPARQL queries, on RDF graphs, by taking advantage of ShEx constraints. The optimisation is based on computing and assigning ranks to query triple patterns, dictating their order of execution. The presence of intermediate joins between the query triple patterns is the reason why ordering is important in increasing efficiency. We define a set of well-formed ShEx schemas, that possess interesting characteristics for SPARQL query optimisation. We then develop our optimisation method by exploiting information extracted from a ShEx schema. We finally report on evaluation results performed showing the advantages of applying our optimisation on the top of an existing state-of-the-art query evaluation system.
318

Aperfeiçoamento de métricas de similaridade semântica entre serviços web / Enhancement of semanticweb services matchmaking metrics

Santos, Pedro Bispo da Silva January 2012 (has links)
O presente trabalho apresenta uma abordagem aperfeiçoada para medir similaridade entre Serviços Web Semânticos através de um algoritmo baseado em ontologia. O trabalho se trata de um aperfeiçoamento por pegar como base o algoritmo de Liu (LIU et al., 2009) e nele fazer uma pequena mudança que resulta em melhorias significativas em certos cenários. Este algoritmo utiliza informação das categorias ESPE (Entradas, Saídas, Pré-condições, Efeitos), procurando por informações presentes nessas categorias, analisando como os conceitos estão relacionados na taxonomia da ontologia. A escolha do trabalho de Liu ocorreu devido a experimentos realizados em trabalhos anteriores ao desta dissertação (MAAMAR et al., 2011)(MAAMAR et al., 2011). Nesses experimentos, foi constatado que o algoritmo não antigia um desempenho satisfatório, foi então que se levantou uma hipótese de aperfeiçoamento deste algoritmo. Experimentos realizados utilizando um conjunto de dados contendo 1083 Serviços Web Semânticos em OWL-S mostram que essa abordagem aperfeiçoada aumenta a precisão do algoritmo, diminuindo desta forma o número de falsos positivos recuperados nos resultados, mantendo uma boa revocação. Nestes experimentos, foram implementados o algoritmo original de Liu e a versão modificada apresentada nesta dissertação. Além disso, este trabalho apresenta quais parâmetros utilizar para configurar o algoritmo e atingir melhor precisão, revocação e f-measure. / The current work presents an improved approach for an ontology-based semantic web service matchmaking assessment algorithm. This work is based on Liu’s algorithm LIU et al. (2009) providing a small change which results in a significant enhancement at some scenarios. The algorithm uses information from IOPE (Inputs, Outputs, Preconditions, Effects) categories, searching for information about the concepts located in these categories, analyzing how they are related in an ontology taxonomy. Liu’s work was chosen due to experiments that were done in works previous to this dissertation (MAAMAR et al., 2011)(MAAMAR et al., 2011). During those experiments, it was realized that Liu’s algorithm did not achieve good results. Then, an hypothesis was raised for improving this algorithm. Experiments performed using a data set containing 1083 OWL-S semantic web services show that the improved approach increases the algorithm precision, diminishing the number of false positives in the retrieved results, and still having a good recall. For doing these experiments, Liu’s algorithm and this dissertation version of it were implemented. Furthermore, this work presents the parameters that were used to achieve better precision, recall and f-measure.
319

Integração de dados e processos disponíveis em portais web baseada em ontologias de domínio / Web portal data and processes integration based on domain ontologies

Mello, Marília Terra de January 2008 (has links)
A integração e a troca de informação na Web é uma necessidade reconhecida no mundo atual nos mais diversos domínios de aplicação. A Web constitui hoje o principal meio de acesso a informações, disponibilizando várias formas de acesso a esse conteúdo. No entanto, disponibilizar essa informação de forma integrada para o usuário ainda é um desafio. O Serviço Web Semântico é uma tecnologia de Inteligência Artificial promissora a qual pode contribuir significativamente com o processo de integração tanto de dados como de processos disponíveis em portais Web. O objetivo do presente trabalho é realizar a integração das diferentes funcionalidades oferecidas por portais disponibilizados na Web, fazendo uso de ontologias de domínio através de Serviços Web Semânticos. Para alcançar o objetivo proposto, um sistema de busca e integração, denominado W-KIS, foi projetado e desenvolvido, fornecendo uma visão unificada e transparente ao usuário de toda informação disponível em um determinado número de portais Web, contextualizados a um domínio de aplicação específico. Dois domínios de aplicação foram explorados neste trabalho através de dois estudos de caso: a Biomedicina e a Geologia, cada um fornecendo sua própria ontologia de domínio. Serviços Web Semânticos foram desenvolvidos para encapsular portais Web em ambos os domínios, permitindo ao sistema realizar a integração em cada domínio, separadamente. A aplicação proposta foi validada através da avaliação de sua atuação em ambos os domínios, além de testes com usuários finais e comparações com outras abordagens para integração na Web e motores de busca tradicionais. Através da utilização de Serviços Web Semânticos, W-KIS é capaz de localizar e executar os serviços de forma automática, além de lidar com a heterogeneidade semântica entre as fontes de informação por meio das ontologias de domínio. Desta forma, o sistema fornece apenas informação contextualizada ao interesse do usuário. / Integration and exchange of information across the Internet is a universally recognized need, in a wide variety of domains. Nowadays, the Web is the main source of information, providing many ways to access this content. However, making this information available to the user in an integrated way is still a challenge. New promising application fields such as Semantic Web Services can improve the integration process of data and processes available in Web portals. The goal of the present research is to accomplish the integration of the different functionalities offered by portals available in the Web, making use of domain ontologies through Semantic Web Services. In order to achieve the proposed goal, a search and integration system, named W-KIS, was designed and developed. The system provides the user with a unified and transparent view of the whole information available in a number of Web portals, related to a specific application domain. Two application domains were explored in this work through two case studies: the Biomedicine and the Geology, each one providing its own domain ontology. Semantic Web Services were designed to encapsulate Web portals in both domains, allowing the system to accomplish the integration in each domain, separately. The application proposed in this project was validated through the evaluation of its behavior in both domains, besides other tests with final users and comparisons with other approaches for integration in the Web, and traditional search engines. Making use of Semantic Web Services, W-KIS is able to find and execute the services in an automatic way, besides dealing with the semantic heterogeneity in the information sources by means of domain ontologies. This way, the system provides the user with information contextualized to its interest.
320

Uma abordagem para publicação de visões RDF de dados relacionais / One approach to publishing RDF views of relational data

Teixeira Neto, Luis Eufrasio January 2014 (has links)
TEIXEIRA NETO, Luis Eufrasio. Uma abordagem para publicação de visões RDF de dados relacionais. 2014. 97 f. Dissertação (Mestrado em ciência da computação)- Universidade Federal do Ceará, Fortaleza-CE, 2014. / Submitted by Elineudson Ribeiro (elineudsonr@gmail.com) on 2016-07-11T18:31:26Z No. of bitstreams: 1 2014_dis_leteixeiraneto.pdf: 2039098 bytes, checksum: 476ca3810a4d9341414016b0440023ba (MD5) / Approved for entry into archive by Rocilda Sales (rocilda@ufc.br) on 2016-07-20T11:55:57Z (GMT) No. of bitstreams: 1 2014_dis_leteixeiraneto.pdf: 2039098 bytes, checksum: 476ca3810a4d9341414016b0440023ba (MD5) / Made available in DSpace on 2016-07-20T11:55:57Z (GMT). No. of bitstreams: 1 2014_dis_leteixeiraneto.pdf: 2039098 bytes, checksum: 476ca3810a4d9341414016b0440023ba (MD5) Previous issue date: 2014 / The Linked Data initiative brought new opportunities for building the next generation of Web applications. However, the full potential of linked data depends on how easy it is to transform data stored in conventional, relational databases into RDF triples. Recently, the W3C RDB2RDF Working Group proposed a standard mapping language, called R2RML, to specify customized mappings between relational schemas and target RDF vocabularies. However, the generation of customized R2RML mappings is not an easy task. Thus, it is mandatory to define: (a) a solution that maps concepts from a relational schema to terms from a RDF schema; (b) a process to support the publication of relational data into RDF, and (c) a tool that implements this process. Correspondence assertions are proposed to formalize the mappings between relational schemas and RDF schemas. Views are created to publish data from a database to a new structure or schema. The definition of RDF views over relational data allows providing this data in terms of an OWL ontology structure without having to change the database schema. In this work, we propose a three-tier architecture – database, SQL views and RDF views – where the SQL views layer maps the database concepts into RDF terms. The creation of this intermediate layer facilitates the generation of R2RML mappings and prevents that changes in the data layer result in changes on R2RML mappings. Additionally, we define a three-step process to generate the RDF views of relational data. First, the user defines the schema of the relational database and the target OWL ontology. Then, he defines correspondence assertions that formally specify the relational database in terms of the target ontology. Using these assertions, an exported ontology is generated automatically. The second step produces the SQL views that perform the mapping defined by the assertions and a R2RML mapping between these views and the exported ontology. This dissertation describes a formalization of the correspondence assertions, the three-tier architecture, the publishing process steps, the algorithms needed, a tool that supports the entire process and a case study to validate the results obtained. / A iniciativa Linked Data trouxe novas oportunidades para a construção da nova geração de aplicações Web. Entretanto, a utilização das melhores práticas estabelecidas por este padrão depende de mecanismos que facilitem a transformação dos dados armazenados em bancos relacionais em triplas RDF. Recentemente, o grupo de trabalho W3C RDB2RDF propôs uma linguagem de mapeamento padrão, denominada R2RML, para especificar mapeamentos customizados entre esquemas relacionais e vocabulários RDF. No entanto, a geração de mapeamentos R2RML não é uma tarefa fácil. É imperativo, então, definir: (a) uma solução para mapear os conceitos de um esquema relacional em termos de um esquema RDF; (b) um processo que suporte a publicação dos dados relacionais no formato RDF; e (c) uma ferramenta para facilitar a aplicação deste processo. Assertivas de correspondência são propostas para formalizar mapeamentos entre esquemas relacionais e esquemas RDF. Visões são usadas para publicar dados de uma base de dados em uma nova estrutura ou esquema. A definição de visões RDF sobre dados relacionais permite que esses dados possam ser disponibilizados em uma estrutura de termos de uma ontologia OWL, sem que seja necessário alterar o esquema da base de dados. Neste trabalho, propomos uma arquitetura em três camadas – de dados, de visões SQL e de visões RDF – onde a camada de visões SQL mapeia os conceitos da camada de dados nos termos da camada de visões RDF. A criação desta camada intermediária de visões facilita a geração dos mapeamentos R2RML e evita que alterações na camada de dados impliquem em alterações destes mapeamentos. Adicionalmente, definimos um processo em três etapas para geração das visões RDF. Na primeira etapa, o usuário define o esquema do banco de dados relacional e a ontologia OWL alvo e cria assertivas de correspondência que mapeiam os conceitos do esquema relacional nos termos da ontologia alvo. A partir destas assertivas, uma ontologia exportada é gerada automaticamente. O segundo passo produz um esquema de visões SQL gerado a partir da ontologia exportada e um mapeamento R2RML do esquema de visões para a ontologia exportada, de forma automatizada. Por fim, no terceiro passo, as visões RDF são publicadas em um SPARQL endpoint. Neste trabalho são detalhados as assertivas de correspondência, a arquitetura, o processo, os algoritmos necessários, uma ferramenta que suporta o processo e um estudo de caso para validação dos resultados obtidos.

Page generated in 0.1052 seconds