1 |
[en] PROVENANCE CONCEPTUAL MODELS / [pt] MODELOS CONCEITUAIS PARA PROVENIÊNCIAANDRE LUIZ ALMEIDA MARINS 07 July 2008 (has links)
[pt] Sistemas de informação, desenvolvidos para diversos setores econômicos, necessitam com maior freqüência capacidade de rastreabilidade dos dados. Para habilitar tal capacidade, é necessário modelar a proveniência dos dados. Proveniência permite testar conformidade com a legislação, repetição de experimentos, controle de qualidade, entre outros. Habilita também a identificação de agentes (pessoas, organizações ou agentes de software) e pode ser utilizada para estabelecer níveis de confiança para as transformações dos dados. Esta dissertação propõe um modelo genérico de proveniência criado com base no alinhamento de recortes de ontologias de alto nível, padrões internacionais e propostas de padrões que tratam direta ou indiretamente de conceitos relacionados à proveniência. As contribuições da dissertação são portanto em duas direções: um modelo conceitual para proveniência - bem fundamentado - e a aplicação da estratégia de projeto conceitual baseada em alinhamento de ontologias. / [en] Information systems, developed for several economic
segments,
increasingly demand data traceability functionality. To
endow information
systems with such capacity, we depend on data provenance
modeling.
Provenance enables legal compliance, experiment validation,
and quality control,
among others . Provenance also helps identifying
participants (determinants or
immanents) like people, organizations, software agents
among others, as well as
their association with activities, events or processes. It
can also be used to
establish levels of trust for data transformations. This
dissertation proposes a
generic conceptual model for provenance, designed by
aligning fragments of
upper ontologies, international standards and broadly
recognized projects. The
contributions are in two directions: a provenance
conceptual model - extensively
documented - that facilitates interoperability and the
application of a design
methodology based on ontology alignment.
|
2 |
[en] A SINGLE GOAL HEURISTIC APPROACH TO SOLVE TUNING IN ONTOLOGY META-MATCHING / [pt] UMA ABORDAGEM HEURÍSTICA UNI-OBJETIVO PARA CALIBRAGEM EM META-ALINHADORES DE ONTOLOGIASJAIRO FRANCISCO DE SOUZA 23 July 2012 (has links)
[pt] Ontologias são vistas como uma solução para o problema de interoperabilidade em muitas aplicações como integração de banco de dados, comércio eletrônico, serviços web e redes sociais. Contudo, ao utilizar diferentes ontologias, persiste o problema de incompatibilidade semântica entre os modelos. Dentre os desafios para o campo de alinhamento de ontologia, está a seleção de alinhadores e a auto-configuração desses alinhadores . Este trabalho tem por objetivo tratar o problema de meta-alinhamento de ontologias utilizando métodos heurísticos para calibragem de alinhadores escolhidos sem detrimento do desempenho do sistema. Para avaliar esta proposta em comparação a outras propostas da literatura, optou-se por utilizar um benchmark para alinhamentos de ontologias amplamente utilizado por pesquisadores desse campo. A comparação entre as propostas é realizada com base em medidas de qualidade de alinhamentos sugeridas pelo benchmark. Além da avaliação quantitativa proposta pelo benchmark, é realizada uma comparação qualitativa em relação às características desejáveis de meta-alinhadores propostas na literatura. / [en] Ontologies are seen as a solution for many applications such as database integration, e-commerce, web services and social networks. However, the use of distinet ontologies does not solve the semantic interoperability problem among modls. Matcher selection and self-configuring are challenges from the ontology matching field. This work aims to treat the ontology metamatching problem using heuristic methods to fast tune a set of matchers. To evalutate this proporsal, a well-known benchark for ontology matching is used. The comparison among meta-matching approaches includes the benchmark evaluation metries and qualitative metries for meta-matching proposed in the literature.
|
3 |
[en] STDTRIP: AN A PRIORI DESIGN PROCESS FOR PUBLISHING LINKED DATA / [pt] STDTRIP: UM PROCESSO DE PROJETO A PRIORI PARA PUBLICAÇÃO DE LINKED DATAPERCY ENRIQUE RIVERA SALAS 30 January 2017 (has links)
[pt] A abordagem de Dados Abertos tem como objetivo promover a interoperabilidade de dados na Web. Consiste na publicação de informações em formatos que permitam seu compartilhamento, descoberta, manipulação e acesso por parte de usuários e outros aplicativos de software. Essa abordagem requer a triplificação de conjuntos de dados, ou seja, a conversão do esquema de bases de dados relacionais, bem como suas instâncias, em triplas RDF. Uma questão fundamental neste processo é decidir a forma de representar conceitos de esquema de banco de dados em termos de classes e propriedades RDF. Isto é realizado através do mapeamento das entidades e relacionamentos para um ou mais vocabulários RDF, usados como base para a geração das triplas. A construção destes vocabulários é extremamente importante, porque quanto mais padrões são utilizados, melhor o grau de interoperabilidade com outros conjuntos de dados. No entanto, as ferramentas disponíveis atualmente não oferecem suporte adequado ao reuso de vocabulários RDF padrão no processo de triplificação. Neste trabalho, apresentamos o processo StdTrip, que guia usuários no processo de triplificação, promovendo o reuso de vocabulários de forma a assegurar interoperabilidade dentro do espaço da Linked Open Data (LOD). / [en] Open Data is a new approach to promote interoperability of data in the Web. It consists in the publication of information produced, archived and distributed by organizations in formats that allow it to be shared, discovered, accessed and easily manipulated by third party consumers. This approach requires the triplification of datasets, i.e., the conversion of database schemata and their instances to a set of RDF triples. A key issue in this process is deciding how to represent database schema concepts in terms of RDF classes and properties. This is done by mapping database concepts to an RDF vocabulary, used as the base for generating the triples. The construction of this vocabulary is extremely important, because the more standards are reused, the easier it will be to interlink the result to other existing datasets. However, tools available today do not support reuse of standard vocabularies in the triplification process, but rather create new vocabularies. In this thesis, we present the StdTrip process that guides users in the triplification process, while promoting the reuse of standard, RDF vocabularies.
|
4 |
[en] TOWARDS A WELL-INTERLINKED WEB THROUGH MATCHING AND INTERLINKING APPROACHES / [pt] INTERLIGANDO RECURSOS NA WEB ATRAVÉS DE ABORDAGENS DE MATCHING E INTERLINKINGBERNARDO PEREIRA NUNES 07 January 2016 (has links)
[pt] Com o surgimento da Linked (Open) Data, uma série de novos e importantes
desafios de pesquisa vieram à tona. A abertura de dados, como muitas vezes a
Linked Data é conhecida, oferece uma oportunidade para integrar e conectar, de
forma homogênea, fontes de dados heterogêneas na Web. Como diferentes fontes
de dados, com recursos em comum ou relacionados, são publicados por diferentes
editores, a sua integração e consolidação torna-se um verdadeiro desafio. Outro
desafio advindo da Linked Data está na criação de um grafo denso de dados na
Web. Com isso, a identificação e interligação, não só de recursos idênticos, mas
também dos recursos relacionadas na Web, provê ao consumidor (data consumer)
uma representação mais rica dos dados e a possibilidade de exploração dos recursos
conectados. Nesta tese, apresentamos três abordagens para enfrentar os problemas
de integração, consolidação e interligação de dados. Nossa primeira abordagem
combina técnicas de informação mútua e programação genética para solucionar o
problema de alinhamento complexo entre fontes de dados, um problema raramente
abordado na literatura. Na segunda e terceira abordagens, adotamos e ampliamos
uma métrica utilizada em teoria de redes sociais para enfrentar o problema de
consolidação e interligação de dados. Além disso, apresentamos um aplicativo Web
chamado Cite4Me que fornece uma nova perspectiva sobre a pesquisa e recuperação
de conjuntos de Linked Open Data, bem como os benefícios da utilização de nossas
abordagens. Por fim, uma série de experimentos utilizando conjuntos de dados reais
demonstram que as nossas abordagens superam abordagens consideradas como
estado da arte. / [en] With the emergence of Linked (Open) Data, a number of novel and notable
research challenges have been raised. The openness that often characterises Linked
Data offers an opportunity to homogeneously integrate and connect heterogeneous
data sources on the Web. As disparate data sources with overlapping or related resources
are provided by different data publishers, their integration and consolidation
becomes a real challenge. An additional challenge of Linked Data lies in the creation
of a well-interlinked graph of Web data. Identifying and linking not only identical
Web resources, but also lateral Web resources, provides the data consumer with
richer representation of the data and the possibility of exploiting connected resources.
In this thesis, we present three approaches that tackle data integration, consolidation
and linkage problems. Our first approach combines mutual information and genetic
programming techniques for complex datatype property matching, a rarely addressed
problem in the literature. In the second and third approaches, we adopt and extend a
measure from social network theory to address data consolidation and interlinking.
Furthermore, we present a Web-based application named Cite4Me that provides
a new perspective on search and retrieval of Linked Open Data sets, as well as
the benefits of using our approaches. Finally, we validate our approaches through
extensive evaluations using real-world datasets, reporting results that outperform
state of the art approaches.
|
Page generated in 0.0347 seconds