Spelling suggestions: "subject:"eeb semantic"" "subject:"eeb semantically""
41 |
[en] IMPROVING THE QUALITY OF THE USER EXPERIENCE BY QUERY ANSWER MODIFICATION / [pt] MELHORANDO A QUALIDADE DA EXPERIÊNCIA DO USUÁRIO ATRAVÉS DA MODIFICAÇÃO DA RESPOSTA DA CONSULTAJOAO PEDRO VALLADAO PINHEIRO 30 June 2021 (has links)
[pt] A resposta de uma consulta, submetida a um banco de dados ou base de
conhecimento, geralmente é longa e pode conter dados redundantes. O usuário
é frequentemente forçado a navegar por uma longa resposta, ou refinar e repetir
a consulta até que a resposta atinja um tamanho gerenciável. Sem o tratamento
adequado, consumir a resposta da consulta pode se tornar uma tarefa tediosa.
Este estudo, então, propõe um processo que modifica a apresentação da
resposta da consulta para melhorar a qualidade de experiência do usuário, no
contexto de uma base de conhecimento RDF. O processo reorganiza a resposta
da consulta original aplicando heurísticas para comprimir os resultados. A
consulta SPARQL original é modificada e uma exploração sobre o conjunto
de resultados começa através de uma navegação guiada sobre predicados e
suas facetas. O artigo também inclui experimentos baseados em versões RDF
do MusicBrainz, enriquecido com dados do DBpedia, e IMDb, cada um com
mais de 200 milhões de triplas RDF. Os experimentos utilizam exemplos de
consultas de benchmarks conhecidos. / [en] The answer of a query, submitted to a database or a knowledge base, is often long and may contain redundant data. The user is frequently forced to browse thru a long answer, or to refine and repeat the query until the answer reaches a manageable size. Without proper treatment, consuming the query
answer may indeed become a tedious task. This study then proposes a process that modifies the presentation of a query answer to improve the quality of the user s experience, in the context of an RDF knowledge base. The process reorganizes the original query answer by applying heuristics to summarize the results. The original SPARQL query is modified and an exploration over the result set starts thru a guided navigation over predicates and its facets. The article also includes experiments based on RDF versions of MusicBrainz,
enriched with DBpedia data, and IMDb, each with over 200 million RDF triples. The experiments use sample queries from well-known benchmarks.
|
42 |
[en] W-RAY: AN APPROACH TO THE DEEP WEB DATA PUBLICATION / [pt] W-RAY: UMA ABORDAGEM PARA PUBLICAÇÃO DE DADOS DA DEEP WEBHELENA SERRAO PICCININI 29 September 2014 (has links)
[pt] Deep Web é composta por dados armazenados em bases de dados, páginas dinâmicas, páginas com scripts e dados multimídia, dentre outros tipos de objetos. Os bancos de dados da Deep Web são geralmente sub-representados pelos motores de busca, devido aos desafios técnicos de localizar, acessar e indexar seus dados. A utilização de hyperlinks pelos motores de busca não é suficente para alcançar todos os dados da Deep Web, exigindo interação com interfaces de consultas complexas. Esta tese apresenta uma abordagem, denominada W-Ray, capaz de fornecer visibilidade aos dados da Deep Web. A abordagem baseia-se na descrição dos dados relevantes através de sentenças bem estruturadas, e na publicação dessas sentenças em páginas estáticas da Web. As sentenças podem ser geradas com RDFa embutido, mantendo a semântica do banco de dados. As páginas da Web assim geradas são passíveis de ser indexadas pelos motores de coleta de dados tradicionais e por motores mais sofisticados que suportam busca semântica. É apresentada também uma ferramenta que apóia a abordagem W-Ray. A abordagem foi implementada com sucesso para diferentes bancos de dados reais. / [en] The Deep Web comprises data stored in databases, dynamic pages, scripted pages and multimedia data, among other types of objects. The databases of the Deep Web are generally underrepresented by the search engines due to the technical challenges of locating, accessing and indexing them. The use of hyperlinks by search engines is not sufficient to achieve all the Deep Web data, requiring interaction with complex queries interfaces. This thesis presents an approach, called W-Ray, that provides visibility to Deep Web data. The approach relies on describing the relevant data through well-structured sentences, and on publishing the sentences as static Web pages. The sentences can be generated with embedded RDFa, keeping the semantics of the database. The Web pages thus generated are indexed by traditional Web crawlers and sophisticated crawlers that support semantic search. It is also presented a tool that supports the W-Ray approach. The approach has been successfully implemented for some real databases.
|
43 |
AGUIA: um gerador semântico de interface gráfica do usuário para ensaios clínicos / AGUIA: a generator semantics for graphical user interface for clinical trialsCorrêa, Miriã da Silveira Coelho 04 March 2010 (has links)
Made available in DSpace on 2015-03-04T18:50:20Z (GMT). No. of bitstreams: 1
Dissertacao_MiriaSCC.pdf: 3267159 bytes, checksum: f201a630eab8fd18b0da112537958c44 (MD5)
Previous issue date: 2010-03-04 / Coordenacao de Aperfeicoamento de Pessoal de Nivel Superior / AGUIA is a web application front-end originally developed to manage clinical, demographic and biomolecular patient data collected during gastrointestinal clinical trials at MD Anderson Cancer Center. The diversity of methodologies involved in patient screening and sample processing, brings corresponding heterogeneity of data types. Thus, this data must be based on a Resource Oriented Architecture that transforms heterogeneous data in semantic data, most specifically in RDF (Resource Description Framework). The database chosen was a S3DB, because it met the necessary requirements of transforming heterogeneous data from different sources in RDF, explicitly distinguishing the description of the domain from its instantiation, while allowing for continuous editing of both. Furthermore, it uses a REST protocol, and is open source and in the public domain which facilitates development and dissemination. Nevertheless, comprehensive and flexible a semantic web format may be, it does not by itself address the issue of representing content in a form that makes sense for domain experts. Accordingly, the goal of the work described here was to identify an additional set of descriptors that provide specifications for the graphic user interface. That goal was pursued by identifying a formalism that makes use of the RDF schema to enable automatic assembly of graphic user interfaces in a meaningful manner. A generalized RDF model was therefore defined such that changes in the graphic descriptors are automatically and immediately reflected into the configuration of the client web browser interface application, which is also made available with this report. Although the design patterns identified reflect, and benefit, from the specific requirements of interacting with data generated by clinical trials, the expectation is that they contain clues for a general purpose solution. In particular, it is suggested that the most useful patterns identified by the users of this system are susceptible to being reusable for other data sources, or at least for other clinical trial semantic web data stores. / AGUIA é uma aplicação web front-end, desenvolvida para gerenciar dados clínicos, demográficos e biomoleculares de pacientes coletados durante os ensaios clínicos gastrointestinais no MD Anderson Cancer Center. A diversidade de metodologias envolvidas na triagem de pacientes e no processamento da amostra traz uma heterogeneidade dos tipos de dados correspondentes. Sendo assim, estes devem ser baseados em uma arquitetura orientada a recurso que transforma dados heterogêneos em dados semânticos, mais especificamente em RDF (Resource Description Framework - Estrutura para a descrição de recursos). O banco de dados escolhido foi o S3DB, por este ter cumprido os requisitos necessários de transformação dos dados heterogêneos de diferentes fontes em RDF, distinguindo explicitamente a descrição do domínio e sua instanciação, permitindo simultaneamente a contínua edição de ambos. Além disso, ele usa um protocolo REST, e é de código aberto e domínio público o que facilita o desenvolvimento e divulgação. Contudo, por mais abrangente e flexível, um formato de web semântica pode por si só, não abordar a questão de representar o conteúdo de uma forma que faça sentido para especialistas do domínio. Assim, o objetivo do trabalho aqui descrito foi identificar um conjunto adicional de descritores que forneceu as especificações para a interface gráfica do usuário. Esse objetivo foi perseguido através da identificação de um formalismo que faz uso do esquema RDF para permitir a montagem automática de interfaces gráficas de uma forma significativa. Um modelo RDF generalizado foi, portanto, definido de tal forma que as mudanças nos descritores gráficos sejam automaticamente e imediatamente refletidas na configuração da aplicação web do cliente, que também está disponível neste trabalho. Embora os padrões de design identificados reflitam e beneficiem os requisitos específicos de interagir com os dados gerados pelos ensaios clínicos, a expectativa é que eles contenham pistas para uma solução de propósito geral. Em particular, sugere-se que os padrões mais úteis identificados pelos utilizadores deste sistema sejam suscetíveis de serem reutilizáveis para outras fontes de dados, ou pelo menos para outros bancos de dados semânticos de ensaios clínicos.
|
44 |
Percepção e produção de sentido no ciberespaço: influência de elementos infográficos em decisões de acesso na WebLima, Paulo Alves de 08 March 2010 (has links)
Made available in DSpace on 2016-04-26T18:18:31Z (GMT). No. of bitstreams: 1
Paulo Alves de Lima.pdf: 91765055 bytes, checksum: 8c46ce0bc23b5f4635e078ef4a6fe5da (MD5)
Previous issue date: 2010-03-08 / Considering the current dissemination stage of the world wide web and the historical
social repercussion which such presence evokes, this Master Thesis intents to provide
subsidies to webdesign activity, developing knowledges that contribute to the process of
infographics elements manipulation in the web interfaces construction.
The study corpus, Brazilian websites graphical interfaces, required for its analysis,
quali-quantitative empirical research that enables, through aesthetic dissection, the
identification of the existence of dominating visual patterns in Brazilian websites interfaces.
The results of this stage reference the elaboration of representative models, which in the
following step passed by a test process and validation with the users.
The successful achievement of these objectives made it possible to solve one of the
major problems related to the research object, the assembly of an interface model capable of
tracing and computing path of user access, identifying separately how the infographics
elements of the screen are related to each other, in the reception context, to the surfer decision
for the click-through.
This road bared the existence evidences of aesthetic phenomenal in the research
context, fact theoretically addressed through style viewpoint, which resulted in proposing a
new approach to the webdesign, capable of bringing closer the cyberculture theoretical views
and the empirical results produced nowadays.
The theoretical framework of the dissertation is based on three great quadrants. In the
first one is located the comprehension, in the applied social science context, of the historical
social movie set where the cyberculture and its typical technologically mediated
communication processes are inserted. On this stage, the references are Zygmunt Bauman,
Paul Virilio, Neil Postman, Asa Briggs and Peter Burke. In a second moment, the computer
graphic interfaces genesis is treated with their semantic machines and graphical metaphors;
here the text dialog extends to propositions of Steven Johnson, Oliver Sacks, Philippe Breton
and Walter Benjamin. Finally, follows a reflection about the webdesign and its conceptualaesthetic
issues under the historical view of style and here the references are Adrian Frutiger,
Josef Albers, Allen Hurkburt, Donis Dondis, Charles Peirce, Eugênio Trivinho e Lucia
Santaella / Considerando o atual estágio de disseminação da grande rede mundial de computadores
e a repercussão social-histórica que tal presença evoca, esta Dissertação de Mestrado pretende
oferecer subsídios à atividade de webdesign, desenvolvendo conhecimentos que contribuam
para o processo de manipulação dos elementos infográficos na construção de interfaces Web.
O corpus do estudo, as interfaces gráficas dos websites brasileiros, exigiu, para a sua
análise, pesquisa empírica qualiquantitativa que possibilitasse, através de dissecação estética,
identificar a existência de padrões visuais dominantes nas interfaces de websites brasileiros.
Os resultados dessa etapa referenciaram a elaboração de modelos representativos, que em
etapa seguinte passaram por processo de teste e validação junto a usuários.
O cumprimento exitoso desses objetivos tornou possível solucionar um dos principais
problemas relativos ao objeto da pesquisa, a montagem de uma interface-modelo capaz de
rastrear e computar trajetórias de acesso de usuários, identificando isoladamente como os
elementos infográficos da tela se relacionam, no contexto da recepção, à decisão do internauta
pelo click-through.
Esse percurso desnudou evidências da existência de fenômenos estéticos no contexto
da pesquisa, fato abordado teoricamente sob a ótica do estilo, e que resultaram em proposição
de uma nova abordagem para o webdesign, capaz de aproximar as visagens teóricas da
cibercultura dos resultados empíricos produzidos no cotidiano.
O quadro teórico da pesquisa é composto por três grandes quadrantes. No primeiro,
situa-se o entendimento, no contexto das ciências sociais aplicadas, do cenário socialhistórico
em que a cibercultura e seus típicos processos comunicativos tecnologicamente
mediados se inserem. Nesse âmbito, figuram, como referências Zygmunt Bauman, Paul
Virilio, Neil Postman, Asa Briggs e Peter Burke. Num segundo momento, é tratada a gênese
das interfaces computacionais gráficas e suas metáforas, no qual a abordagem é norteada por
Steven Johnson, Oliver Sacks, Philippe Breton e Walter Benjamin. Por fim, segue-se uma
reflexão sobre o webdesign e suas questões estético-conceituais sob a ótica histórica do estilo
e aqui as referências são Adrian Frutiger, Josef Albers, Allen Hurlburt, Donis Dondis, Charles
Peirce, Eugênio Trivinho e Lucia Santaella
|
45 |
[en] DCD TOOL: A TOOLKIT FOR THE DISCOVERY AND TRIPLIFICATION OF STATISTICAL DATA CUBES / [pt] DCD TOOL: UM CONJUNTO DE FERRAMENTAS PARA DESCOBERTA E TRIPLIFICAÇÃO DE CUBOS DE DADOS ESTATÍSTICOSSERGIO RICARDO BATULI MAYNOLDI ORTIGA 07 July 2015 (has links)
[pt] A produção de indicadores sociais e sua disponibilização na Web é uma importante iniciativa de democratização e transparência que os governos em todo mundo vêm realizando nas últimas duas décadas. No Brasil diversas instituições governamentais ou ligadas ao governo publicam indicadores relevantes para acompanhamento do desempenho do governo nas áreas de saúde, educação, meio ambiente entre outras. O acesso, a consulta e a correlação destes dados demanda grande esforço, principalmente, em um cenário que envolve diferentes organizações. Assim, o desenvolvimento de ferramentas com foco na integração e disponibilização das informações de tais bases, torna-se um esforço relevante. Outro aspecto que se destaca no caso particular do Brasil é a dificuldade em se identificar dados estatísticos dentre outros tipos de dados armazenados no mesmo banco de dados. Esta dissertação propõe um arcabouço de software que cobre a identificação das bases de dados estatísticas no banco de dados de origem e o enriquecimento de seus metadados utilizando ontologias padronizadas pelo W3C, como base para o processo de triplificação. / [en] The production of social indicators and their availability on the Web is an important initiative for the democratization and transparency that governments have been doing in the last two decades. In Brazil, several government or government-linked institutions publish relevant indicators to help assess the government performance in the areas of health, education, environment and others. The access, query and correlation of these data demand substantial effort, especially in a scenario involving different organizations. Thus, the development of tools, with a focus on the integration and availability of information stored in such bases, becomes a significant effort. Another aspect that requires attention, in the case of Brazil, is the difficulty in identifying statistical databases among others type of data that share the same database. This dissertation proposes a software framework which covers the identification of statistical data in the database of origin and the enrichment of their metadata using W3C standardized ontologies, as a basis for the triplification process.
|
46 |
[en] SEMANTIC WEB INTEROPERABILITY: ONE STRATEGY FOR THE TAXONOMIC ONTOLOGY ALIGNMENT / [pt] INTEROPERABILIDADE SEMÂNTICA NA WEB: UMA ESTRATÉGIA PARA O ALINHAMENTO TAXONÔMICO DE ONTOLOGIASCAROLINA HOWARD FELICISSIMO 07 January 2005 (has links)
[pt] Com a evolução da Web atual para a Web Semântica, acredita-
se que as informações disponíveis estarão estruturadas de
forma a permitir o processamento automático de seu conteúdo
por máquinas. Além do processamento individual, deseja-se
uma melhor troca de informações entre aplicações Web. Para
estes propósitos, são necessários mecanismos que garantam a
interoperabilidade semântica, i.e., identificação e
compatibilidade de informações. Neste sentido, ontologias
são utilizadas como um recurso para disponibilizar um
vocabulário estruturado e livre de ambigüidades. Ontologias
fornecem um padrão bem definido para a estruturação da
informação e promovem um formalismo passível de
processamento automático. Neste trabalho, propomos uma
estratégia para interoperabilidade de ontologias. O
Componente para Alinhamento Taxonômico de Ontologias -
CATO, resultado da implementação desta estratégia proposta,
alinha automaticamente as taxonomias de ontologias
comparadas. O alinhamento realizado é obtido em três etapas
executadas seqüencialmente. A primeira etapa compara
lexicalmente os conceitos das ontologias entradas e usa um
mecanismo de poda estrutural dos conceitos associados como
condição de parada. A segunda etapa compara estruturalmente
as hierarquias das ontologias identificando as
similaridades entre suas sub-árvores comuns. A terceira
etapa refina os resultados da etapa anterior classificando
os conceitos identificados como similares em bem similares
ou pouco similares, de acordo com um percentual de
similaridade prédefinido. / [en] With the Web evolving towards a Semantic Web, it is
believed that the available information will be presented
in a meaningful way to allow machines to automatically
process its content. Besides the individual processing, a
better information exchange among Web applications is
desired. For this purpose, mechanisms are called for
guarantee the semantic interoperability, that is, the
identification and compatibility of information. In this
direction, ontologies are used as one resource to make
available a structured vocabulary, free of ambiguities.
Ontologies provide a well-defined standard to structure the
information and to promote formalism for automatic
processing. In this work, we propose one strategy for
ontology interoperability. The Ontology Taxonomic Alignment
Component - CATO, which is the result of the implementation
of this proposed strategy, provides an automatic taxonomic
ontologies alignment. In this way, the alignment is
obtained by a three-step process. The first step is the
lexical comparison between the concepts from the entries
ontologies. It uses a trimming mechanism of the related
associated concepts as a stop condition. The second step
is the structural comparison of the ontologies structures
used to identify the similarities between common sub-trees.
The third step refines the results of the previous step,
classifying the similar identified concepts as very similar
or little similar, according to a pre-defined similarity
measurement.
|
47 |
[en] A QUESTION-ANSWERING CONVERSATIONAL AGENT WITH RECOMMENDATIONS BASED ON A DOMAIN ONTOLOGY / [pt] UM AGENTE CONVERSACIONAL PERGUNTA-RESPOSTA COM RECOMENDAÇÕES BASEADAS EM UMA ONTOLOGIA DE DOMÍNIOJESSICA PALOMA SOUSA CARDOSO 05 November 2020 (has links)
[pt] A oferta de serviços por meio de interfaces conversacionais, ou chatbots, tem se tornado cada vez mais popular, com aplicações que variam de aplicativos de bancos e reserva de bilheteria a consultas em um banco de dados. No entanto, dado a quantidade massiva de dados disponível em alguns domínios,
o usuário pode ter dificuldade em formular as consultas e recuperar as informações desejadas. Esta dissertação tem como objetivo investigar e avaliar o uso de recomendações na busca de informações numa base de dados de filmes através de chatbots. Neste trabalho, implementamos um chatbot por meio do
uso de frameworks e técnicas da área de processamento de linguagem natural (NLP - Natural Language Processing). Para o reconhecimento de entidades e intenções, utilizamos o framework RASA NLU. Para a identificação das relações entre essas entidades, utilizamos as redes Transformers. Além disso, propomos diferentes estratégias para recomendações feitas a partir da ontologia de domínio. Para avaliação deste trabalho, conduzimos um estudo com usuários para avaliar o impacto das recomendações no uso do chatbot e aceitação da tecnologia por meio de um questionário baseado no Technology Acceptance
Model (TAM). Por fim, discutimos os resultados do estudo, suas limitações e oportunidades de futuras melhorias. / [en] The offer of services provided through conversational interfaces, or chatbots, has become increasingly popular, with applications that range from bank applications and ticket booking to database queries. However, given the massive amount of data available in some domains, the user may find it difficult
to formulate queries and retrieve the desired information. This dissertation investigates and evaluates the use of the recommendations in the search for information on a movie database through a chatbot. In this work, we implement a chatbot with the use of frameworks and techniques from the area of natural language processing (NLP). For the recognition of entities and intents, we use the RASA NLU framework. For the identification of relations between those entities, we use the Transformers networks. In addition, we propose different strategies for the recommendation from the domain ontology. To evaluate this
work, we have conducted an empirical study with volunteer users to assess the impact of the recommendations on chatbot use and the acceptance of the technology through a survey based on the Technology Acceptance Model (TAM). Lastly, we discuss the results of this study, its limitations, and avenues for future improvements.
|
48 |
Especificación OWL de una ontología para teleeducación en WEB semánticaRomero Llop, Roberto 06 May 2008 (has links)
Debido al gran desarrollo de la World Wide Web, tanto en cantidad de contenidos y nodos como en velocidades de acceso, aparecen por parte de la comunidad científico-técnica propuestas de utilización de la misma con objetivos más ambiciosos que la mera descarga de ficheros para ser presentados al usuario. Con esa finalidad se desarrolla la Web Semántica, sistema que pretende introducir información entendible por Agentes Inteligentes, permitiendo de este modo que estos Agentes puedan aumentar sus bases de conocimiento y realizar inferencias que faciliten procesos realizados actualmente de forma manual por los usuarios. De esta forma surgen los lenguajes ontológicos para la web, y en concreto el lenguaje recomendado por la World Wide Web Consortium (W3C) denominado Web Ontology Language (OWL), así como razonadores relacionados como FACT++, Racer y Pellet.
Además, con el objetivo de aprovechar el potencial de la web, se han ido generando gran cantidad de contenidos educativos, que debido a los altos costes de producción generan una necesidad de potenciar la reutilización de dichos contenidos. Aparece en este caso el concepto de objeto educativo, que es susceptible de ser reaprovechado para otras experiencias de aprendizaje, con alguna modificación o sin modificación alguna, generando la denominada interoperabilidad de objetos educativos.
El presente trabajo pretende potenciar esta interoperabilidad de objetos educativos. Para ello se especifica una ontología completa para teleeducación, basada en la lógica descriptiva y desarrollada en el lenguaje OWL, para que pueda ser utilizada por medio de la Web Semántica. Se estudian, desarrollan e implementan dentro de esta ontología conceptos relacionados con la interacción de los distintos agentes que intervienen en una experiencia de aprendizaje a través de la web.
La ontología presentada va además acompañada de una especificación de arquitectura de pares o Peer to Peer (P2P) basada en las arquitecturas de tablas de búsqueda distribuidas (DHTs), que denominaremos DHT Semántica. La DHT Semántica está diseñada para permitir la explotación por parte de Agentes Inteligentes de la ontología especificada, con una alta tolerancia a fallos en nodos de la arquitectura. Estos Agentes asisten en la búsqueda de objetos educativos más allá de la búsqueda por palabras claves. Finalmente, tanto la ontología como la arquitectura se validan utilizando un conjunto de experiencias educativas on-line reales. / Romero Llop, R. (2007). Especificación OWL de una ontología para teleeducación en WEB semántica [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/1828
|
49 |
[en] TOWARDS A WELL-INTERLINKED WEB THROUGH MATCHING AND INTERLINKING APPROACHES / [pt] INTERLIGANDO RECURSOS NA WEB ATRAVÉS DE ABORDAGENS DE MATCHING E INTERLINKINGBERNARDO PEREIRA NUNES 07 January 2016 (has links)
[pt] Com o surgimento da Linked (Open) Data, uma série de novos e importantes
desafios de pesquisa vieram à tona. A abertura de dados, como muitas vezes a
Linked Data é conhecida, oferece uma oportunidade para integrar e conectar, de
forma homogênea, fontes de dados heterogêneas na Web. Como diferentes fontes
de dados, com recursos em comum ou relacionados, são publicados por diferentes
editores, a sua integração e consolidação torna-se um verdadeiro desafio. Outro
desafio advindo da Linked Data está na criação de um grafo denso de dados na
Web. Com isso, a identificação e interligação, não só de recursos idênticos, mas
também dos recursos relacionadas na Web, provê ao consumidor (data consumer)
uma representação mais rica dos dados e a possibilidade de exploração dos recursos
conectados. Nesta tese, apresentamos três abordagens para enfrentar os problemas
de integração, consolidação e interligação de dados. Nossa primeira abordagem
combina técnicas de informação mútua e programação genética para solucionar o
problema de alinhamento complexo entre fontes de dados, um problema raramente
abordado na literatura. Na segunda e terceira abordagens, adotamos e ampliamos
uma métrica utilizada em teoria de redes sociais para enfrentar o problema de
consolidação e interligação de dados. Além disso, apresentamos um aplicativo Web
chamado Cite4Me que fornece uma nova perspectiva sobre a pesquisa e recuperação
de conjuntos de Linked Open Data, bem como os benefícios da utilização de nossas
abordagens. Por fim, uma série de experimentos utilizando conjuntos de dados reais
demonstram que as nossas abordagens superam abordagens consideradas como
estado da arte. / [en] With the emergence of Linked (Open) Data, a number of novel and notable
research challenges have been raised. The openness that often characterises Linked
Data offers an opportunity to homogeneously integrate and connect heterogeneous
data sources on the Web. As disparate data sources with overlapping or related resources
are provided by different data publishers, their integration and consolidation
becomes a real challenge. An additional challenge of Linked Data lies in the creation
of a well-interlinked graph of Web data. Identifying and linking not only identical
Web resources, but also lateral Web resources, provides the data consumer with
richer representation of the data and the possibility of exploiting connected resources.
In this thesis, we present three approaches that tackle data integration, consolidation
and linkage problems. Our first approach combines mutual information and genetic
programming techniques for complex datatype property matching, a rarely addressed
problem in the literature. In the second and third approaches, we adopt and extend a
measure from social network theory to address data consolidation and interlinking.
Furthermore, we present a Web-based application named Cite4Me that provides
a new perspective on search and retrieval of Linked Open Data sets, as well as
the benefits of using our approaches. Finally, we validate our approaches through
extensive evaluations using real-world datasets, reporting results that outperform
state of the art approaches.
|
Page generated in 0.0824 seconds