Spelling suggestions: "subject:"[een] LINKED DATA"" "subject:"[enn] LINKED DATA""
11 |
Transformace a publikace otevřených a propojitelných dat / Transformation and publication of Open and Linked DataNohejl, Petr January 2013 (has links)
The principle of Open Data and Linked data is in growing interest of many organizations, developers and even government institutions. This work is aimed on providing actual information about development of Open and Linked data, further there are introduced featured tools for creating, manipulating, transformation and other operations regarding Open and Linked Data. Finally, there is description of development of Linked Data application based on universal visualization system Payola.
|
12 |
Linked open data pro informace veřejného sektoru / Linked Open Data for Public Sector InformationMynarz, Jindřich January 2012 (has links)
The diploma thesis introduces the domain of proactive disclosure of public sector information via linked open data. At the start, the legal framework encompassing public sector information is expounded along with the basic approaches for its disclosure. The practices of publishing data as open data are defined as an ap- proach for proactive disclosure that is based on the application of the principle of openness to data with the goal to enable equal access and equal use of the data. The reviewed practices range from necessary legal actions, choices of appropriate technologies, and ways in which the technologies should be used to achieve the best data quality. Linked data is presented as a knowledge technology that, for the most part, fulfils the requirements on open technology suitable for open data. The thesis extrapolates further from the adoption of linked open data in the public sector to recognize the impact and challenges proceeding from this change. The distinctive focus on the side supplying data and the trust in the transformative effects of technological changes are identified among the key sources of these challenges. The emphasis on technologies for data disclosure at the expense of a more careful attention to the use of data is presented as a possible source of risks that may undermine the...
|
13 |
User Interaction with Linked Data: An Exploratory Search ApproachThakker, Dhaval, Yang-Turner, F., Despotakis, D. January 2016 (has links)
No / It is becoming increasingly popular to expose government and citywide sensor data as linked data. Linked data appears to offer a great potential for exploratory search in supporting smart city goals of helping users to learn and make sense of complex and heterogeneous data. However, there are no systematic user studies to provide an insight of how browsing through linked data can support exploratory search. This paper presents a user study that draws on methodological and empirical underpinning from relevant exploratory search studies. The authors have developed a linked data browser that provides an interface for user browsing through several datasets linked via domain ontologies. In a systematic study that is qualitative and exploratory in nature, they have been able to get an insight on central issues related to exploratory search and browsing through linked data. The study identifies obstacles and challenges related to exploratory search using linked data and draws heuristics for future improvements. The authors also report main problems experienced by users while conducting exploratory search tasks, based on which requirements for algorithmic support to address the observed issues are elicited. The approach and lessons learnt can facilitate future work in browsing of linked data, and points at further issues that have to be addressed.
|
14 |
[en] DISTRIBUTED RDF GRAPH KEYWORD SEARCH / [pt] BUSCA DISTRIBUÍDA EM GRAFO RDF POR PALAVRA-CHAVEDANILO MORET RODRIGUES 26 December 2014 (has links)
[pt] O objetivo desta dissertação é melhorar a busca por palavra-chave em
formato RDF. Propomos uma abordagem escalável, baseada numa representação
tensorial, que permite o armazenamento distribuído e, como consequência, o uso
de técnicas de paralelismo para agilizar a busca sobre grandes bases de RDF, em
particular, as publicadas como Linked Data. Um volume sem precedentes de
informação está sendo disponibilizado seguindo os princípios de Linked Data,
formando o que chamamos de Web of Data. Esta informação, tipicamente
codificada como triplas RDF, costuma ser representada como um grafo, onde
sujeitos e objetos são vértices, e predicados são arestas ligando os vértices. Em
consequência da ampla adoção de mecanismos de busca na World Wide Web,
usuários estão familiarizados com a busca por palavra-chave. No caso de grafos
RDF, no entanto, a extração de uma partição coerente de grafos para enriquecer os
resultados da busca é uma tarefa cara, demorada, e cuja expectativa do usuário é
de que seja executada em tempo real. Este trabalho tem como objetivo o
tratamento deste problema. Parte de uma solução proposta recentemente prega a
indexação do grafo RDF como uma matriz esparsa, que contém um conjunto de
informações pré-computadas para agilizar a extração de seções do grafo, e o uso
de consultas baseadas em tensores sobre a matriz esparsa. Esta abordagem
baseada em tensores permite que se tome vantagem de técnicas modernas de
programação distribuída, e.g., a utilização de bases de dados não-relacionais
fracionadas e o modelo de MapReduce. Nesta dissertação, propomos o desenho e
exploramos a viabilidade da abordagem baseada em tensores, com o objetivo de
construir um depósito de dados distribuído e agilizar a busca por palavras-chave
com uma abordagem paralela. / [en] The goal of this dissertation is to improve RDF keyword search. We
propose a scalable approach, based on a tensor representation that allows for
distributed storage, and thus the use of parallel techniques to speed up the search
over large linked data sets, in particular those published as Linked Data. An
unprecedented amount of information is becoming available following the
principles of Linked Data, forming what is called the Web of Data. This
information, typically codified as RDF subject-predicate-object triples, is
commonly abstracted as a graph which subjects and objects are nodes, and
predicates are edges connecting them. As a consequence of the widespread
adoption of search engines on the World Wide Web, users are familiar with
keyword search. For RDF graphs, however, extracting a coherent subset of data
graphs to enrich search results is a time consuming and expensive task, and it is
expected to be executed on-the-fly at user prompt. The dissertation s goal is to
handle this problem. A recent proposal has been made to index RDF graphs as a
sparse matrix with the pre-computed information necessary for faster retrieval of
sub-graphs, and the use of tensor-based queries over the sparse matrix. The tensor
approach can leverage modern distributed computing techniques, e.g., nonrelational
database sharding and the MapReduce model. In this dissertation, we
propose a design and explore the viability of the tensor-based approach to build a
distributed datastore and speed up keyword search with a parallel approach.
|
15 |
Predição de tags usando linked data: um estudo de caso no banco de dados Arquigrafia / Tag prediction using linked data: a case study in the Arquigrafia databaseSouza, Ricardo Augusto Teixeira de 17 December 2013 (has links)
Dada a grande quantidade de conteúdo criado por usuários na Web, uma proposta para ajudar na busca e organização é a criação de sistemas de anotações (tagging systems), normalmente na forma de palavras-chave, extraídas do próprio conteúdo ou sugeridas por visitantes. Esse trabalho aplica um algoritmo de mineração de dados em um banco de dados RDF, contendo instâncias que podem fazer referências à rede Linked Data do DBpedia, para recomendação de tags utilizando as medidas de similaridade taxonômica, relacional e literal de descrições RDF. O banco de dados utilizado é o Arquigrafia, um sistema de banco de dados na Web cujo objetivo é catalogar imagens de projetos arquitetônicos, e que permite que visitantes adicionem tags às imagens. Foram realizados experimentos para a avaliação da qualidade das recomendações de tags realizadas considerando diferentes modelos do Arquigrafia incluindo o modelo estendido do Arquigrafia que faz referências ao DBpedia. Os resultados mostram que a qualidade da recomendação de determinadas tags pode melhorar quando consideramos diferentes modelos (com referências à rede Linked Data do DBpedia) na fase de aprendizado. / Given the huge content created by users in the Web, a way to help in search and organization is the creation of tagging systems, usually in a keyword form (extracted from the Web content or suggested by users). This work applies a data mining algorithm in a RDF database, which contain instances that can reference the DBpedia Linked Data repository, to recommend tags using the taxonomic, relational and literal similarities from RDF descriptions. The database used is the Arquigrafia, a database system available in the Web which goal is to catalog architecture projects, and it allows a user to add tags to images. Experiments were performed to evaluate the quality of the tag recommendations made considering differents models of Arquigrafia\'s database, including an extended model which has references to DBpedia. The results shown that the quality of the recommendations of some tags can be improved when we consider different models (with references to DBpedia Linked Data repository) in the learning phase.
|
16 |
Extracting structured information from Wikipedia articles to populate infoboxesLange, Dustin, Böhm, Christoph, Naumann, Felix January 2010 (has links)
Roughly every third Wikipedia article contains an infobox - a table that displays important facts about the subject in attribute-value form. The schema of an infobox, i.e., the attributes that can be expressed for a concept, is defined by an infobox template. Often, authors do not specify all template attributes, resulting in incomplete infoboxes.
With iPopulator, we introduce a system that automatically populates infoboxes of Wikipedia articles by extracting attribute values from the article's text. In contrast to prior work, iPopulator detects and exploits the structure of attribute values for independently extracting value parts. We have tested iPopulator on the entire set of infobox templates and provide a detailed analysis of its effectiveness. For instance, we achieve an average extraction precision of 91% for 1,727 distinct infobox template attributes. / Ungefähr jeder dritte Wikipedia-Artikel enthält eine Infobox - eine Tabelle, die wichtige Fakten über das beschriebene Thema in Attribut-Wert-Form darstellt. Das Schema einer Infobox, d.h. die Attribute, die für ein Konzept verwendet werden können, wird durch ein Infobox-Template definiert. Häufig geben Autoren nicht für alle Template-Attribute Werte an, wodurch unvollständige Infoboxen entstehen.
Mit iPopulator stellen wir ein System vor, welches automatisch Infoboxen von Wikipedia-Artikeln durch Extrahieren von Attributwerten aus dem Artikeltext befüllt. Im Unterschied zu früheren Arbeiten erkennt iPopulator die Struktur von Attributwerten und nutzt diese aus, um die einzelnen Bestandteile von Attributwerten unabhängig voneinander zu extrahieren. Wir haben iPopulator auf der gesamten Menge der Infobox-Templates getestet und analysieren detailliert die Effektivität. Wir erreichen beispielsweise für die Extraktion einen durchschnittlichen Precision-Wert von 91% für 1.727 verschiedene Infobox-Template-Attribute.
|
17 |
[en] CRAWLING THE LINKED DATA CLOUD / [pt] COLETA DE DADOS INTERLIGADOSRAPHAEL DO VALE AMARAL GOMES 26 April 2016 (has links)
[pt] As melhores práticas de dados interligados recomendam que se utilizem
ontologias bem conhecidas de modo a facilitar a ligação entre um novo conjunto
de triplas RDF (ou, abreviadamente, tripleset) e os já existentes. Entretanto,
ambas as tarefas apresentam dificuldades. Esta tese apresenta frameworks para
criação de buscadores de metadados que ajudam na seleção de ontologias e na
escolha de triplesets que podem ser usados, respectivamente, nos processos de
publicação e interligação de triplesets. Resumidamente, o administrador de um
novo tripleset deve inicialmente definir um conjunto de termos que descrevam o
domínio de interesse do tripleset. Um buscador de metadados, construído segundo
os frameworks apresentados na tese, irá localizar, nos vocabulários dos triplesets
existentes, aqueles que possuem relação direta ou indireta com os termos
definidos pelo administrador. O buscador retornará então uma lista de ontologias
que podem ser utilizadas para o domínio, bem como uma lista dos triplesets
relacionados. O buscador tem então como foco os metadados dos triplesets,
incluindo informações de subclasse, e a sua saída retorna somente metadados,
justificando assim chama-lo de buscador focado em metadados . / [en] The Linked Data best practices recommend to publish a new tripleset using
well-known ontologies and to interlink the new tripleset with other triplesets.
However, both are difficult tasks. This thesis describes frameworks for metadata
crawlers that help selecting the ontologies and triplesets to be used, respectively,
in the publication and the interlinking processes. Briefly, the publisher of a new
tripleset first selects a set of terms that describe the application domain of interest.
Then, he submits the set of terms to a metadata crawler, constructed using one of
the frameworks described in the thesis, that searches for triplesets which
vocabularies include terms direct or transitively related to those in the initial set of
terms. The crawler returns a list of ontologies that are used for publishing the new
tripleset, as well as a list of triplesets with which the new tripleset can be
interlinked. Hence, the crawler focuses on specific metadata properties, including
subclass of, and returns only metadata, which justifies the classification metadata
focused crawler.
|
18 |
Uma abordagem para publicaÃÃo de visÃes RDF de dados relacionais / One approach to publishing RDF views of relational dataLuis Eufrasio Teixeira Neto 21 January 2014 (has links)
nÃo hà / A iniciativa Linked Data trouxe novas oportunidades para a construÃÃo da nova geraÃÃo de aplicaÃÃes Web. Entretanto, a utilizaÃÃo das melhores prÃticas estabelecidas por este padrÃo depende de mecanismos que facilitem a transformaÃÃo dos dados armazenados em bancos relacionais em triplas RDF. Recentemente, o grupo de trabalho W3C RDB2RDF propÃs uma linguagem de mapeamento padrÃo, denominada R2RML, para especificar mapeamentos customizados entre esquemas relacionais e vocabulÃrios RDF. No entanto, a geraÃÃo de mapeamentos R2RML nÃo à uma tarefa fÃcil. à imperativo, entÃo, definir: (a) uma
soluÃÃo para mapear os conceitos de um esquema relacional em termos de um esquema RDF; (b) um processo que suporte a publicaÃÃo dos dados relacionais no formato RDF; e (c) uma ferramenta para facilitar a aplicaÃÃo deste processo. Assertivas de correspondÃncia sÃo propostas para formalizar mapeamentos entre esquemas relacionais e esquemas RDF. VisÃes sÃo usadas para publicar dados de uma base de dados em uma nova estrutura ou esquema. A
definiÃÃo de visÃes RDF sobre dados relacionais permite que esses dados possam ser disponibilizados em uma estrutura de termos de uma ontologia OWL, sem que seja necessÃrio alterar o esquema da base de dados. Neste trabalho, propomos uma arquitetura em trÃs camadas â de dados, de visÃes SQL e de visÃes RDF â onde a camada de visÃes SQL mapeia os conceitos da camada de dados nos termos da camada de visÃes RDF. A criaÃÃo desta
camada intermediÃria de visÃes facilita a geraÃÃo dos mapeamentos R2RML e evita que alteraÃÃes na camada de dados impliquem em alteraÃÃes destes mapeamentos.
Adicionalmente, definimos um processo em trÃs etapas para geraÃÃo das visÃes RDF. Na primeira etapa, o usuÃrio define o esquema do banco de dados relacional e a ontologia OWL alvo e cria assertivas de correspondÃncia que mapeiam os conceitos do esquema relacional nos termos da ontologia alvo. A partir destas assertivas, uma ontologia exportada à gerada automaticamente. O segundo passo produz um esquema de visÃes SQL gerado a partir da ontologia exportada e um mapeamento R2RML do esquema de visÃes para a ontologia exportada, de forma automatizada. Por fim, no terceiro passo, as visÃes RDF sÃo publicadas em um SPARQL endpoint. Neste trabalho sÃo detalhados as assertivas de correspondÃncia, a arquitetura, o processo, os algoritmos necessÃrios, uma ferramenta que suporta o processo e um estudo de caso para validaÃÃo dos resultados obtidos. / The Linked Data initiative brought new opportunities for building the next
generation of Web applications. However, the full potential of linked data depends on how
easy it is to transform data stored in conventional, relational databases into RDF triples.
Recently, the W3C RDB2RDF Working Group proposed a standard mapping language, called
R2RML, to specify customized mappings between relational schemas and target RDF
vocabularies. However, the generation of customized R2RML mappings is not an easy task.
Thus, it is mandatory to define: (a) a solution that maps concepts from a relational schema to
terms from a RDF schema; (b) a process to support the publication of relational data into
RDF, and (c) a tool that implements this process. Correspondence assertions are proposed to
formalize the mappings between relational schemas and RDF schemas. Views are created to
publish data from a database to a new structure or schema. The definition of RDF views over
relational data allows providing this data in terms of an OWL ontology structure without
having to change the database schema. In this work, we propose a three-tier architecture â
database, SQL views and RDF views â where the SQL views layer maps the database
concepts into RDF terms. The creation of this intermediate layer facilitates the generation of
R2RML mappings and prevents that changes in the data layer result in changes on R2RML
mappings. Additionally, we define a three-step process to generate the RDF views of
relational data. First, the user defines the schema of the relational database and the target
OWL ontology. Then, he defines correspondence assertions that formally specify the
relational database in terms of the target ontology. Using these assertions, an exported
ontology is generated automatically. The second step produces the SQL views that perform
the mapping defined by the assertions and a R2RML mapping between these views and the
exported ontology. This dissertation describes a formalization of the correspondence
assertions, the three-tier architecture, the publishing process steps, the algorithms needed, a
tool that supports the entire process and a case study to validate the results obtained.
|
19 |
Nástroj pro vytváření konfigurací vizuálního procházení znalostních grafů / A tool for configuring knowledge graph visual browserEmeiri, Mahran January 2021 (has links)
The main aim of this research is to provide a tool that helps users in creating, managing and validating configuration files visually, then compiles the user input into a valid RDF representation of the configuration that can be published as a linked open data resource, these configurations then can be used as an input to a Knowledge Graph Browser to be visualized as an interactive Knowledge Graph.
|
20 |
Exploiting Alignments in Linked Data for Compression and Query AnsweringJoshi, Amit Krishna 06 June 2017 (has links)
No description available.
|
Page generated in 0.0465 seconds