Spelling suggestions: "subject:"1inked"" "subject:"deinked""
101 |
Enzyme immunoassay in combination with liquid chromatography for sensitive and selective determination of drugs in biosamplesLövgren, Ulf. January 1997 (has links)
Thesis (doctoral)--Lund University, 1997. / Added t.p. with thesis statement inserted.
|
102 |
N-linked glycosylation in Campylobacter jejuni and Campylobacter fetus and N-linked glycans as targets for antibody-based detectionWeaver, Danielle January 2017 (has links)
Campylobacter spp., especially C. jejuni and C. coli, are the leading cause of bacterial gastroenteritis in Europe. There is a recognised need to develop detection tools which can be performed on farms to facilitate reducing the presence of Campylobacter in poultry. A similar application could be beneficial for detection of C. fetus, a veterinary pathogen which causes significant economic loss in the cattle industry. Campylobacter species perform protein N-linked glycosylation and in C. jejuni at least 150 proteins, many of which are surface-exposed, may be modified. Therefore, the first portion of this thesis investigated the feasibility of using N-linked glycans as targets for antibody-based detection of Campylobacter species. To do this, a His-tagged N-glycoprotein was expressed and purified from C. fetus and used as immunogen to raise an antiserum termed CfNgp. The Campylobacter N-glycan reactivity of this antiserum was characterised and it was shown to react with N-glycoproteins and cells of C. fetus and other emerging Campylobacter species such as C. concisus. Immunoblotting techniques and flow cytometry were used to characterise an antiserum (CjNgp) raised against a C. jejuni N-linked glycoprotein and demonstrated that it can specifically detect cells of C. jejuni, C. coli and other emerging Campylobacter species found in poulty. This thesis also describes the investigation of the relatively uncharacterised C. fetus N-linked glycosylation system. Functional analysis of C. fetus predicted glycosyltransferases was acheived by developing glycocompetent E. coli containing a hybrid C. jejuni/C. fetus pgl system. The N-glycan structures biosynthesised were analysed using mass spectrometry and this novel approach discovered the activity of two C. fetus glycosyltransferase enzymes. Finally, this work used a bioinformatics pipeline to produce a C. fetus predicted N-linked glycoproteome and experimentally verified a newly identified N-linked glycoprotein. This pipeline was also applied to investigate the putative conservation of N-linked glycoproteins throughout the Campylobacter genus and highlighted âcoreâ N-linked glycoproteins which are key targets for experimental investigation. Overall, this work demonstrates that Campylobacter N-linked glycans are attractive targets for antibody-based detection, expands our knowledge of C. fetus N-linked glycosylation and contributes to the broader understanding of this intriguing aspect of Campylobacter biology.
|
103 |
[en] CRAWLING THE LINKED DATA CLOUD / [pt] COLETA DE DADOS INTERLIGADOSRAPHAEL DO VALE AMARAL GOMES 26 April 2016 (has links)
[pt] As melhores práticas de dados interligados recomendam que se utilizem
ontologias bem conhecidas de modo a facilitar a ligação entre um novo conjunto
de triplas RDF (ou, abreviadamente, tripleset) e os já existentes. Entretanto,
ambas as tarefas apresentam dificuldades. Esta tese apresenta frameworks para
criação de buscadores de metadados que ajudam na seleção de ontologias e na
escolha de triplesets que podem ser usados, respectivamente, nos processos de
publicação e interligação de triplesets. Resumidamente, o administrador de um
novo tripleset deve inicialmente definir um conjunto de termos que descrevam o
domínio de interesse do tripleset. Um buscador de metadados, construído segundo
os frameworks apresentados na tese, irá localizar, nos vocabulários dos triplesets
existentes, aqueles que possuem relação direta ou indireta com os termos
definidos pelo administrador. O buscador retornará então uma lista de ontologias
que podem ser utilizadas para o domínio, bem como uma lista dos triplesets
relacionados. O buscador tem então como foco os metadados dos triplesets,
incluindo informações de subclasse, e a sua saída retorna somente metadados,
justificando assim chama-lo de buscador focado em metadados . / [en] The Linked Data best practices recommend to publish a new tripleset using
well-known ontologies and to interlink the new tripleset with other triplesets.
However, both are difficult tasks. This thesis describes frameworks for metadata
crawlers that help selecting the ontologies and triplesets to be used, respectively,
in the publication and the interlinking processes. Briefly, the publisher of a new
tripleset first selects a set of terms that describe the application domain of interest.
Then, he submits the set of terms to a metadata crawler, constructed using one of
the frameworks described in the thesis, that searches for triplesets which
vocabularies include terms direct or transitively related to those in the initial set of
terms. The crawler returns a list of ontologies that are used for publishing the new
tripleset, as well as a list of triplesets with which the new tripleset can be
interlinked. Hence, the crawler focuses on specific metadata properties, including
subclass of, and returns only metadata, which justifies the classification metadata
focused crawler.
|
104 |
Uma abordagem para publicaÃÃo de visÃes RDF de dados relacionais / One approach to publishing RDF views of relational dataLuis Eufrasio Teixeira Neto 21 January 2014 (has links)
nÃo hà / A iniciativa Linked Data trouxe novas oportunidades para a construÃÃo da nova geraÃÃo de aplicaÃÃes Web. Entretanto, a utilizaÃÃo das melhores prÃticas estabelecidas por este padrÃo depende de mecanismos que facilitem a transformaÃÃo dos dados armazenados em bancos relacionais em triplas RDF. Recentemente, o grupo de trabalho W3C RDB2RDF propÃs uma linguagem de mapeamento padrÃo, denominada R2RML, para especificar mapeamentos customizados entre esquemas relacionais e vocabulÃrios RDF. No entanto, a geraÃÃo de mapeamentos R2RML nÃo à uma tarefa fÃcil. à imperativo, entÃo, definir: (a) uma
soluÃÃo para mapear os conceitos de um esquema relacional em termos de um esquema RDF; (b) um processo que suporte a publicaÃÃo dos dados relacionais no formato RDF; e (c) uma ferramenta para facilitar a aplicaÃÃo deste processo. Assertivas de correspondÃncia sÃo propostas para formalizar mapeamentos entre esquemas relacionais e esquemas RDF. VisÃes sÃo usadas para publicar dados de uma base de dados em uma nova estrutura ou esquema. A
definiÃÃo de visÃes RDF sobre dados relacionais permite que esses dados possam ser disponibilizados em uma estrutura de termos de uma ontologia OWL, sem que seja necessÃrio alterar o esquema da base de dados. Neste trabalho, propomos uma arquitetura em trÃs camadas â de dados, de visÃes SQL e de visÃes RDF â onde a camada de visÃes SQL mapeia os conceitos da camada de dados nos termos da camada de visÃes RDF. A criaÃÃo desta
camada intermediÃria de visÃes facilita a geraÃÃo dos mapeamentos R2RML e evita que alteraÃÃes na camada de dados impliquem em alteraÃÃes destes mapeamentos.
Adicionalmente, definimos um processo em trÃs etapas para geraÃÃo das visÃes RDF. Na primeira etapa, o usuÃrio define o esquema do banco de dados relacional e a ontologia OWL alvo e cria assertivas de correspondÃncia que mapeiam os conceitos do esquema relacional nos termos da ontologia alvo. A partir destas assertivas, uma ontologia exportada à gerada automaticamente. O segundo passo produz um esquema de visÃes SQL gerado a partir da ontologia exportada e um mapeamento R2RML do esquema de visÃes para a ontologia exportada, de forma automatizada. Por fim, no terceiro passo, as visÃes RDF sÃo publicadas em um SPARQL endpoint. Neste trabalho sÃo detalhados as assertivas de correspondÃncia, a arquitetura, o processo, os algoritmos necessÃrios, uma ferramenta que suporta o processo e um estudo de caso para validaÃÃo dos resultados obtidos. / The Linked Data initiative brought new opportunities for building the next
generation of Web applications. However, the full potential of linked data depends on how
easy it is to transform data stored in conventional, relational databases into RDF triples.
Recently, the W3C RDB2RDF Working Group proposed a standard mapping language, called
R2RML, to specify customized mappings between relational schemas and target RDF
vocabularies. However, the generation of customized R2RML mappings is not an easy task.
Thus, it is mandatory to define: (a) a solution that maps concepts from a relational schema to
terms from a RDF schema; (b) a process to support the publication of relational data into
RDF, and (c) a tool that implements this process. Correspondence assertions are proposed to
formalize the mappings between relational schemas and RDF schemas. Views are created to
publish data from a database to a new structure or schema. The definition of RDF views over
relational data allows providing this data in terms of an OWL ontology structure without
having to change the database schema. In this work, we propose a three-tier architecture â
database, SQL views and RDF views â where the SQL views layer maps the database
concepts into RDF terms. The creation of this intermediate layer facilitates the generation of
R2RML mappings and prevents that changes in the data layer result in changes on R2RML
mappings. Additionally, we define a three-step process to generate the RDF views of
relational data. First, the user defines the schema of the relational database and the target
OWL ontology. Then, he defines correspondence assertions that formally specify the
relational database in terms of the target ontology. Using these assertions, an exported
ontology is generated automatically. The second step produces the SQL views that perform
the mapping defined by the assertions and a R2RML mapping between these views and the
exported ontology. This dissertation describes a formalization of the correspondence
assertions, the three-tier architecture, the publishing process steps, the algorithms needed, a
tool that supports the entire process and a case study to validate the results obtained.
|
105 |
Uma abordagem para avaliação da qualidade de linked datasets para aplicações de domínio específicosSARINHO, Walter Travassos 07 August 2014 (has links)
Submitted by Luiz Felipe Barbosa (luiz.fbabreu2@ufpe.br) on 2015-03-10T19:50:40Z
No. of bitstreams: 2
DISSERTAÇÃO Walter Travassos Sarinho.pdf: 4193052 bytes, checksum: e957fbf471c0ed377c4437c0e77882cb (MD5)
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Approved for entry into archive by Daniella Sodre (daniella.sodre@ufpe.br) on 2015-03-11T11:44:01Z (GMT) No. of bitstreams: 2
DISSERTAÇÃO Walter Travassos Sarinho.pdf: 4193052 bytes, checksum: e957fbf471c0ed377c4437c0e77882cb (MD5)
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Made available in DSpace on 2015-03-11T11:44:01Z (GMT). No. of bitstreams: 2
DISSERTAÇÃO Walter Travassos Sarinho.pdf: 4193052 bytes, checksum: e957fbf471c0ed377c4437c0e77882cb (MD5)
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
Previous issue date: 2014-08-07 / CAPES / O crescimento da Web de Dados possibilita uma série de novas aplicações que podem
fazer uso de múltiplos Linked Datasets (fontes de dados publicadas segundo os princípios
Linked Data). O grande número de fontes de dados disponíveis na Web de Dados, bem
como a falta de informações sobre a proveniência e a qualidade destes dados, traz à tona
um grande desafio: como identificar os melhores Linked Datasets para uma determinada
aplicação? Uma possível solução é utilizar critérios de Qualidade da Informação (QI) no
processo de avaliação dos Linked Datasets, considerando os requisitos específicos da
aplicação. Neste cenário, esta dissertação propõe uma abordagem, denominada
QualityStamp, para avaliação da qualidade de Linked Datasets para aplicações de Domínio
Específico. A abordagem proposta utiliza cinco critérios de qualidade (disponibilidade,
tempo de resposta, atraso de fila, completude e interlinking) cujo objetivo é avaliar três
características dos Linked Datasets: (i) o desempenho, (ii) a capacidade de responder a um
conjunto de consultas e (iii) o grau de interligações de um dataset a outro. A avaliação de
qualidade é guiada pelos requisitos da aplicação, os quais são representados por meio de
um conjunto de consultas e dos requisitos não funcionais, que correspondem aos critérios
de qualidade mais indicados para a aplicação. Dessa forma, no momento da avaliação, um
especialista no domínio (ED) deverá escolher os critérios de qualidade que mais se
adequam à aplicação. Como resultado da avaliação, é gerada uma medida global de
qualidade cujo objetivo é prover uma classificação entre linked datasets os candidatos. Ao
longo do trabalho, a abordagem é apresentada e os experimentos para avaliação da mesma
são descritos.
|
106 |
Um Ambiente para Processamento de Consultas Federadas em Linked Data Mashups / An Environment for Federated Query Processing in Linked Data MashupsRegis Pires MagalhÃes 25 May 2012 (has links)
CoordenaÃÃo de AperfeiÃoamento de Pessoal de NÃvel Superior / Tecnologias da Web SemÃntica como modelo RDF, URIs e linguagem de consulta SPARQL, podem reduzir a complexidade de integraÃÃo de dados ao fazer uso de ligaÃÃes corretamente estabelecidas e descritas entre fontes.No entanto, a dificuldade para formulaÃÃo de consultas distribuÃdas tem sido um obstÃculo para aproveitar o potencial dessas tecnologias em virtude da autonomia, distribuiÃÃo e vocabulÃrio heterogÃneo das fontes de dados.Esse cenÃrio demanda mecanismos eficientes para integraÃÃo de dados sobre Linked Data.Linked Data Mashups permitem aos usuÃrios executar consultas e integrar dados estruturados e vinculados na web.O presente trabalho propÃe duas arquiteturas de Linked Data Mashups:uma delas baseada no uso de mediadores e a outra baseada no uso de Linked Data Mashup Services (LIDMS). Um mÃdulo para execuÃÃo eficiente de planos de consulta federados sobre Linked Data foi desenvolvido e à um componente comum a ambas as arquiteturas propostas.A viabilidade do mÃdulo de execuÃÃo foi demonstrada atravÃs de experimentos. AlÃm disso, um ambiente Web para execuÃÃo de LIDMS tambÃm foi definido e implementado como contribuiÃÃes deste trabalho. / Semantic Web technologies like RDF model, URIs and SPARQL query language, can reduce the complexity of data integration by making use of properly established and described links between sources.However, the difficulty to formulate distributed queries has been a challenge to harness the potential of these technologies due to autonomy, distribution and vocabulary of heterogeneous data sources. This scenario demands effective mechanisms for integrating data on Linked Data.Linked Data Mashups allow users to query and integrate structured and linked data on the web. This work proposes two architectures of Linked Data Mashups: one based on the use of mediators and the other based on the use of Linked Data Mashup Services (LIDMS). A module for efficient execution of federated query plans on Linked Data has been developed and is a component common to both proposed architectures.The execution module feasibility has been demonstrated through experiments. Furthermore, a LIDMS execution Web environment also has been defined and implemented as contributions of this work.
|
107 |
Hromadná extrakce dat veřejné správy do RDF / Bulk extraction of public administration data to RDFPomykacz, Michal January 2013 (has links)
The purpose of this work was to deal with data extraction from various formats (HTML, XML, XLS) and transformation for further processing. As the data sources were used Czech public contracts and related code lists and classifications. Main goal was to implement periodic data extraction, RDF transformation and publishing the output in form of Linked Data using SPARQL endpoint. It was necessary to design and implement extraction modules for UnifiedViews tool as it was used for periodic extractions. Theoretical section of this thesis explains the principles of linked data and key tools used for data extraction and manipulation. Practical section deals with extractors design and implementation. Part describing extractor implementation shows methods for parsing data in various dataset formats and its transformation to RDF. The success of each extractor implementation is presented at the conclusion along with thought of usability in a real world.
|
108 |
Predição de tags usando linked data: um estudo de caso no banco de dados Arquigrafia / Tag prediction using linked data: a case study in the Arquigrafia databaseRicardo Augusto Teixeira de Souza 17 December 2013 (has links)
Dada a grande quantidade de conteúdo criado por usuários na Web, uma proposta para ajudar na busca e organização é a criação de sistemas de anotações (tagging systems), normalmente na forma de palavras-chave, extraídas do próprio conteúdo ou sugeridas por visitantes. Esse trabalho aplica um algoritmo de mineração de dados em um banco de dados RDF, contendo instâncias que podem fazer referências à rede Linked Data do DBpedia, para recomendação de tags utilizando as medidas de similaridade taxonômica, relacional e literal de descrições RDF. O banco de dados utilizado é o Arquigrafia, um sistema de banco de dados na Web cujo objetivo é catalogar imagens de projetos arquitetônicos, e que permite que visitantes adicionem tags às imagens. Foram realizados experimentos para a avaliação da qualidade das recomendações de tags realizadas considerando diferentes modelos do Arquigrafia incluindo o modelo estendido do Arquigrafia que faz referências ao DBpedia. Os resultados mostram que a qualidade da recomendação de determinadas tags pode melhorar quando consideramos diferentes modelos (com referências à rede Linked Data do DBpedia) na fase de aprendizado. / Given the huge content created by users in the Web, a way to help in search and organization is the creation of tagging systems, usually in a keyword form (extracted from the Web content or suggested by users). This work applies a data mining algorithm in a RDF database, which contain instances that can reference the DBpedia Linked Data repository, to recommend tags using the taxonomic, relational and literal similarities from RDF descriptions. The database used is the Arquigrafia, a database system available in the Web which goal is to catalog architecture projects, and it allows a user to add tags to images. Experiments were performed to evaluate the quality of the tag recommendations made considering differents models of Arquigrafia\'s database, including an extended model which has references to DBpedia. The results shown that the quality of the recommendations of some tags can be improved when we consider different models (with references to DBpedia Linked Data repository) in the learning phase.
|
109 |
Nástroj pro vytváření konfigurací vizuálního procházení znalostních grafů / A tool for configuring knowledge graph visual browserEmeiri, Mahran January 2021 (has links)
The main aim of this research is to provide a tool that helps users in creating, managing and validating configuration files visually, then compiles the user input into a valid RDF representation of the configuration that can be published as a linked open data resource, these configurations then can be used as an input to a Knowledge Graph Browser to be visualized as an interactive Knowledge Graph.
|
110 |
Exploiting Alignments in Linked Data for Compression and Query AnsweringJoshi, Amit Krishna 06 June 2017 (has links)
No description available.
|
Page generated in 0.0256 seconds