• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 460
  • 150
  • 51
  • 36
  • 35
  • 35
  • 23
  • 20
  • 13
  • 12
  • 9
  • 8
  • 6
  • 6
  • 5
  • Tagged with
  • 948
  • 276
  • 275
  • 265
  • 252
  • 116
  • 100
  • 94
  • 89
  • 61
  • 57
  • 56
  • 56
  • 56
  • 54
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Enzyme immunoassay in combination with liquid chromatography for sensitive and selective determination of drugs in biosamples

Lövgren, Ulf. January 1997 (has links)
Thesis (doctoral)--Lund University, 1997. / Added t.p. with thesis statement inserted.
102

N-linked glycosylation in Campylobacter jejuni and Campylobacter fetus and N-linked glycans as targets for antibody-based detection

Weaver, Danielle January 2017 (has links)
Campylobacter spp., especially C. jejuni and C. coli, are the leading cause of bacterial gastroenteritis in Europe. There is a recognised need to develop detection tools which can be performed on farms to facilitate reducing the presence of Campylobacter in poultry. A similar application could be beneficial for detection of C. fetus, a veterinary pathogen which causes significant economic loss in the cattle industry. Campylobacter species perform protein N-linked glycosylation and in C. jejuni at least 150 proteins, many of which are surface-exposed, may be modified. Therefore, the first portion of this thesis investigated the feasibility of using N-linked glycans as targets for antibody-based detection of Campylobacter species. To do this, a His-tagged N-glycoprotein was expressed and purified from C. fetus and used as immunogen to raise an antiserum termed CfNgp. The Campylobacter N-glycan reactivity of this antiserum was characterised and it was shown to react with N-glycoproteins and cells of C. fetus and other emerging Campylobacter species such as C. concisus. Immunoblotting techniques and flow cytometry were used to characterise an antiserum (CjNgp) raised against a C. jejuni N-linked glycoprotein and demonstrated that it can specifically detect cells of C. jejuni, C. coli and other emerging Campylobacter species found in poulty. This thesis also describes the investigation of the relatively uncharacterised C. fetus N-linked glycosylation system. Functional analysis of C. fetus predicted glycosyltransferases was acheived by developing glycocompetent E. coli containing a hybrid C. jejuni/C. fetus pgl system. The N-glycan structures biosynthesised were analysed using mass spectrometry and this novel approach discovered the activity of two C. fetus glycosyltransferase enzymes. Finally, this work used a bioinformatics pipeline to produce a C. fetus predicted N-linked glycoproteome and experimentally verified a newly identified N-linked glycoprotein. This pipeline was also applied to investigate the putative conservation of N-linked glycoproteins throughout the Campylobacter genus and highlighted ‘core’ N-linked glycoproteins which are key targets for experimental investigation. Overall, this work demonstrates that Campylobacter N-linked glycans are attractive targets for antibody-based detection, expands our knowledge of C. fetus N-linked glycosylation and contributes to the broader understanding of this intriguing aspect of Campylobacter biology.
103

[en] CRAWLING THE LINKED DATA CLOUD / [pt] COLETA DE DADOS INTERLIGADOS

RAPHAEL DO VALE AMARAL GOMES 26 April 2016 (has links)
[pt] As melhores práticas de dados interligados recomendam que se utilizem ontologias bem conhecidas de modo a facilitar a ligação entre um novo conjunto de triplas RDF (ou, abreviadamente, tripleset) e os já existentes. Entretanto, ambas as tarefas apresentam dificuldades. Esta tese apresenta frameworks para criação de buscadores de metadados que ajudam na seleção de ontologias e na escolha de triplesets que podem ser usados, respectivamente, nos processos de publicação e interligação de triplesets. Resumidamente, o administrador de um novo tripleset deve inicialmente definir um conjunto de termos que descrevam o domínio de interesse do tripleset. Um buscador de metadados, construído segundo os frameworks apresentados na tese, irá localizar, nos vocabulários dos triplesets existentes, aqueles que possuem relação direta ou indireta com os termos definidos pelo administrador. O buscador retornará então uma lista de ontologias que podem ser utilizadas para o domínio, bem como uma lista dos triplesets relacionados. O buscador tem então como foco os metadados dos triplesets, incluindo informações de subclasse, e a sua saída retorna somente metadados, justificando assim chama-lo de buscador focado em metadados . / [en] The Linked Data best practices recommend to publish a new tripleset using well-known ontologies and to interlink the new tripleset with other triplesets. However, both are difficult tasks. This thesis describes frameworks for metadata crawlers that help selecting the ontologies and triplesets to be used, respectively, in the publication and the interlinking processes. Briefly, the publisher of a new tripleset first selects a set of terms that describe the application domain of interest. Then, he submits the set of terms to a metadata crawler, constructed using one of the frameworks described in the thesis, that searches for triplesets which vocabularies include terms direct or transitively related to those in the initial set of terms. The crawler returns a list of ontologies that are used for publishing the new tripleset, as well as a list of triplesets with which the new tripleset can be interlinked. Hence, the crawler focuses on specific metadata properties, including subclass of, and returns only metadata, which justifies the classification metadata focused crawler.
104

Uma abordagem para publicaÃÃo de visÃes RDF de dados relacionais / One approach to publishing RDF views of relational data

Luis Eufrasio Teixeira Neto 21 January 2014 (has links)
nÃo hà / A iniciativa Linked Data trouxe novas oportunidades para a construÃÃo da nova geraÃÃo de aplicaÃÃes Web. Entretanto, a utilizaÃÃo das melhores prÃticas estabelecidas por este padrÃo depende de mecanismos que facilitem a transformaÃÃo dos dados armazenados em bancos relacionais em triplas RDF. Recentemente, o grupo de trabalho W3C RDB2RDF propÃs uma linguagem de mapeamento padrÃo, denominada R2RML, para especificar mapeamentos customizados entre esquemas relacionais e vocabulÃrios RDF. No entanto, a geraÃÃo de mapeamentos R2RML nÃo à uma tarefa fÃcil. à imperativo, entÃo, definir: (a) uma soluÃÃo para mapear os conceitos de um esquema relacional em termos de um esquema RDF; (b) um processo que suporte a publicaÃÃo dos dados relacionais no formato RDF; e (c) uma ferramenta para facilitar a aplicaÃÃo deste processo. Assertivas de correspondÃncia sÃo propostas para formalizar mapeamentos entre esquemas relacionais e esquemas RDF. VisÃes sÃo usadas para publicar dados de uma base de dados em uma nova estrutura ou esquema. A definiÃÃo de visÃes RDF sobre dados relacionais permite que esses dados possam ser disponibilizados em uma estrutura de termos de uma ontologia OWL, sem que seja necessÃrio alterar o esquema da base de dados. Neste trabalho, propomos uma arquitetura em trÃs camadas â de dados, de visÃes SQL e de visÃes RDF â onde a camada de visÃes SQL mapeia os conceitos da camada de dados nos termos da camada de visÃes RDF. A criaÃÃo desta camada intermediÃria de visÃes facilita a geraÃÃo dos mapeamentos R2RML e evita que alteraÃÃes na camada de dados impliquem em alteraÃÃes destes mapeamentos. Adicionalmente, definimos um processo em trÃs etapas para geraÃÃo das visÃes RDF. Na primeira etapa, o usuÃrio define o esquema do banco de dados relacional e a ontologia OWL alvo e cria assertivas de correspondÃncia que mapeiam os conceitos do esquema relacional nos termos da ontologia alvo. A partir destas assertivas, uma ontologia exportada à gerada automaticamente. O segundo passo produz um esquema de visÃes SQL gerado a partir da ontologia exportada e um mapeamento R2RML do esquema de visÃes para a ontologia exportada, de forma automatizada. Por fim, no terceiro passo, as visÃes RDF sÃo publicadas em um SPARQL endpoint. Neste trabalho sÃo detalhados as assertivas de correspondÃncia, a arquitetura, o processo, os algoritmos necessÃrios, uma ferramenta que suporta o processo e um estudo de caso para validaÃÃo dos resultados obtidos. / The Linked Data initiative brought new opportunities for building the next generation of Web applications. However, the full potential of linked data depends on how easy it is to transform data stored in conventional, relational databases into RDF triples. Recently, the W3C RDB2RDF Working Group proposed a standard mapping language, called R2RML, to specify customized mappings between relational schemas and target RDF vocabularies. However, the generation of customized R2RML mappings is not an easy task. Thus, it is mandatory to define: (a) a solution that maps concepts from a relational schema to terms from a RDF schema; (b) a process to support the publication of relational data into RDF, and (c) a tool that implements this process. Correspondence assertions are proposed to formalize the mappings between relational schemas and RDF schemas. Views are created to publish data from a database to a new structure or schema. The definition of RDF views over relational data allows providing this data in terms of an OWL ontology structure without having to change the database schema. In this work, we propose a three-tier architecture â database, SQL views and RDF views â where the SQL views layer maps the database concepts into RDF terms. The creation of this intermediate layer facilitates the generation of R2RML mappings and prevents that changes in the data layer result in changes on R2RML mappings. Additionally, we define a three-step process to generate the RDF views of relational data. First, the user defines the schema of the relational database and the target OWL ontology. Then, he defines correspondence assertions that formally specify the relational database in terms of the target ontology. Using these assertions, an exported ontology is generated automatically. The second step produces the SQL views that perform the mapping defined by the assertions and a R2RML mapping between these views and the exported ontology. This dissertation describes a formalization of the correspondence assertions, the three-tier architecture, the publishing process steps, the algorithms needed, a tool that supports the entire process and a case study to validate the results obtained.
105

Uma abordagem para avaliação da qualidade de linked datasets para aplicações de domínio específicos

SARINHO, Walter Travassos 07 August 2014 (has links)
Submitted by Luiz Felipe Barbosa (luiz.fbabreu2@ufpe.br) on 2015-03-10T19:50:40Z No. of bitstreams: 2 DISSERTAÇÃO Walter Travassos Sarinho.pdf: 4193052 bytes, checksum: e957fbf471c0ed377c4437c0e77882cb (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Approved for entry into archive by Daniella Sodre (daniella.sodre@ufpe.br) on 2015-03-11T11:44:01Z (GMT) No. of bitstreams: 2 DISSERTAÇÃO Walter Travassos Sarinho.pdf: 4193052 bytes, checksum: e957fbf471c0ed377c4437c0e77882cb (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Made available in DSpace on 2015-03-11T11:44:01Z (GMT). No. of bitstreams: 2 DISSERTAÇÃO Walter Travassos Sarinho.pdf: 4193052 bytes, checksum: e957fbf471c0ed377c4437c0e77882cb (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Previous issue date: 2014-08-07 / CAPES / O crescimento da Web de Dados possibilita uma série de novas aplicações que podem fazer uso de múltiplos Linked Datasets (fontes de dados publicadas segundo os princípios Linked Data). O grande número de fontes de dados disponíveis na Web de Dados, bem como a falta de informações sobre a proveniência e a qualidade destes dados, traz à tona um grande desafio: como identificar os melhores Linked Datasets para uma determinada aplicação? Uma possível solução é utilizar critérios de Qualidade da Informação (QI) no processo de avaliação dos Linked Datasets, considerando os requisitos específicos da aplicação. Neste cenário, esta dissertação propõe uma abordagem, denominada QualityStamp, para avaliação da qualidade de Linked Datasets para aplicações de Domínio Específico. A abordagem proposta utiliza cinco critérios de qualidade (disponibilidade, tempo de resposta, atraso de fila, completude e interlinking) cujo objetivo é avaliar três características dos Linked Datasets: (i) o desempenho, (ii) a capacidade de responder a um conjunto de consultas e (iii) o grau de interligações de um dataset a outro. A avaliação de qualidade é guiada pelos requisitos da aplicação, os quais são representados por meio de um conjunto de consultas e dos requisitos não funcionais, que correspondem aos critérios de qualidade mais indicados para a aplicação. Dessa forma, no momento da avaliação, um especialista no domínio (ED) deverá escolher os critérios de qualidade que mais se adequam à aplicação. Como resultado da avaliação, é gerada uma medida global de qualidade cujo objetivo é prover uma classificação entre linked datasets os candidatos. Ao longo do trabalho, a abordagem é apresentada e os experimentos para avaliação da mesma são descritos.
106

Um Ambiente para Processamento de Consultas Federadas em Linked Data Mashups / An Environment for Federated Query Processing in Linked Data Mashups

Regis Pires MagalhÃes 25 May 2012 (has links)
CoordenaÃÃo de AperfeiÃoamento de Pessoal de NÃvel Superior / Tecnologias da Web SemÃntica como modelo RDF, URIs e linguagem de consulta SPARQL, podem reduzir a complexidade de integraÃÃo de dados ao fazer uso de ligaÃÃes corretamente estabelecidas e descritas entre fontes.No entanto, a dificuldade para formulaÃÃo de consultas distribuÃdas tem sido um obstÃculo para aproveitar o potencial dessas tecnologias em virtude da autonomia, distribuiÃÃo e vocabulÃrio heterogÃneo das fontes de dados.Esse cenÃrio demanda mecanismos eficientes para integraÃÃo de dados sobre Linked Data.Linked Data Mashups permitem aos usuÃrios executar consultas e integrar dados estruturados e vinculados na web.O presente trabalho propÃe duas arquiteturas de Linked Data Mashups:uma delas baseada no uso de mediadores e a outra baseada no uso de Linked Data Mashup Services (LIDMS). Um mÃdulo para execuÃÃo eficiente de planos de consulta federados sobre Linked Data foi desenvolvido e à um componente comum a ambas as arquiteturas propostas.A viabilidade do mÃdulo de execuÃÃo foi demonstrada atravÃs de experimentos. AlÃm disso, um ambiente Web para execuÃÃo de LIDMS tambÃm foi definido e implementado como contribuiÃÃes deste trabalho. / Semantic Web technologies like RDF model, URIs and SPARQL query language, can reduce the complexity of data integration by making use of properly established and described links between sources.However, the difficulty to formulate distributed queries has been a challenge to harness the potential of these technologies due to autonomy, distribution and vocabulary of heterogeneous data sources. This scenario demands effective mechanisms for integrating data on Linked Data.Linked Data Mashups allow users to query and integrate structured and linked data on the web. This work proposes two architectures of Linked Data Mashups: one based on the use of mediators and the other based on the use of Linked Data Mashup Services (LIDMS). A module for efficient execution of federated query plans on Linked Data has been developed and is a component common to both proposed architectures.The execution module feasibility has been demonstrated through experiments. Furthermore, a LIDMS execution Web environment also has been defined and implemented as contributions of this work.
107

Hromadná extrakce dat veřejné správy do RDF / Bulk extraction of public administration data to RDF

Pomykacz, Michal January 2013 (has links)
The purpose of this work was to deal with data extraction from various formats (HTML, XML, XLS) and transformation for further processing. As the data sources were used Czech public contracts and related code lists and classifications. Main goal was to implement periodic data extraction, RDF transformation and publishing the output in form of Linked Data using SPARQL endpoint. It was necessary to design and implement extraction modules for UnifiedViews tool as it was used for periodic extractions. Theoretical section of this thesis explains the principles of linked data and key tools used for data extraction and manipulation. Practical section deals with extractors design and implementation. Part describing extractor implementation shows methods for parsing data in various dataset formats and its transformation to RDF. The success of each extractor implementation is presented at the conclusion along with thought of usability in a real world.
108

Predição de tags usando linked data: um estudo de caso no banco de dados Arquigrafia / Tag prediction using linked data: a case study in the Arquigrafia database

Ricardo Augusto Teixeira de Souza 17 December 2013 (has links)
Dada a grande quantidade de conteúdo criado por usuários na Web, uma proposta para ajudar na busca e organização é a criação de sistemas de anotações (tagging systems), normalmente na forma de palavras-chave, extraídas do próprio conteúdo ou sugeridas por visitantes. Esse trabalho aplica um algoritmo de mineração de dados em um banco de dados RDF, contendo instâncias que podem fazer referências à rede Linked Data do DBpedia, para recomendação de tags utilizando as medidas de similaridade taxonômica, relacional e literal de descrições RDF. O banco de dados utilizado é o Arquigrafia, um sistema de banco de dados na Web cujo objetivo é catalogar imagens de projetos arquitetônicos, e que permite que visitantes adicionem tags às imagens. Foram realizados experimentos para a avaliação da qualidade das recomendações de tags realizadas considerando diferentes modelos do Arquigrafia incluindo o modelo estendido do Arquigrafia que faz referências ao DBpedia. Os resultados mostram que a qualidade da recomendação de determinadas tags pode melhorar quando consideramos diferentes modelos (com referências à rede Linked Data do DBpedia) na fase de aprendizado. / Given the huge content created by users in the Web, a way to help in search and organization is the creation of tagging systems, usually in a keyword form (extracted from the Web content or suggested by users). This work applies a data mining algorithm in a RDF database, which contain instances that can reference the DBpedia Linked Data repository, to recommend tags using the taxonomic, relational and literal similarities from RDF descriptions. The database used is the Arquigrafia, a database system available in the Web which goal is to catalog architecture projects, and it allows a user to add tags to images. Experiments were performed to evaluate the quality of the tag recommendations made considering differents models of Arquigrafia\'s database, including an extended model which has references to DBpedia. The results shown that the quality of the recommendations of some tags can be improved when we consider different models (with references to DBpedia Linked Data repository) in the learning phase.
109

Nástroj pro vytváření konfigurací vizuálního procházení znalostních grafů / A tool for configuring knowledge graph visual browser

Emeiri, Mahran January 2021 (has links)
The main aim of this research is to provide a tool that helps users in creating, managing and validating configuration files visually, then compiles the user input into a valid RDF representation of the configuration that can be published as a linked open data resource, these configurations then can be used as an input to a Knowledge Graph Browser to be visualized as an interactive Knowledge Graph.
110

Exploiting Alignments in Linked Data for Compression and Query Answering

Joshi, Amit Krishna 06 June 2017 (has links)
No description available.

Page generated in 0.0581 seconds