• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 261
  • 16
  • 15
  • 15
  • 15
  • 14
  • 11
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 275
  • 275
  • 156
  • 98
  • 74
  • 65
  • 62
  • 51
  • 50
  • 49
  • 48
  • 38
  • 34
  • 31
  • 31
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Uma proposta de modelagem ontológica para a NCM nomenclatura comum do Mercosul

Santos, Charles Henrique Gonçalves 15 August 2011 (has links)
Dissertação (mestrado)—Universidade de Brasília, Programa de Pós-Graduação em Sistemas Mecatrônicos, 2011. / Submitted by Albânia Cézar de Melo (albania@bce.unb.br) on 2011-12-06T13:59:34Z No. of bitstreams: 1 2011_CharlesHenriqueGoncalvesSantos.pdf: 4603051 bytes, checksum: 934a2d08a37ed6bfceb7959aceba8c58 (MD5) / Approved for entry into archive by Leila Fernandes (leilabiblio@yahoo.com.br) on 2012-01-03T14:14:38Z (GMT) No. of bitstreams: 1 2011_CharlesHenriqueGoncalvesSantos.pdf: 4603051 bytes, checksum: 934a2d08a37ed6bfceb7959aceba8c58 (MD5) / Made available in DSpace on 2012-01-03T14:14:38Z (GMT). No. of bitstreams: 1 2011_CharlesHenriqueGoncalvesSantos.pdf: 4603051 bytes, checksum: 934a2d08a37ed6bfceb7959aceba8c58 (MD5) / A Nomenclatura Comum do Mercosul (NCM) é uma taxonomia utilizada pelo Brasil para a classificação de produtos, classificação esta considerada de grande importância no processo de importação e exportação de mercadorias, assim como nas operações de mercado interno. No entanto a NCM, da forma que está, não permite que a classificação de mercadorias seja uma prática simplificada, pois a atual nomenclatura utilizada no Mercosul encontra-se com os nomes dos produtos desatualizados, os quais acabam por gerar sentidos dúbios. Uma forma de solucionar o problema seria com utilização do conceito de web semântica, que propicia a coleta de dados automáticos pela internet, e a ontologia, instrumento capaz de conceber novos sentidos aos termos existentes na NCM. Assim, a proposta de ontologia deste trabalho tem por objetivo fornecer novos domínios de interesse aos produtos da NCM, o que inclui sinônimos, línguas adicionais, restrições de comercialização dos produtos (importação e/ou exportação) bem como a possibilidade de correlacionar as leis existentes com os respectivos produtos. O estudo de caso realizado comprovou a e ciência da ontologia, uma vez que forneceu respostas esperadas a todos os estionamentos até então pendentes. Desta forma, comparando a atual taxonomia utilizada pelo Mercosul na classificação de seus produtos com a proposta deste trabalho, pode-se afirmar que a utilização da ontologia otimizou a forma de uso da Nomenclatura Comum do Mercosul. ______________________________________________________________________________ ABSTRACT / The Mercosur Common Nomenclature (NCM) is a taxonomy used for product classification by Brazil, being considered of great importance in the process of importing and exporting goods, as well as in internal sales operations. However, as the way the NCM is so far, it does not allow the classification of goods to be a simplified practice, as the current nomenclature used in Mercosur is with outdated product names, which ultimately generate dubious interpretations. One way to solve the problem would be to use the concept of semantic web, which provides automatic data collection via the Internet, and ontology, an instrument capable of conceiving new meanings to existing terms from NCM. Thus, the proposed ontology of this dissertation aims to provide new areas of interest to the NCM products, including synonyms, additional languages, restrictions on product sales (import / export) and the possibility to correlate the existing laws with their products. The case study proved the efficiency of ontology, since it provided the expected answers to all pending questions. Hence, comparing the current taxonomy used by Mercosur in their products classification with the purpose of this work, it can be argued that the use of ontology improved the ways on how to use the Mercosur Common Nomenclature.
12

Publicação de dados conectados sobre despesas orçamentárias do governo federal brasileiro

FANTINI, Webber de Souza 28 August 2015 (has links)
Submitted by Isaac Francisco de Souza Dias (isaac.souzadias@ufpe.br) on 2016-04-22T19:21:52Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) DISSERTAÇÃO Webber de Souza Fantini.pdf: 3976342 bytes, checksum: ee19a7c7532d84db865f1cc0f4b5c21d (MD5) / Made available in DSpace on 2016-04-22T19:21:52Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) DISSERTAÇÃO Webber de Souza Fantini.pdf: 3976342 bytes, checksum: ee19a7c7532d84db865f1cc0f4b5c21d (MD5) Previous issue date: 2015-08-28 / Para transparência e fortalecimento da democracia, é de suma importância que a sociedade tenha acesso às informações livremente. No controle social e na fiscalização do governo, o Orçamento Público é um grande aliado que pode determinar quais ações (despesas) serão feitas pelo Governo com os recursos originados de contribuições (receitas) da sociedade. A iniciativa de disponibilização dos dados orçamentários em formato aberto foi concretizada, e para isso ser realizado, utilizou-se uma ontologia do orçamento federal, denominada LOA, com o objetivo de representar a classificação das despesas do orçamento. Ela possibilita discriminar e detalhar os valores da despesa em categorias denominadas classificações orçamentárias de tal forma que é possível identificar, por meio dessas classificações, em quais categorias se enquadra uma determinada despesa. Porém, entre as informações nela descritas, não consta a identificação das empresas ou pessoas e os respectivos pagamentos recebidos. Neste contexto, este trabalho realiza uma extensão ao modelo ontológico do Orçamento Federal Brasileiro, de modo a apresentar valores de execução orçamentária, discriminando os pagamentos efetuados, os respectivos valores e os favorecidos – pessoas, empresas ou organizações. Esta expansão da ontologia proposta neste trabalho permite uma representação do conhecimento dos dados de pagamentos referente ao domínio do orçamento. Os dados disponibilizados pelo governo no Portal da Transparência são convertidos para o formato RDF e conectados com os conjuntos de dados do Portal de Dados Abertos do Governo Brasileiro. O novo conjunto de dados é publicado e acessado em um terminal de consultas denominado endpoint, por meio da linguagem SPARQL, visando dar suporte a um monitoramento público, para o planejamento e a execução do orçamento. Como forma de avaliação, é construída uma aplicação como prova de conceito da publicação dos dados conectados e, para avaliação da ontologia, são criadas Questões de Competência (QCs) que permitem que a ontologia desenvolvida neste trabalho esteja de acordo com os requisitos levantados, bem como com os conceitos referentes ao domínio orçamentário. / It is crucial that the society has open access to information easily in order to keep the transparency and strength of democracy. The Public Budget is a great ally in social control and government invigilation which can determine which actions (expenses) will be taken by the Government with the income collected by taxes. An ontology of the Federal Budget, named LOA, has been used to represent the classification of the budget expenses, since the budgetary data has been provided. It allows the discrimination and detailing of the value of each expense in categories, named budgetary classifications, in a way we can identify, through this classification, in which category each expense falls into. The identification of the companies or people and the respective payment they got, however, is not included in it. Having considered all these issues, this work shows the results of an extension of the ontological model of the Brazilian Federal Budget, in order to present the budget execution data, differentiating the payments finalized, its respective values and who received them – people, companies or organizations. The ontology expansion proposed in this work allows for the representation of budgetary data disclosure. The data made available through the Portal de Transparência (transparency portal) is converted into RDF format and connected to the data from the Portal de Dados Abertos do Governo Brasileiro (Brazilian Government Open Data Portal). The new data set is published and accessed in a consult terminal designated endpoint, through SPARQL language, aiming to maintain public monitoring, throughout the planning and execution of the data. As an evaluation, an application has been built to prove the concept of the publication of the connected data, and, to evaluate the ontology, we designed Competence Questions (CQs) to allow the ontology to be in accordance with the requirements raised in this work, as well as the concepts related to the budgetary domain.
13

Using a provenance model and spatiotemporal information to integrate heterogeneous biodiversity semantic data. / Usando um modelo de proveniência e informações espaço-temporais para integrar dados semânticos heterogêneos sobre biodiversidade

Amanqui, Flor Karina Mamani 20 November 2017 (has links)
In the last few years, the Web of data is being rapidly populated with biodiversity data. However, when researchers need to retrieve, integrate, and visualize these data, they need to rely on semi-manual approaches. That is due to the fact that biodiversity repositories, such as GBIF, offer data as just strings in CSV format spreadsheets. There is no machine readable metadata that could add meaning (semantics) to data. Without this metadata, automatic solutions are impossible and labor intensive semi-manual approaches for data integration and visualization are unavoidable. To reduce this problem, we present a novel architecture, called STBioData, to automatically link spatiotemporal biodiversity data, from heterogeneous data sources, to enable easier searching, visualization and downloading of relevant data. It supports the generation of interactive maps and mapping between biodiversity data and ontologies describing them (such as Darwin Core, DBpedia, GeoSPARQL, Time and PROV-O). A new biodiversity provenance model (BioProv), extending the W3C PROV Data Model, was proposed. BioProv enables applications that deal with biodiversity data to incorporate provenance data in their information. A web based prototype, based on this architecture, was implemented. It supports biodiversity domain experts in tasks, such as identifying a species conservation status, by automating most of the necessary tasks. It uses collection data, from important Brazilian biodiversity research institutions, and species geographic distributions and conservation status, from the IUCN Red List of Threatened Species. These data are converted to linked data, enriched and saved as RDF Triples. Users can access the system, using a web interface, and search for collection and species distribution records based on species names, time ranges and geographic location. After a data set is recovered, it can be displayed in an interactive map. The records contents are also shown (including provenance data) together with links to the original records at GBIF and IUCN. Users can export datasets, as a CSV or RDF file, or get a print out in PDF (including the visualizations). Choosing different time ranges, users can, for instance, verify the evolution of a species distribution. The STBioData prototype was tested using use cases. For the tests, 46,211 collection records, from SpeciesLink, and 38,589 conservation status records (including maps), from IUCN, for marine mammal were converted to 2,233,782. RDF triples and linked using well known ontologies. 90% of biodiversity experts, using the tool to determine conservation status, were able to find information about dolphin species, with a satisfactory recovery time, and were able to understand the interactive map. In an information retrieval experiment, when compared with SpeciesLink keyword based search, the prototypes semantic based search performed, on average, 24% better in precision and 22% in recall tests. And that does not takes into account cases where only the prototype returned search results. These results demonstrate the value of having public available linked biodiversity data with semantics. / Nos últimos anos, a Web de dados está sendo rapidamente preenchida com dados de biodiversidade. No entanto, quando pesquisadores precisam recuperar, integrar e visualizar esses dados, eles precisam confiar em abordagens semi-manuais. Isso ocorre devido ao fato de que repositórios sobre biodiversidade, como GBIF, oferecem dados como cadeias de caracteres em planilhas no formato CSV. Não há nenhum metadado legível por máquinas que poderia acrescentar significado (semântico) aos dados. Sem os metadados, soluções automáticas são impossíveis, sendo necessário para visualização e integração dos dados, a utilização de abordagens semi-manuais. Para reduzir esse problema, apresentamos uma arquitetura chamada STBioData. Com ela é possível vincular automaticamente dados de biodiversidade, com informações espaço-temporais provenientes de fontes heterogêneas, tornando mais fácil a pesquisa, visualização e download dos dados relevantes. Ele suporta a geração de mapas interativos e o mapeamento entre dados de biodiversidade e ontologias que os descrevem (como Darwin Core, DBpedia, GeoSPARQL, Time e PROV-O). Foi proposto um novo modelo de proveniência para biodiversidade (BioProv), que estende o modelo de dados PROV W3C. BioProv permite que aplicativos que lidam com dados de biodiversidade incorporem os dados de proveniência em suas informações. Foi implementado um protótipo Web baseado nesta arquitetura. Ele oferece suporte aos especialistas do domínio de biodiversidade em tarefas como, identificação do status de conservação da espécie, além de automatizar a maioria das tarefas necessária. Foi utilizado coleções de dados de importantes pesquisas brasileiras sobre biodiversidade, juntamente com dados de distribuição geográfica das espécies e seu estado de conservação, provenientes da lista de espécies ameaçadas da IUCN (Red List). Esses dados são convertidos em dados conectados, enriquecidos e salvados como triplas RDF. Os usuários podem acessar o sistema, usando uma interface web que permite procurar, utilizando os nomes das espécies, intervalos de tempo e localização geográfica. Os dados recuperados podem ser visualizados no mapa interativo. O conteúdo de registros também é mostrado (incluindo dados de proveniência), juntamente com links para os registros originais no GBIF e IUCN. Os usuários podem exportar o conjunto de dados, como um arquivo CSV ou RDF, ou salvar em PDF (incluindo as visualizações). Escolhendo diferentes intervalos de tempo, os usuários podem por exemplo, verificar a evolução da distribuição das espécies. O protótipo STBioData foi testado usando casos de uso. Para esses testes, 46.211 registros de coleção do SpeciesLink e 38.589 registros de estado de conservação da IUCN (incluindo mapas), sobre mamíferos marinhos, foram convertidos em 2.233.782 triplas RDF. Essas triplas reutilizam ontologias representativas da área . 90% dos especialistas em biodiversidade, usaram a ferramenta para determinar o estado de conservação, eles foram capaz de encontrar as informações sobre determinada espécie de golfinho, com um tempo de recuperação satisfatório e também foram capaz de entender o mapa interativo gerado. Em um experimento sobre recuperação de informações, quando comparado com o sistema de busca por palavra-chave utilizado pela base SpeciesLink, a busca semântica realizada pelo protótipo STBioData, em média, é 24% melhor em testes de precisão e 22% melhor em testes de revocação. Não são considerados os casos onde o protótipo somente retornou o resultado da busca. Esses resultados demonstram o valor de ter dados conectados sobre biodiversidade disponíveis publicamente em um formato semântico.
14

Geração de painéis de controle a partir de redes complexas : uma arquitetura baseada em web semântica / GENERATION OF CONTROL PANELS FROM COMPLEX NETWORKS. A ARCHITECTURE BASED ON SEMANTIC WEB (Inglês)

Gomes, Victor Dantas 03 August 2017 (has links)
Made available in DSpace on 2019-03-30T00:08:49Z (GMT). No. of bitstreams: 0 Previous issue date: 2017-08-03 / Business Intelligence (BI) software stands out for its ability to collaborate in the processes of analyzing and understanding large volumes of data. Dashboards - are the typical platforms used for this purpose and there are a wide variety of BI software that allow the construction of these dashboards by data scientists not necessarily programming experts, such as: Qlik Sense, Pentaho, Tableau, Microstrategy, and others. Data analysis and understanding processes may require complex calculations of metrics on the data. Structured data in the form of complex networks can be analyzed and understood with the help of complex network metrics. However, data analysts may not have the knowledge necessary to implement algorithms and perform computations of complex network metrics. Although traditional software for handling complex networks such as Gephi, Pajek, and Hive Plots provide features that facilitate the analysis and calculation of network metrics, these software assumes a theoretical knowledge of the user about complex networks, and it is also up to the user to interpret the results of these metrics in relation to the domain of the analyzed data. About BI software and complex network manipulation tools, little has been done to support the non-programmer in the automatic construction of dashboards based on structured data in the form of complex networks. This work is inserted in this context, proposing a software architecture that contain structures capable of automatically generating dashboards from the input of structured data in the form of complex networks. To validate the proposed architecture, a tool was developed that implements this architecture and is able to support data scientists in the friendly construction of control panels from data that are structured in the form of networks. This tool, called SBINet (Semantic for Business Intelligence from Networks), has a semantic layer that, through ontologies, describes the datasets structured in a network way, to describe metrics that can be calculated from the information contained in the datasets. The use of SBINet is exemplified with data from the network using a shared bicycle system. SBINet has created a set of control panels containing the results of calculating metrics made from user-supplied datasets. The SBINet and the control panels generated by it were evaluated by a group of transport professionals and researchers and systems analysts. Keywords: Complex Networks, Web Semantic, Dashboards, Business Intelligence. / As ferramentas de Business Intelligence - BI - se destacaram pela capacidade de colaborar nos processos de análise e compreensão de grandes volumes de dados. Painéis de controle - dashboards - são as plataformas típicas usadas para esse fim e há uma grande variedade de ferramentas de BI que permitem a construção destes painéis de controle por cientistas de dados não necessariamente especialistas em programação, tais como: Qlik Sense, Pentaho, Tableau, Microstrategy, entre outros. Os processos de análise e compreensão de dados podem exigir cálculos complexos de métricas e indicadores sobre os dados. Dados estruturados na forma de redes complexas podem ser analisados e compreendidos com o auxílio de propriedades de redes complexas. Contudo, analistas de dados podem não possuir os conhecimentos necessários para a implementação de algoritmos e a realização dos cálculos de propriedades de redes complexas. Apesar das ferramentas tradicionais de manuseio de redes complexas como Gephi, Pajek, e Hive Plots disponibilizarem funcionalidades que facilitam a análise e o cálculo de propriedades de redes, estas ferramentas pressupõem um conhecimento teórico do usuário sobre redes complexas, cabendo ainda ao usuário interpretar os resultados dos cálculos destas propriedades em relação ao domínio dos dados analisados. A despeito das ferramentas de BI e das ferramentas de manuseio de redes complexas, pouco foi feito para apoiar ao usuário não-programador na construção automática de painéis de controle baseados em dados estruturados na forma de redes complexas. Este trabalho se insere neste contexto, propondo uma arquitetura de software que contêm estruturas capazes de gerar automaticamente painéis de controle a partir da entrada de dados estruturados na forma de redes complexas. Para validar a arquitetura proposta foi desenvolvida uma ferramenta que implementa esta arquitetura e que é capaz de apoiar cientistas de dados na construção, de forma amigável, de painéis de controle a partir de dados que são representados como redes. Esta ferramenta, chamada SBINet (Semantic for Business Intelligence from Networks), possui uma camada semântica que, através de ontologias, descreve os datasets estruturados em forma de rede. O SBINet utiliza esta descrição para descobrir indicadores que podem ser calculados a partir das informações contidas nos datasets. As propriedades da rede são calculadas no SBINet e, em função do significado de cada métrica usada neste cálculo, indicadores específicos são construídos e visualizados em forma de gráficos. O uso do SBINet é exemplificado com dados da rede de uso de um sistema de bicicletas compartilhadas. O SBINet criou um conjunto de painéis de controle contendo os resultados dos cálculos de indicadores feitos a partir dos datasets fornecidos pelo usuário. O SBINet e os painéis de controle gerados por ele foram avaliados por um conjunto de profissionais e pesquisadores da área de mobilidade urbana e tecnologia da informação. Palavras-chave: Redes Complexas, Web Semântica, Painéis de Controle, Business Intelligence.
15

Abstração de provas para explicação na web

Carvalho, Juliana de Oliveira 07 July 2008 (has links)
Made available in DSpace on 2019-03-29T23:12:39Z (GMT). No. of bitstreams: 0 Previous issue date: 2008-07-07 / In order to answer queries to human users on the web, intelligent agents use a reasoning mechanism to process information and access services available on the web. Every step of this reasoning process form a proof and the information presented in these proofs facilitate generating explanations from proofs on the web. However, these automatic generated proofs are not ready to be presented to human users and they need to be transformed and simplified into explanations closer to human language. In this dissertation, we present an architecture for abstracting proofs in order to make them more appropriate for human explanation. This architecture uses abstraction patterns, which are proof fragments that can be replaced by rules that are more meaningful for people. Our abstraction approach consists of using the IWAbstractor algorithm, which has been developed by researchers of Stanford University, along with a set of strategies to abstract automatic generated proofs using abstraction patterns. This way, proofs become simpler and more comprehensible for people. Keywords: Artificial Intelligence, Semantic Web, Knowledge Representation, Abstraction, Explanation. / A fim de responderem as consultas realizadas pelas pessoas na web, agentes inteligentes utilizam um mecanismo de raciocínio para processar as informações e acessar os serviços disponíveis na web. Todos os passos desse raciocínio formam uma prova e as informações dessas provas auxiliam nas explicações dos resultados aos usuários. Entretanto, essas provas, geradas por raciocinadores automáticos, não estão prontas para serem exibidas a pessoas e precisam ser transformadas e simplificadas em explicações mais próximas da linguagem das pessoas. Nesta dissertação, apresentamos uma arquitetura de abstração de provas para torná-las apropriadas para explicações para pessoas. Essa arquitetura utiliza padrões de abstração, que são fragmentos de provas que podem ser substituídos por regras com um significado maior para as pessoas. A nossa abordagem de abstração consiste em uma extensão do algoritmo IWAbstractor, desenvolvido por pesquisadores da universidade de Stanford, que juntamente com um conjunto de estratégias é utilizado para abstrair provas utilizando os padrões de abstração. Dessa forma, as provas geradas por raciocinadores automáticos tornam-se mais simples e compreensíveis para pessoas. Palavras-chave: Inteligência Artificial, Web Semântica, Representação de Conhecimento, Abstração, Explicação.
16

Xplains : uma abordagem para geração de explicações de fluxos de serviços web semânticos

Fernandes, Carlos Gustavo Oliveira 07 July 2008 (has links)
Made available in DSpace on 2019-03-29T23:12:45Z (GMT). No. of bitstreams: 0 Previous issue date: 2008-07-07 / With the advent of the Semantic Web, the process of answering user queries on the Web requires more and more interaction between a person and an intelligent agent. To answer these queries, agents must search for semantic Web services (SWS) available on the Web and if necessary, compose them to get a result for the user. Besides the result of their queries, users need to understand how the solution was produced before they can trust and depend on these solutions. They need explanations that describe the SWS flow and the inference steps performed to produce a specific result. For this work, we present a system called XPlainS that automatically generates an infra-structure to provide explanations of SWS, which is domain free. Our approach involves a strategy to generate rules used to represent explanations of SWS execution. We prove the feasibility and present the advantages of our approach by comparing explanations generated by XPlainS with explanations generated by systems that require extensive knowledge of the domain, and through an evaluation performed through tests applied to users. Keywords: Artificial Intelligence, Knowledge Representation, Semantic Web, Web Services, Semantic Web Services, Explanation. / Com a evolução da Web Semântica, o processo de realizar consultas na Web torna-se cada vez mais um processo interativo entre uma pessoa e um agente inteligente. Para responder a essas consultas os agentes devem buscar serviços disponíveis (SWS) na Web e se necessário fazer uma composição entre esses serviços para conseguir o resultado para a consulta do usuário. Além do resultado da consulta, os usuários precisam entender como a solução foi produzida antes que possam confiar e depender dessa solução. Eles precisam de explicações que descrevam o fluxo de SWS e os passos de inferência que foram seguidos para produzir um resultado particular. Neste trabalho definimos um sistema chamado XPlainS que automaticamente gera uma infra-estrutura para prover explicações de serviços Web semânticos e que é livre de domínio. Nossa abordagem envolve uma estratégia para geração de regras usadas para representar explicações de execução de SWS. Mostramos a factibilidade e as vantagens de nossa abordagem pela comparação de explicações geradas por XPlainS com explicações geradas por sistemas que requerem conhecimento extensivo de domínio, e através de uma avaliação realizada por meio de testes da ferramenta com usuários. Palavras-chave: Inteligência Artificial, Representação do Conhecimento, Web Semântica, Serviços Web, Serviços Web Semânticos, Explicação.
17

Semantic data services : uma abordagem para acesso e manipulação de dados interligados / Semantic Data Services: An approach to access and manipulate Linked Data (Inglês)

Lira, Hermano Albuquerque 16 December 2014 (has links)
Made available in DSpace on 2019-03-29T23:42:35Z (GMT). No. of bitstreams: 0 Previous issue date: 2014-12-16 / Linked Data is a kind of data that is available on the Web and adopt the Resource Description Framework (RDF) model to represent their structures. Linked Data also adopts the Web Ontology Language (OWL) to assign a formal semantics to these structures. Often such data can be accessed by Web Services, such as the SPARQL Services, the Linked Data Services (LIDS) and Linked Data Platform (LDP). However, not all of these approaches have support to writing, what makes it impossible to update the databases in these services. Even in the approaches that support writing, the data integrity checking mechanisms are limited, or nonexistent. In this work, we propose the Semantic Data Services (SDS), an approach to building RESTful Data Services with writeable Linked Data support and integrity constraint check support. This approach takes the RESTful Semantic Interface (SERIN) specification for building service descriptors. These interfaces define what type of data is provided and what operations are allowed on SDS services. A key differentiator of SDS approach is that while other approaches adopt the Open World Assumption (OWA), the SDS adopts the Local Closed World Assumption (LCWA). For supporting LCWA, the SDS extended SERIN specification, adding a new set of annotations that define integrity constraint rules on data. A typical characteristic of OWA is that the domain of data is always considered incomplete. This implies that the databases of services based on that assumption does not have a well-defined schema. This characteristic makes it difficult to implement a data integrity constraint mechanism for such services. On the other hand, in the SDS approach, the new annotations added in SERIN specification act as markers that tell to SDS service what types of data should be interpreted according to the LCWA. Our approach allow defining which data may, or may not, be inserted into the base. It is possible to identify incomplete or inconsistent data, according to integrity rules defined via these new annotations. In general, SDS approach helps to establish the domain of knowledge in a RDF graph store. Keywords: Data Services; Linked Data; SERIN; Integrity Constraint Check. / Dados interligados (Linked Data) são dados disponibilizados na Web que adotam o modelo RDF (Resource Description Framework) para representar suas estruturas e a linguagem OWL (Web Ontology Language) para atribuir uma semântica formal a essas estruturas. Frequentemente tais dados podem ser acessados por serviços Web, como por exemplo os serviços SPARQL, os serviços de dados interligados (LInked Data Services - LIDS) e os serviços LDP (Linked Data Platform). Contudo, nem todas essas abordagens possuem suporte à escrita. O que impossibilita a atualização das bases de dados desses serviços por seus clientes. Mesmo nas abordagens com suporte à escrita, são limitados ou inexistentes os mecanismos de verificação de integridade de dados. Neste trabalho, propomos os serviços de dados semânticos (Semantic Data Services - SDS), uma abordagem para construção de serviços RESTful provedores de dados interligados com suporte à escrita e a verificação de integridade. Essa abordagem adota a especificação SERIN (Semantic RESTful Interface) para a construção de interfaces descritoras de serviços. Tais interfaces definem que tipos de dados são providos e quais operações permitidas nos serviços SDS. Um importante diferencial da abordagem SDS é que enquanto as outras abordagens adotam a suposição de mundo aberto, o SDS adota a suposição de mundo fechado localmente. Para o SDS suportar essa suposição, estendeu-se a especificação SERIN, adicionando um conjunto de anotações que definem regras de restrição de integridade sobre os dados. Uma característica típica da suposição de mundo aberto é que o domínio de conhecimento dos dados é sempre considerado incompleto. Isso implica que as bases de dados de serviços baseados nessa suposição não possuem um esquema bem definido. Essa característica dificulta a implementação de mecanismos de verificação de integridade de dados para tais serviços. Por outro lado, na abordagem SDS as novas anotações adicionadas à especificação SERIN atuam como marcadores que informam ao serviço SDS que tipos de dados devem ser interpretados segundo a suposição de mundo fechado localmente. Isso permite definir formalmente que dados podem, ou não, ser inseridos na base. É possível identificar dados incompletos ou inconsistentes de acordo com regras de integridade definidas via essas novas anotações. De maneira geral, a abordagem SDS contribui para delimitar com precisão o domínio de conhecimento de uma base de dados interligados. Palavras-chave: Serviços de acesso a dados; Dados interligados; interface SERIN; Verificação de restrições de integridade.
18

Modelo computacional de recuperação da informação para repositórios digitais utilizando ontologias / Computational model of information retrieval for digital repositories using ontologies

Coneglian, Caio Saraiva [UNESP] 17 February 2017 (has links)
Submitted by CAIO SARAIVA CONEGLIAN null (caio.coneglian@gmail.com) on 2017-03-10T11:40:59Z No. of bitstreams: 1 Versão Dissertação Encadernação.pdf: 2439243 bytes, checksum: 80435178437ba65e3d64b2c9d4022b74 (MD5) / Approved for entry into archive by Juliano Benedito Ferreira (julianoferreira@reitoria.unesp.br) on 2017-03-13T20:14:15Z (GMT) No. of bitstreams: 1 coneglian_cs_me_mar.pdf: 2439243 bytes, checksum: 80435178437ba65e3d64b2c9d4022b74 (MD5) / Made available in DSpace on 2017-03-13T20:14:15Z (GMT). No. of bitstreams: 1 coneglian_cs_me_mar.pdf: 2439243 bytes, checksum: 80435178437ba65e3d64b2c9d4022b74 (MD5) Previous issue date: 2017-02-17 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP) / A evolução das Tecnologias da Informação e Comunicação causaram um aumento exponencial na produção e disseminação de dados na Internet. Dentre estas informações, inclui-se a produção científica que vive hoje um momento de transição, em que os documentos deixaram de ser apenas publicados em livros e revistas impressas e passaram a se espalhar pela rede. A partir disto, surgiu uma nova tecnologia chamada de repositórios digitais, em que são armazenados documentos em diversos formatos. Junto com o surgimento dos repositórios digitais, cresceu o desafio da recuperação destes documentos de maneira eficiente, ou seja, como a máquina poderá compreender o que o usuário procura, para fornecer os documentos que este usuário necessita. Neste âmbito, a Web Semântica surgiu visando possibilitar com que os computadores consigam compreender o contexto em que as informações criadas pelos usuários se encontram, tendo em suas ferramentas a base para tornar tal propósito real. No contexto dos repositórios digitais, esta pesquisa tem como objetivo aprimorar o processo de recuperação de informação nesses ambientes informacionais por meio da utilização do conceito de representações semânticas no uso de ontologias de domínio, que permita uma maior aderência na intersecção entre os itens bibliográficos e as necessidades informacionais dos usuários. Para atingir tais objetivos, utilizou-se uma metodologia de natureza quantitativa, em que se criou um modelo utilizando conceitos e tecnologias da Web Semântica para contextualizar o domínio da busca realizada pelo usuário. Como resultados, verificou-se que as relações das ontologias podem ser extraídas com eficiência por meio de um motor de geração de consultas SPARQL, que consegue localizar um termo na ontologia, bem como extrair as relações desse termo. Além disso, foram traçadas as ações que as propriedades do OWL devem possuir, no âmbito da recuperação da informação, para que assim possam ser identificadas com maior precisão as relações que um termo de busca possui frente a uma ontologia, permitindo a geração de uma nova expressão de busca, contendo um maior número de argumentos. Outro resultado obtido, diz respeito a interoperabilidade em repositórios digitais, que possibilitou identificar a integração e a recuperação dos metadados dos documentos dos repositórios digitais e a ferramenta tratando das questões semânticas. O trabalho propôs a interatividade na escolha das fontes informacionais, em que o usuário escolhe os repositórios em que seria realizada a busca, bem como cadastrar um repositório, caso este não tenha sido utilizado anteriormente. Conclui-se que a inserção de semântica em processos de recuperação de informação pode ocorrer por meio do modelo proposto, que se baseia essencialmente nas tecnologias e nos conceitos da Web Semântica, especialmente as ontologias, como um artefato capaz de explicitar o contexto em que os termos se encontram. / The evolution of Information and Communication Technologies has caused an exponential increase in the production and dissemination of data on the Internet. Among these data, we include the scientific production that is now in a moment of transition, in which the documents are no longer only published in printed books and magazines, and are now spread throughout the network. From this, a new technology has emerged called digital repositories, in which documents are stored in various formats. Along with the emergence of digital repositories, the challenge of recovering these documents has grown in an efficient way, i.e., how the machine can understand what the user is looking for, to provide the documents that this user needs. In this context, the Semantic Web came about in order to enable computers to understand the context in which the information created by the users meet, having in their tools the basis to make such a real purpose. In the context of Digital Repositories, this research aims to improve the Information Retrieval process in these informational environments through the use of the concept of semantic representations in the use of domain ontologies, which allows greater adherence at the intersection between bibliographic items and Information needs of users. In order to achieve these objectives, a quantitative methodology was used, in which a digital repositories interoperability model was created, using Semantic Web concepts and technologies to contextualize the search domain performed by the user. As results, it was verified that the relationships of the ontologies can be extracted efficiently by means of a SPARQL query engine, that is able to locate a term in the ontology, as well as to extract the relations of this term. In addition, we have outlined the actions that OWL properties must possess, in the context of Information Retrieval, so that the relationships that a search term has against an ontology can be identified more precisely, allowing the generation of a new Search expression, containing a greater number of arguments. Another result obtained concerns interoperability in digital repositories, which made it possible to identify the integration of the retrieval of the metadata of the digital repositories documents and the tool dealing with semantic issues. The work proposed the interactivity in the choice of informational sources, in which the user could choose the repositories in which the search would be carried out, as well as register a repository, if it had not previously been used. It is concluded that the insertion of semantics in Information Retrieval processes can occur through the proposed model, which is based essentially on the technologies and concepts of the Semantic Web, especially the ontologies, as an artifact capable of explaining the context in which the terms occur. / FAPESP: 2015/01517-2
19

Using a provenance model and spatiotemporal information to integrate heterogeneous biodiversity semantic data. / Usando um modelo de proveniência e informações espaço-temporais para integrar dados semânticos heterogêneos sobre biodiversidade

Flor Karina Mamani Amanqui 20 November 2017 (has links)
In the last few years, the Web of data is being rapidly populated with biodiversity data. However, when researchers need to retrieve, integrate, and visualize these data, they need to rely on semi-manual approaches. That is due to the fact that biodiversity repositories, such as GBIF, offer data as just strings in CSV format spreadsheets. There is no machine readable metadata that could add meaning (semantics) to data. Without this metadata, automatic solutions are impossible and labor intensive semi-manual approaches for data integration and visualization are unavoidable. To reduce this problem, we present a novel architecture, called STBioData, to automatically link spatiotemporal biodiversity data, from heterogeneous data sources, to enable easier searching, visualization and downloading of relevant data. It supports the generation of interactive maps and mapping between biodiversity data and ontologies describing them (such as Darwin Core, DBpedia, GeoSPARQL, Time and PROV-O). A new biodiversity provenance model (BioProv), extending the W3C PROV Data Model, was proposed. BioProv enables applications that deal with biodiversity data to incorporate provenance data in their information. A web based prototype, based on this architecture, was implemented. It supports biodiversity domain experts in tasks, such as identifying a species conservation status, by automating most of the necessary tasks. It uses collection data, from important Brazilian biodiversity research institutions, and species geographic distributions and conservation status, from the IUCN Red List of Threatened Species. These data are converted to linked data, enriched and saved as RDF Triples. Users can access the system, using a web interface, and search for collection and species distribution records based on species names, time ranges and geographic location. After a data set is recovered, it can be displayed in an interactive map. The records contents are also shown (including provenance data) together with links to the original records at GBIF and IUCN. Users can export datasets, as a CSV or RDF file, or get a print out in PDF (including the visualizations). Choosing different time ranges, users can, for instance, verify the evolution of a species distribution. The STBioData prototype was tested using use cases. For the tests, 46,211 collection records, from SpeciesLink, and 38,589 conservation status records (including maps), from IUCN, for marine mammal were converted to 2,233,782. RDF triples and linked using well known ontologies. 90% of biodiversity experts, using the tool to determine conservation status, were able to find information about dolphin species, with a satisfactory recovery time, and were able to understand the interactive map. In an information retrieval experiment, when compared with SpeciesLink keyword based search, the prototypes semantic based search performed, on average, 24% better in precision and 22% in recall tests. And that does not takes into account cases where only the prototype returned search results. These results demonstrate the value of having public available linked biodiversity data with semantics. / Nos últimos anos, a Web de dados está sendo rapidamente preenchida com dados de biodiversidade. No entanto, quando pesquisadores precisam recuperar, integrar e visualizar esses dados, eles precisam confiar em abordagens semi-manuais. Isso ocorre devido ao fato de que repositórios sobre biodiversidade, como GBIF, oferecem dados como cadeias de caracteres em planilhas no formato CSV. Não há nenhum metadado legível por máquinas que poderia acrescentar significado (semântico) aos dados. Sem os metadados, soluções automáticas são impossíveis, sendo necessário para visualização e integração dos dados, a utilização de abordagens semi-manuais. Para reduzir esse problema, apresentamos uma arquitetura chamada STBioData. Com ela é possível vincular automaticamente dados de biodiversidade, com informações espaço-temporais provenientes de fontes heterogêneas, tornando mais fácil a pesquisa, visualização e download dos dados relevantes. Ele suporta a geração de mapas interativos e o mapeamento entre dados de biodiversidade e ontologias que os descrevem (como Darwin Core, DBpedia, GeoSPARQL, Time e PROV-O). Foi proposto um novo modelo de proveniência para biodiversidade (BioProv), que estende o modelo de dados PROV W3C. BioProv permite que aplicativos que lidam com dados de biodiversidade incorporem os dados de proveniência em suas informações. Foi implementado um protótipo Web baseado nesta arquitetura. Ele oferece suporte aos especialistas do domínio de biodiversidade em tarefas como, identificação do status de conservação da espécie, além de automatizar a maioria das tarefas necessária. Foi utilizado coleções de dados de importantes pesquisas brasileiras sobre biodiversidade, juntamente com dados de distribuição geográfica das espécies e seu estado de conservação, provenientes da lista de espécies ameaçadas da IUCN (Red List). Esses dados são convertidos em dados conectados, enriquecidos e salvados como triplas RDF. Os usuários podem acessar o sistema, usando uma interface web que permite procurar, utilizando os nomes das espécies, intervalos de tempo e localização geográfica. Os dados recuperados podem ser visualizados no mapa interativo. O conteúdo de registros também é mostrado (incluindo dados de proveniência), juntamente com links para os registros originais no GBIF e IUCN. Os usuários podem exportar o conjunto de dados, como um arquivo CSV ou RDF, ou salvar em PDF (incluindo as visualizações). Escolhendo diferentes intervalos de tempo, os usuários podem por exemplo, verificar a evolução da distribuição das espécies. O protótipo STBioData foi testado usando casos de uso. Para esses testes, 46.211 registros de coleção do SpeciesLink e 38.589 registros de estado de conservação da IUCN (incluindo mapas), sobre mamíferos marinhos, foram convertidos em 2.233.782 triplas RDF. Essas triplas reutilizam ontologias representativas da área . 90% dos especialistas em biodiversidade, usaram a ferramenta para determinar o estado de conservação, eles foram capaz de encontrar as informações sobre determinada espécie de golfinho, com um tempo de recuperação satisfatório e também foram capaz de entender o mapa interativo gerado. Em um experimento sobre recuperação de informações, quando comparado com o sistema de busca por palavra-chave utilizado pela base SpeciesLink, a busca semântica realizada pelo protótipo STBioData, em média, é 24% melhor em testes de precisão e 22% melhor em testes de revocação. Não são considerados os casos onde o protótipo somente retornou o resultado da busca. Esses resultados demonstram o valor de ter dados conectados sobre biodiversidade disponíveis publicamente em um formato semântico.
20

Sistema web semi-automático para anotação colaborativa de média H.264 e flash vídeo

Neves, Luís Alberto de Sousa Rangel das January 2010 (has links)
Estágio realizado na ClusterMedia Labs e orientado pelo Eng.º Vítor M. Coutinho Soares / Tese de mestrado integrado. Engenharia Electrotécnica e de Computadores (Major em Telecomunicações). Faculdade de Engenharia. Universidade do Porto. 2010

Page generated in 0.0695 seconds