• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1119
  • 33
  • 31
  • 31
  • 31
  • 29
  • 26
  • 9
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • 3
  • Tagged with
  • 1172
  • 319
  • 291
  • 290
  • 172
  • 169
  • 164
  • 156
  • 138
  • 132
  • 121
  • 113
  • 97
  • 94
  • 93
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Verbos psicologicos : a relevancia dos papeis tematicos vistos sob a otica de uma semantica representacional

Cançado, Marcia 09 June 1995 (has links)
Orientador: Carlos Franchi / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Estudos da Linguagem / Made available in DSpace on 2018-07-20T06:13:13Z (GMT). No. of bitstreams: 1 Cancado_Marcia_D.pdf: 27525422 bytes, checksum: 78fa1f65b87d3b222e11e38cd8c031bc (MD5) Previous issue date: 1995 / Resumo: Este trabalho tem como foco principal de investigação as Relações Temáticas. A hipótese central é que o conteúdo semântico dessas relações tem relevância para a Teoria Gramatical. Como domínio empírico. Fizemos o estudo da Seleção Argumental e Diátese dos verbos chamados Psicológicos. Este trabalho baseia-se na linha de uma semântica representacional como a adotada por Jackendoff (1983~,1987a e b, 1990) e Franchi (1975) e baseia-se também em alguns aspectos metodológicos do trabalho de Dowty (1989-1991). Com os resultados empíricos obtidos nesta pesquisa, esperamos ter colaborado para a elaboração de algumas das idéias da Teoria Generalizada dos Papéis Temáticos aqui apresentada (formulação geral em andamento (Franchi). O nosso quadro teórico concebe as relações temáticas como uma representação do real. e como sendo fundamental para a estruturação das expressões lingüísticas. Estabelece-se o estatuto dos papéis temáticos como funções deriváveis das relações predicativas e não como noções primitivas. Esses papéis são definidos semanticamente via acarretamentos lexicais. A estruturação das relações temáticas e sua projeção sintática obedecem a regras de correspondência, dentre as quais o Princípio de Hierarquia Temática. Assumimos. ainda. que a interpretação categorial das estruturas lexico-conceituais está fortemente restrita ao Princípio de Projeção, na versão de Chomsky (1986), em que a manifestação dos papéis temáticos dependerá do Princípio da Visibilidade associado ao Critério-Theta / Abstract: This dissertation has Thematic Relations as the principal focus of the investigation. The central hypothesis is: the semantic content of thematic relations is relevant for the grammatical theory. As an empirical strategy, we have studied the Argument Selection and the Verbal Diathesis of Psychological Verbs. This research is based on a representational semantics as the one adapted by Jackendoff (1983, 1987a e b, 1990) and Franchi (1975). Also we introduce some methodological aspects of Dowty's work (1989, 1991). We hope the empirical results of this reseach have collaborated io the development of some ideas of "Generalized Theory of Thematic Roles" presented here (general formulation in deveIopment by Franchi). The theory presents thematic reIations as a representation of the "real word". Furthermore, it fixes the status of thematic relations as derived functions of the predicative reIations, and not as primitive notions. The thematic roles are defined via Iexical eotailments. The structuring of thematic relations and their syntactic projection obey correspondence ruIes, included the Thematic Hierarchy PrincipIe. We assume that the categorial interpretation of these Iexicalconceptual structures is restricted to the Projection PrincipIe in the Chomsky (1986) version, which the theta-roles manifestation depends on the VisibiIity PrincipIe associated with the Theta-Criterion / Doutorado / Linguistica / Doutor em Ciências
112

Using a provenance model and spatiotemporal information to integrate heterogeneous biodiversity semantic data. / Usando um modelo de proveniência e informações espaço-temporais para integrar dados semânticos heterogêneos sobre biodiversidade

Amanqui, Flor Karina Mamani 20 November 2017 (has links)
In the last few years, the Web of data is being rapidly populated with biodiversity data. However, when researchers need to retrieve, integrate, and visualize these data, they need to rely on semi-manual approaches. That is due to the fact that biodiversity repositories, such as GBIF, offer data as just strings in CSV format spreadsheets. There is no machine readable metadata that could add meaning (semantics) to data. Without this metadata, automatic solutions are impossible and labor intensive semi-manual approaches for data integration and visualization are unavoidable. To reduce this problem, we present a novel architecture, called STBioData, to automatically link spatiotemporal biodiversity data, from heterogeneous data sources, to enable easier searching, visualization and downloading of relevant data. It supports the generation of interactive maps and mapping between biodiversity data and ontologies describing them (such as Darwin Core, DBpedia, GeoSPARQL, Time and PROV-O). A new biodiversity provenance model (BioProv), extending the W3C PROV Data Model, was proposed. BioProv enables applications that deal with biodiversity data to incorporate provenance data in their information. A web based prototype, based on this architecture, was implemented. It supports biodiversity domain experts in tasks, such as identifying a species conservation status, by automating most of the necessary tasks. It uses collection data, from important Brazilian biodiversity research institutions, and species geographic distributions and conservation status, from the IUCN Red List of Threatened Species. These data are converted to linked data, enriched and saved as RDF Triples. Users can access the system, using a web interface, and search for collection and species distribution records based on species names, time ranges and geographic location. After a data set is recovered, it can be displayed in an interactive map. The records contents are also shown (including provenance data) together with links to the original records at GBIF and IUCN. Users can export datasets, as a CSV or RDF file, or get a print out in PDF (including the visualizations). Choosing different time ranges, users can, for instance, verify the evolution of a species distribution. The STBioData prototype was tested using use cases. For the tests, 46,211 collection records, from SpeciesLink, and 38,589 conservation status records (including maps), from IUCN, for marine mammal were converted to 2,233,782. RDF triples and linked using well known ontologies. 90% of biodiversity experts, using the tool to determine conservation status, were able to find information about dolphin species, with a satisfactory recovery time, and were able to understand the interactive map. In an information retrieval experiment, when compared with SpeciesLink keyword based search, the prototypes semantic based search performed, on average, 24% better in precision and 22% in recall tests. And that does not takes into account cases where only the prototype returned search results. These results demonstrate the value of having public available linked biodiversity data with semantics. / Nos últimos anos, a Web de dados está sendo rapidamente preenchida com dados de biodiversidade. No entanto, quando pesquisadores precisam recuperar, integrar e visualizar esses dados, eles precisam confiar em abordagens semi-manuais. Isso ocorre devido ao fato de que repositórios sobre biodiversidade, como GBIF, oferecem dados como cadeias de caracteres em planilhas no formato CSV. Não há nenhum metadado legível por máquinas que poderia acrescentar significado (semântico) aos dados. Sem os metadados, soluções automáticas são impossíveis, sendo necessário para visualização e integração dos dados, a utilização de abordagens semi-manuais. Para reduzir esse problema, apresentamos uma arquitetura chamada STBioData. Com ela é possível vincular automaticamente dados de biodiversidade, com informações espaço-temporais provenientes de fontes heterogêneas, tornando mais fácil a pesquisa, visualização e download dos dados relevantes. Ele suporta a geração de mapas interativos e o mapeamento entre dados de biodiversidade e ontologias que os descrevem (como Darwin Core, DBpedia, GeoSPARQL, Time e PROV-O). Foi proposto um novo modelo de proveniência para biodiversidade (BioProv), que estende o modelo de dados PROV W3C. BioProv permite que aplicativos que lidam com dados de biodiversidade incorporem os dados de proveniência em suas informações. Foi implementado um protótipo Web baseado nesta arquitetura. Ele oferece suporte aos especialistas do domínio de biodiversidade em tarefas como, identificação do status de conservação da espécie, além de automatizar a maioria das tarefas necessária. Foi utilizado coleções de dados de importantes pesquisas brasileiras sobre biodiversidade, juntamente com dados de distribuição geográfica das espécies e seu estado de conservação, provenientes da lista de espécies ameaçadas da IUCN (Red List). Esses dados são convertidos em dados conectados, enriquecidos e salvados como triplas RDF. Os usuários podem acessar o sistema, usando uma interface web que permite procurar, utilizando os nomes das espécies, intervalos de tempo e localização geográfica. Os dados recuperados podem ser visualizados no mapa interativo. O conteúdo de registros também é mostrado (incluindo dados de proveniência), juntamente com links para os registros originais no GBIF e IUCN. Os usuários podem exportar o conjunto de dados, como um arquivo CSV ou RDF, ou salvar em PDF (incluindo as visualizações). Escolhendo diferentes intervalos de tempo, os usuários podem por exemplo, verificar a evolução da distribuição das espécies. O protótipo STBioData foi testado usando casos de uso. Para esses testes, 46.211 registros de coleção do SpeciesLink e 38.589 registros de estado de conservação da IUCN (incluindo mapas), sobre mamíferos marinhos, foram convertidos em 2.233.782 triplas RDF. Essas triplas reutilizam ontologias representativas da área . 90% dos especialistas em biodiversidade, usaram a ferramenta para determinar o estado de conservação, eles foram capaz de encontrar as informações sobre determinada espécie de golfinho, com um tempo de recuperação satisfatório e também foram capaz de entender o mapa interativo gerado. Em um experimento sobre recuperação de informações, quando comparado com o sistema de busca por palavra-chave utilizado pela base SpeciesLink, a busca semântica realizada pelo protótipo STBioData, em média, é 24% melhor em testes de precisão e 22% melhor em testes de revocação. Não são considerados os casos onde o protótipo somente retornou o resultado da busca. Esses resultados demonstram o valor de ter dados conectados sobre biodiversidade disponíveis publicamente em um formato semântico.
113

Anotação de papéis semânticos em textos para apoiar a investigação policial utilizando semântica de frames / SEMANTIC ROLE LABELLING IN TEXTS TO SUPPORT POLICE INVESTIGATION USING SEMANTIC FRAMES (Inglês)

Barreira, Ravi Veloso 22 December 2016 (has links)
Made available in DSpace on 2019-03-30T00:01:50Z (GMT). No. of bitstreams: 0 Previous issue date: 2016-12-22 / The forensic work is of extreme relevance for police investigation and important material evidence during the stage of criminal trial. Computer science forensic work mainly involves extracting and analyzing data from smartphone-type mobile devices that are seized at crime scenes or in search and seizure operations. The Forensic Departments, however, can not meet the demand due to the growing number of requests and the volume of data and texts to analyze. The problem lies partly in the forensic tools used to analyze mobile instant messaging, which have low reliability in their results, and the dynamic nature of the linguistic expressions used by the suspects. This work proposes a methodology for automatic identification of messages of police interest using techniques of Natural Language Processing (PLN), specifically Semantic Role Labeling (SRL). The methodology is based on the semantics of frames that defines linguistic situations and the semantic roles involved. For example, it is possible to identify not only that a message contains terms that indicate a crime (drug trafficking) but also the elements involved in the crime (such as the drug marketed, the place of sale, the amounts involved etc.). Another contribution of the work was the definition of a database of forensic semantic frames - FrameFor.BR, generated from FrameNet. Experimental evaluations of the system and the FrameFor.BR base evidenced an increase in coverage in relation to the current approaches used by forensic experts, contributing to improve reliability and reduce the time required for compiling computer expert reports. Keywords: Computer forensic, FrameNet, natural language processing, mobile devices. / O trabalho pericial é de extrema relevância para investigação policial e importante prova material durante a etapa de processo penal. A perícia de computação envolve, principalmente, a extração e análise de dados de dispositivos móveis do tipo smartphones que são apreendidos em locais de crime ou em operações de busca e apreensão. Os institutos de perícias, porém, não conseguem atender à demanda devido à crescente quantidade de solicitações e ao volume de dados e textos para analisar. O problema está, em parte, nas ferramentas forenses utilizadas para análise de mensagens instantâneas de dispositivos móveis, as quais apresentam baixa confiabilidade em seus resultados, além do caráter dinâmico das expressões linguísticas utilizadas pelos suspeitos, sendo necessária a completa leitura do material analisado, pelos peritos. Esse trabalho propõe uma metodologia para identificação automática de mensagens de interesse policial através do uso de técnicas de Processamento de Linguagem Natural (PLN), especificamente de anotação de papeis semânticos (em inglês, Semantic Role Labeling - SRL). A metodologia é baseada na semântica de frames que define situações linguísticas e os papéis semânticos envolvidos. Por exemplo, é possível identificar não somente que uma mensagem contém termos que indiciam um crime (tráfico de drogas) mas também os elementos envolvidos no crime (como a droga comercializada, local da venda, valores envolvidos etc). Outra contribuição do trabalho, foi a definição de uma base de frames semânticos forenses - FrameFor.BR, gerada a partir da FrameNet. Avaliações experimentais do sistema e da base FrameFor.BR evidenciaram um aumento na cobertura em relação as atuais abordagens utilizadas pelos peritos forenses, contribuindo para melhoria da confiabilidade e na redução do tempo necessário para elaboração de laudos periciais de informática. Palavras-chave: Computação forense, FrameNet, processamento de linguagem natural, dispositivos móveis.
114

Geração de painéis de controle a partir de redes complexas : uma arquitetura baseada em web semântica / GENERATION OF CONTROL PANELS FROM COMPLEX NETWORKS. A ARCHITECTURE BASED ON SEMANTIC WEB (Inglês)

Gomes, Victor Dantas 03 August 2017 (has links)
Made available in DSpace on 2019-03-30T00:08:49Z (GMT). No. of bitstreams: 0 Previous issue date: 2017-08-03 / Business Intelligence (BI) software stands out for its ability to collaborate in the processes of analyzing and understanding large volumes of data. Dashboards - are the typical platforms used for this purpose and there are a wide variety of BI software that allow the construction of these dashboards by data scientists not necessarily programming experts, such as: Qlik Sense, Pentaho, Tableau, Microstrategy, and others. Data analysis and understanding processes may require complex calculations of metrics on the data. Structured data in the form of complex networks can be analyzed and understood with the help of complex network metrics. However, data analysts may not have the knowledge necessary to implement algorithms and perform computations of complex network metrics. Although traditional software for handling complex networks such as Gephi, Pajek, and Hive Plots provide features that facilitate the analysis and calculation of network metrics, these software assumes a theoretical knowledge of the user about complex networks, and it is also up to the user to interpret the results of these metrics in relation to the domain of the analyzed data. About BI software and complex network manipulation tools, little has been done to support the non-programmer in the automatic construction of dashboards based on structured data in the form of complex networks. This work is inserted in this context, proposing a software architecture that contain structures capable of automatically generating dashboards from the input of structured data in the form of complex networks. To validate the proposed architecture, a tool was developed that implements this architecture and is able to support data scientists in the friendly construction of control panels from data that are structured in the form of networks. This tool, called SBINet (Semantic for Business Intelligence from Networks), has a semantic layer that, through ontologies, describes the datasets structured in a network way, to describe metrics that can be calculated from the information contained in the datasets. The use of SBINet is exemplified with data from the network using a shared bicycle system. SBINet has created a set of control panels containing the results of calculating metrics made from user-supplied datasets. The SBINet and the control panels generated by it were evaluated by a group of transport professionals and researchers and systems analysts. Keywords: Complex Networks, Web Semantic, Dashboards, Business Intelligence. / As ferramentas de Business Intelligence - BI - se destacaram pela capacidade de colaborar nos processos de análise e compreensão de grandes volumes de dados. Painéis de controle - dashboards - são as plataformas típicas usadas para esse fim e há uma grande variedade de ferramentas de BI que permitem a construção destes painéis de controle por cientistas de dados não necessariamente especialistas em programação, tais como: Qlik Sense, Pentaho, Tableau, Microstrategy, entre outros. Os processos de análise e compreensão de dados podem exigir cálculos complexos de métricas e indicadores sobre os dados. Dados estruturados na forma de redes complexas podem ser analisados e compreendidos com o auxílio de propriedades de redes complexas. Contudo, analistas de dados podem não possuir os conhecimentos necessários para a implementação de algoritmos e a realização dos cálculos de propriedades de redes complexas. Apesar das ferramentas tradicionais de manuseio de redes complexas como Gephi, Pajek, e Hive Plots disponibilizarem funcionalidades que facilitam a análise e o cálculo de propriedades de redes, estas ferramentas pressupõem um conhecimento teórico do usuário sobre redes complexas, cabendo ainda ao usuário interpretar os resultados dos cálculos destas propriedades em relação ao domínio dos dados analisados. A despeito das ferramentas de BI e das ferramentas de manuseio de redes complexas, pouco foi feito para apoiar ao usuário não-programador na construção automática de painéis de controle baseados em dados estruturados na forma de redes complexas. Este trabalho se insere neste contexto, propondo uma arquitetura de software que contêm estruturas capazes de gerar automaticamente painéis de controle a partir da entrada de dados estruturados na forma de redes complexas. Para validar a arquitetura proposta foi desenvolvida uma ferramenta que implementa esta arquitetura e que é capaz de apoiar cientistas de dados na construção, de forma amigável, de painéis de controle a partir de dados que são representados como redes. Esta ferramenta, chamada SBINet (Semantic for Business Intelligence from Networks), possui uma camada semântica que, através de ontologias, descreve os datasets estruturados em forma de rede. O SBINet utiliza esta descrição para descobrir indicadores que podem ser calculados a partir das informações contidas nos datasets. As propriedades da rede são calculadas no SBINet e, em função do significado de cada métrica usada neste cálculo, indicadores específicos são construídos e visualizados em forma de gráficos. O uso do SBINet é exemplificado com dados da rede de uso de um sistema de bicicletas compartilhadas. O SBINet criou um conjunto de painéis de controle contendo os resultados dos cálculos de indicadores feitos a partir dos datasets fornecidos pelo usuário. O SBINet e os painéis de controle gerados por ele foram avaliados por um conjunto de profissionais e pesquisadores da área de mobilidade urbana e tecnologia da informação. Palavras-chave: Redes Complexas, Web Semântica, Painéis de Controle, Business Intelligence.
115

Abstração de provas para explicação na web

Carvalho, Juliana de Oliveira 07 July 2008 (has links)
Made available in DSpace on 2019-03-29T23:12:39Z (GMT). No. of bitstreams: 0 Previous issue date: 2008-07-07 / In order to answer queries to human users on the web, intelligent agents use a reasoning mechanism to process information and access services available on the web. Every step of this reasoning process form a proof and the information presented in these proofs facilitate generating explanations from proofs on the web. However, these automatic generated proofs are not ready to be presented to human users and they need to be transformed and simplified into explanations closer to human language. In this dissertation, we present an architecture for abstracting proofs in order to make them more appropriate for human explanation. This architecture uses abstraction patterns, which are proof fragments that can be replaced by rules that are more meaningful for people. Our abstraction approach consists of using the IWAbstractor algorithm, which has been developed by researchers of Stanford University, along with a set of strategies to abstract automatic generated proofs using abstraction patterns. This way, proofs become simpler and more comprehensible for people. Keywords: Artificial Intelligence, Semantic Web, Knowledge Representation, Abstraction, Explanation. / A fim de responderem as consultas realizadas pelas pessoas na web, agentes inteligentes utilizam um mecanismo de raciocínio para processar as informações e acessar os serviços disponíveis na web. Todos os passos desse raciocínio formam uma prova e as informações dessas provas auxiliam nas explicações dos resultados aos usuários. Entretanto, essas provas, geradas por raciocinadores automáticos, não estão prontas para serem exibidas a pessoas e precisam ser transformadas e simplificadas em explicações mais próximas da linguagem das pessoas. Nesta dissertação, apresentamos uma arquitetura de abstração de provas para torná-las apropriadas para explicações para pessoas. Essa arquitetura utiliza padrões de abstração, que são fragmentos de provas que podem ser substituídos por regras com um significado maior para as pessoas. A nossa abordagem de abstração consiste em uma extensão do algoritmo IWAbstractor, desenvolvido por pesquisadores da universidade de Stanford, que juntamente com um conjunto de estratégias é utilizado para abstrair provas utilizando os padrões de abstração. Dessa forma, as provas geradas por raciocinadores automáticos tornam-se mais simples e compreensíveis para pessoas. Palavras-chave: Inteligência Artificial, Web Semântica, Representação de Conhecimento, Abstração, Explicação.
116

Xplains : uma abordagem para geração de explicações de fluxos de serviços web semânticos

Fernandes, Carlos Gustavo Oliveira 07 July 2008 (has links)
Made available in DSpace on 2019-03-29T23:12:45Z (GMT). No. of bitstreams: 0 Previous issue date: 2008-07-07 / With the advent of the Semantic Web, the process of answering user queries on the Web requires more and more interaction between a person and an intelligent agent. To answer these queries, agents must search for semantic Web services (SWS) available on the Web and if necessary, compose them to get a result for the user. Besides the result of their queries, users need to understand how the solution was produced before they can trust and depend on these solutions. They need explanations that describe the SWS flow and the inference steps performed to produce a specific result. For this work, we present a system called XPlainS that automatically generates an infra-structure to provide explanations of SWS, which is domain free. Our approach involves a strategy to generate rules used to represent explanations of SWS execution. We prove the feasibility and present the advantages of our approach by comparing explanations generated by XPlainS with explanations generated by systems that require extensive knowledge of the domain, and through an evaluation performed through tests applied to users. Keywords: Artificial Intelligence, Knowledge Representation, Semantic Web, Web Services, Semantic Web Services, Explanation. / Com a evolução da Web Semântica, o processo de realizar consultas na Web torna-se cada vez mais um processo interativo entre uma pessoa e um agente inteligente. Para responder a essas consultas os agentes devem buscar serviços disponíveis (SWS) na Web e se necessário fazer uma composição entre esses serviços para conseguir o resultado para a consulta do usuário. Além do resultado da consulta, os usuários precisam entender como a solução foi produzida antes que possam confiar e depender dessa solução. Eles precisam de explicações que descrevam o fluxo de SWS e os passos de inferência que foram seguidos para produzir um resultado particular. Neste trabalho definimos um sistema chamado XPlainS que automaticamente gera uma infra-estrutura para prover explicações de serviços Web semânticos e que é livre de domínio. Nossa abordagem envolve uma estratégia para geração de regras usadas para representar explicações de execução de SWS. Mostramos a factibilidade e as vantagens de nossa abordagem pela comparação de explicações geradas por XPlainS com explicações geradas por sistemas que requerem conhecimento extensivo de domínio, e através de uma avaliação realizada por meio de testes da ferramenta com usuários. Palavras-chave: Inteligência Artificial, Representação do Conhecimento, Web Semântica, Serviços Web, Serviços Web Semânticos, Explicação.
117

Semantic data services : uma abordagem para acesso e manipulação de dados interligados / Semantic Data Services: An approach to access and manipulate Linked Data (Inglês)

Lira, Hermano Albuquerque 16 December 2014 (has links)
Made available in DSpace on 2019-03-29T23:42:35Z (GMT). No. of bitstreams: 0 Previous issue date: 2014-12-16 / Linked Data is a kind of data that is available on the Web and adopt the Resource Description Framework (RDF) model to represent their structures. Linked Data also adopts the Web Ontology Language (OWL) to assign a formal semantics to these structures. Often such data can be accessed by Web Services, such as the SPARQL Services, the Linked Data Services (LIDS) and Linked Data Platform (LDP). However, not all of these approaches have support to writing, what makes it impossible to update the databases in these services. Even in the approaches that support writing, the data integrity checking mechanisms are limited, or nonexistent. In this work, we propose the Semantic Data Services (SDS), an approach to building RESTful Data Services with writeable Linked Data support and integrity constraint check support. This approach takes the RESTful Semantic Interface (SERIN) specification for building service descriptors. These interfaces define what type of data is provided and what operations are allowed on SDS services. A key differentiator of SDS approach is that while other approaches adopt the Open World Assumption (OWA), the SDS adopts the Local Closed World Assumption (LCWA). For supporting LCWA, the SDS extended SERIN specification, adding a new set of annotations that define integrity constraint rules on data. A typical characteristic of OWA is that the domain of data is always considered incomplete. This implies that the databases of services based on that assumption does not have a well-defined schema. This characteristic makes it difficult to implement a data integrity constraint mechanism for such services. On the other hand, in the SDS approach, the new annotations added in SERIN specification act as markers that tell to SDS service what types of data should be interpreted according to the LCWA. Our approach allow defining which data may, or may not, be inserted into the base. It is possible to identify incomplete or inconsistent data, according to integrity rules defined via these new annotations. In general, SDS approach helps to establish the domain of knowledge in a RDF graph store. Keywords: Data Services; Linked Data; SERIN; Integrity Constraint Check. / Dados interligados (Linked Data) são dados disponibilizados na Web que adotam o modelo RDF (Resource Description Framework) para representar suas estruturas e a linguagem OWL (Web Ontology Language) para atribuir uma semântica formal a essas estruturas. Frequentemente tais dados podem ser acessados por serviços Web, como por exemplo os serviços SPARQL, os serviços de dados interligados (LInked Data Services - LIDS) e os serviços LDP (Linked Data Platform). Contudo, nem todas essas abordagens possuem suporte à escrita. O que impossibilita a atualização das bases de dados desses serviços por seus clientes. Mesmo nas abordagens com suporte à escrita, são limitados ou inexistentes os mecanismos de verificação de integridade de dados. Neste trabalho, propomos os serviços de dados semânticos (Semantic Data Services - SDS), uma abordagem para construção de serviços RESTful provedores de dados interligados com suporte à escrita e a verificação de integridade. Essa abordagem adota a especificação SERIN (Semantic RESTful Interface) para a construção de interfaces descritoras de serviços. Tais interfaces definem que tipos de dados são providos e quais operações permitidas nos serviços SDS. Um importante diferencial da abordagem SDS é que enquanto as outras abordagens adotam a suposição de mundo aberto, o SDS adota a suposição de mundo fechado localmente. Para o SDS suportar essa suposição, estendeu-se a especificação SERIN, adicionando um conjunto de anotações que definem regras de restrição de integridade sobre os dados. Uma característica típica da suposição de mundo aberto é que o domínio de conhecimento dos dados é sempre considerado incompleto. Isso implica que as bases de dados de serviços baseados nessa suposição não possuem um esquema bem definido. Essa característica dificulta a implementação de mecanismos de verificação de integridade de dados para tais serviços. Por outro lado, na abordagem SDS as novas anotações adicionadas à especificação SERIN atuam como marcadores que informam ao serviço SDS que tipos de dados devem ser interpretados segundo a suposição de mundo fechado localmente. Isso permite definir formalmente que dados podem, ou não, ser inseridos na base. É possível identificar dados incompletos ou inconsistentes de acordo com regras de integridade definidas via essas novas anotações. De maneira geral, a abordagem SDS contribui para delimitar com precisão o domínio de conhecimento de uma base de dados interligados. Palavras-chave: Serviços de acesso a dados; Dados interligados; interface SERIN; Verificação de restrições de integridade.
118

Modelo computacional de recuperação da informação para repositórios digitais utilizando ontologias / Computational model of information retrieval for digital repositories using ontologies

Coneglian, Caio Saraiva [UNESP] 17 February 2017 (has links)
Submitted by CAIO SARAIVA CONEGLIAN null (caio.coneglian@gmail.com) on 2017-03-10T11:40:59Z No. of bitstreams: 1 Versão Dissertação Encadernação.pdf: 2439243 bytes, checksum: 80435178437ba65e3d64b2c9d4022b74 (MD5) / Approved for entry into archive by Juliano Benedito Ferreira (julianoferreira@reitoria.unesp.br) on 2017-03-13T20:14:15Z (GMT) No. of bitstreams: 1 coneglian_cs_me_mar.pdf: 2439243 bytes, checksum: 80435178437ba65e3d64b2c9d4022b74 (MD5) / Made available in DSpace on 2017-03-13T20:14:15Z (GMT). No. of bitstreams: 1 coneglian_cs_me_mar.pdf: 2439243 bytes, checksum: 80435178437ba65e3d64b2c9d4022b74 (MD5) Previous issue date: 2017-02-17 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP) / A evolução das Tecnologias da Informação e Comunicação causaram um aumento exponencial na produção e disseminação de dados na Internet. Dentre estas informações, inclui-se a produção científica que vive hoje um momento de transição, em que os documentos deixaram de ser apenas publicados em livros e revistas impressas e passaram a se espalhar pela rede. A partir disto, surgiu uma nova tecnologia chamada de repositórios digitais, em que são armazenados documentos em diversos formatos. Junto com o surgimento dos repositórios digitais, cresceu o desafio da recuperação destes documentos de maneira eficiente, ou seja, como a máquina poderá compreender o que o usuário procura, para fornecer os documentos que este usuário necessita. Neste âmbito, a Web Semântica surgiu visando possibilitar com que os computadores consigam compreender o contexto em que as informações criadas pelos usuários se encontram, tendo em suas ferramentas a base para tornar tal propósito real. No contexto dos repositórios digitais, esta pesquisa tem como objetivo aprimorar o processo de recuperação de informação nesses ambientes informacionais por meio da utilização do conceito de representações semânticas no uso de ontologias de domínio, que permita uma maior aderência na intersecção entre os itens bibliográficos e as necessidades informacionais dos usuários. Para atingir tais objetivos, utilizou-se uma metodologia de natureza quantitativa, em que se criou um modelo utilizando conceitos e tecnologias da Web Semântica para contextualizar o domínio da busca realizada pelo usuário. Como resultados, verificou-se que as relações das ontologias podem ser extraídas com eficiência por meio de um motor de geração de consultas SPARQL, que consegue localizar um termo na ontologia, bem como extrair as relações desse termo. Além disso, foram traçadas as ações que as propriedades do OWL devem possuir, no âmbito da recuperação da informação, para que assim possam ser identificadas com maior precisão as relações que um termo de busca possui frente a uma ontologia, permitindo a geração de uma nova expressão de busca, contendo um maior número de argumentos. Outro resultado obtido, diz respeito a interoperabilidade em repositórios digitais, que possibilitou identificar a integração e a recuperação dos metadados dos documentos dos repositórios digitais e a ferramenta tratando das questões semânticas. O trabalho propôs a interatividade na escolha das fontes informacionais, em que o usuário escolhe os repositórios em que seria realizada a busca, bem como cadastrar um repositório, caso este não tenha sido utilizado anteriormente. Conclui-se que a inserção de semântica em processos de recuperação de informação pode ocorrer por meio do modelo proposto, que se baseia essencialmente nas tecnologias e nos conceitos da Web Semântica, especialmente as ontologias, como um artefato capaz de explicitar o contexto em que os termos se encontram. / The evolution of Information and Communication Technologies has caused an exponential increase in the production and dissemination of data on the Internet. Among these data, we include the scientific production that is now in a moment of transition, in which the documents are no longer only published in printed books and magazines, and are now spread throughout the network. From this, a new technology has emerged called digital repositories, in which documents are stored in various formats. Along with the emergence of digital repositories, the challenge of recovering these documents has grown in an efficient way, i.e., how the machine can understand what the user is looking for, to provide the documents that this user needs. In this context, the Semantic Web came about in order to enable computers to understand the context in which the information created by the users meet, having in their tools the basis to make such a real purpose. In the context of Digital Repositories, this research aims to improve the Information Retrieval process in these informational environments through the use of the concept of semantic representations in the use of domain ontologies, which allows greater adherence at the intersection between bibliographic items and Information needs of users. In order to achieve these objectives, a quantitative methodology was used, in which a digital repositories interoperability model was created, using Semantic Web concepts and technologies to contextualize the search domain performed by the user. As results, it was verified that the relationships of the ontologies can be extracted efficiently by means of a SPARQL query engine, that is able to locate a term in the ontology, as well as to extract the relations of this term. In addition, we have outlined the actions that OWL properties must possess, in the context of Information Retrieval, so that the relationships that a search term has against an ontology can be identified more precisely, allowing the generation of a new Search expression, containing a greater number of arguments. Another result obtained concerns interoperability in digital repositories, which made it possible to identify the integration of the retrieval of the metadata of the digital repositories documents and the tool dealing with semantic issues. The work proposed the interactivity in the choice of informational sources, in which the user could choose the repositories in which the search would be carried out, as well as register a repository, if it had not previously been used. It is concluded that the insertion of semantics in Information Retrieval processes can occur through the proposed model, which is based essentially on the technologies and concepts of the Semantic Web, especially the ontologies, as an artifact capable of explaining the context in which the terms occur. / FAPESP: 2015/01517-2
119

Cognição e conceptualização do tempo : o processo da significação do tempo linguístico de alguns enunciados em língua portuguesa /

Iagallo, Patricia Ormastroni. January 2015 (has links)
Orientador: Luiz Carlos Cagliari / Banca: Vera Pacheco / Banca: Ana Eliza Barbosa de Oliveira Baptista / Banca: Angélica T. C. Rodrigues / Banca: Antônio Suárez Abreu / Resumo: A Semântica Cognitiva, preocupada com o que ocorre dentro da mente do falante no processo da significação, possui duas grandes hipóteses: (i) a estrutura conceptual pode derivar de nossas experiências corporificadas e (ii) a estrutura semântica reflete, em parte, a estrutura conceptual. Nossa tese procurou testar a validade dessas duas hipóteses para a investigação da construção da significação, utilizando a categoria do tempo em língua portuguesa como objeto. Primeiramente, fizemos uma descrição do nosso sistema conceptual do tempo, após uma revisão de literatura sobre estudos interdisciplinares sobre o tempo, como os da física, biologia, psicologia e sociologia. Depois, criamos enunciados em língua portuguesa que envolvem a noção de "linha do tempo" e os classificamos em três grandes frames de referência temporais, descrevendo as estruturas semânticas básicas encontradas. Ao compararmos o sistema conceptual com a estrutura semântica, ficou clara a necessidade de se ter uma descrição da estrutura conceptual. Para descrevê-la, percebemos que era preciso um olhar sobre a propriedade dêitica da linguagem, e sobre outros conceitos que formam a linguagem metafórica de tempo (metáforas conceptuais). Por fim, discutimos a natureza dessa estrutura conceptual e sua importância para o estudo da mente e da língua, e concluímos que a Teoria dos Conceitos Lexicais e Modelos Cognitivos é adequada para descrever como se dá o acesso ao nosso conhecimento enciclopédico de mundo sobre o tempo, provando a eficácia das duas hipóteses básicas das pesquisas em semântica cognitiva / Abstract: The Cognitive Semantics, concerned about what happens in the speaker's mind on the meaning process, have two major assumptions: (i) conceptual structure derives from embodiment, (ii) semantic structure reflects conceptual structure. We check these two hypotheses, and our object was the notion of time in Portuguese. First, we described the conceptual structure of TIME by building the conceptual system of time, which uses interdisciplinary studies as physics, biology, psychology and sociology. After this, we found forms in Portuguese that have the notion of the "time line" and we categorized them in three frames of temporal reference, and we constructed the semantic structure of TIME. We analyzed the conceptual structure and the semantic structure and we can note how important a description of the conceptual structure is. The total description of what we mean by TIME necessarily needs a look at how the language works (deictic property of language), and at other structure of other concepts, forming the metaphorical language of time (conceptual metaphors). Thus, we conclude that the full description of what we mean by TIME necessarily needs a look at the conceptual structure of TIME, and therefore the Theory of Lexical Concepts and Cognitive Models is adequate to describe how the access to our encyclopedic knowledge of time is, and we can prove the efficacy of the two basic assumptions of research in Cognitive Semantics / Doutor
120

Using a provenance model and spatiotemporal information to integrate heterogeneous biodiversity semantic data. / Usando um modelo de proveniência e informações espaço-temporais para integrar dados semânticos heterogêneos sobre biodiversidade

Flor Karina Mamani Amanqui 20 November 2017 (has links)
In the last few years, the Web of data is being rapidly populated with biodiversity data. However, when researchers need to retrieve, integrate, and visualize these data, they need to rely on semi-manual approaches. That is due to the fact that biodiversity repositories, such as GBIF, offer data as just strings in CSV format spreadsheets. There is no machine readable metadata that could add meaning (semantics) to data. Without this metadata, automatic solutions are impossible and labor intensive semi-manual approaches for data integration and visualization are unavoidable. To reduce this problem, we present a novel architecture, called STBioData, to automatically link spatiotemporal biodiversity data, from heterogeneous data sources, to enable easier searching, visualization and downloading of relevant data. It supports the generation of interactive maps and mapping between biodiversity data and ontologies describing them (such as Darwin Core, DBpedia, GeoSPARQL, Time and PROV-O). A new biodiversity provenance model (BioProv), extending the W3C PROV Data Model, was proposed. BioProv enables applications that deal with biodiversity data to incorporate provenance data in their information. A web based prototype, based on this architecture, was implemented. It supports biodiversity domain experts in tasks, such as identifying a species conservation status, by automating most of the necessary tasks. It uses collection data, from important Brazilian biodiversity research institutions, and species geographic distributions and conservation status, from the IUCN Red List of Threatened Species. These data are converted to linked data, enriched and saved as RDF Triples. Users can access the system, using a web interface, and search for collection and species distribution records based on species names, time ranges and geographic location. After a data set is recovered, it can be displayed in an interactive map. The records contents are also shown (including provenance data) together with links to the original records at GBIF and IUCN. Users can export datasets, as a CSV or RDF file, or get a print out in PDF (including the visualizations). Choosing different time ranges, users can, for instance, verify the evolution of a species distribution. The STBioData prototype was tested using use cases. For the tests, 46,211 collection records, from SpeciesLink, and 38,589 conservation status records (including maps), from IUCN, for marine mammal were converted to 2,233,782. RDF triples and linked using well known ontologies. 90% of biodiversity experts, using the tool to determine conservation status, were able to find information about dolphin species, with a satisfactory recovery time, and were able to understand the interactive map. In an information retrieval experiment, when compared with SpeciesLink keyword based search, the prototypes semantic based search performed, on average, 24% better in precision and 22% in recall tests. And that does not takes into account cases where only the prototype returned search results. These results demonstrate the value of having public available linked biodiversity data with semantics. / Nos últimos anos, a Web de dados está sendo rapidamente preenchida com dados de biodiversidade. No entanto, quando pesquisadores precisam recuperar, integrar e visualizar esses dados, eles precisam confiar em abordagens semi-manuais. Isso ocorre devido ao fato de que repositórios sobre biodiversidade, como GBIF, oferecem dados como cadeias de caracteres em planilhas no formato CSV. Não há nenhum metadado legível por máquinas que poderia acrescentar significado (semântico) aos dados. Sem os metadados, soluções automáticas são impossíveis, sendo necessário para visualização e integração dos dados, a utilização de abordagens semi-manuais. Para reduzir esse problema, apresentamos uma arquitetura chamada STBioData. Com ela é possível vincular automaticamente dados de biodiversidade, com informações espaço-temporais provenientes de fontes heterogêneas, tornando mais fácil a pesquisa, visualização e download dos dados relevantes. Ele suporta a geração de mapas interativos e o mapeamento entre dados de biodiversidade e ontologias que os descrevem (como Darwin Core, DBpedia, GeoSPARQL, Time e PROV-O). Foi proposto um novo modelo de proveniência para biodiversidade (BioProv), que estende o modelo de dados PROV W3C. BioProv permite que aplicativos que lidam com dados de biodiversidade incorporem os dados de proveniência em suas informações. Foi implementado um protótipo Web baseado nesta arquitetura. Ele oferece suporte aos especialistas do domínio de biodiversidade em tarefas como, identificação do status de conservação da espécie, além de automatizar a maioria das tarefas necessária. Foi utilizado coleções de dados de importantes pesquisas brasileiras sobre biodiversidade, juntamente com dados de distribuição geográfica das espécies e seu estado de conservação, provenientes da lista de espécies ameaçadas da IUCN (Red List). Esses dados são convertidos em dados conectados, enriquecidos e salvados como triplas RDF. Os usuários podem acessar o sistema, usando uma interface web que permite procurar, utilizando os nomes das espécies, intervalos de tempo e localização geográfica. Os dados recuperados podem ser visualizados no mapa interativo. O conteúdo de registros também é mostrado (incluindo dados de proveniência), juntamente com links para os registros originais no GBIF e IUCN. Os usuários podem exportar o conjunto de dados, como um arquivo CSV ou RDF, ou salvar em PDF (incluindo as visualizações). Escolhendo diferentes intervalos de tempo, os usuários podem por exemplo, verificar a evolução da distribuição das espécies. O protótipo STBioData foi testado usando casos de uso. Para esses testes, 46.211 registros de coleção do SpeciesLink e 38.589 registros de estado de conservação da IUCN (incluindo mapas), sobre mamíferos marinhos, foram convertidos em 2.233.782 triplas RDF. Essas triplas reutilizam ontologias representativas da área . 90% dos especialistas em biodiversidade, usaram a ferramenta para determinar o estado de conservação, eles foram capaz de encontrar as informações sobre determinada espécie de golfinho, com um tempo de recuperação satisfatório e também foram capaz de entender o mapa interativo gerado. Em um experimento sobre recuperação de informações, quando comparado com o sistema de busca por palavra-chave utilizado pela base SpeciesLink, a busca semântica realizada pelo protótipo STBioData, em média, é 24% melhor em testes de precisão e 22% melhor em testes de revocação. Não são considerados os casos onde o protótipo somente retornou o resultado da busca. Esses resultados demonstram o valor de ter dados conectados sobre biodiversidade disponíveis publicamente em um formato semântico.

Page generated in 0.0607 seconds