• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 261
  • 16
  • 15
  • 15
  • 15
  • 14
  • 11
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 275
  • 275
  • 156
  • 98
  • 74
  • 65
  • 62
  • 51
  • 50
  • 49
  • 48
  • 38
  • 34
  • 31
  • 31
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Modelo Computacional de Recuperação da Informação para Repositórios Digitais Utilizando Ontologias /

Coneglian, Caio Saraiva. January 2017 (has links)
Orientador: José Eduardo Santarem Segundo / Banca: Silvana Aparecida Borsetti Gregório Vidotti / Banca: Elvis Fusco / Resumo: A evolução das Tecnologias da Informação e Comunicação causaram um aumento exponencial na produção e disseminação de dados na Internet. Dentre estas informações, inclui-se a produção científica que vive hoje um momento de transição, em que os documentos deixaram de ser apenas publicados em livros e revistas impressas e passaram a se espalhar pela rede. A partir disto, surgiu uma nova tecnologia chamada de repositórios digitais, em que são armazenados documentos em diversos formatos. Junto com o surgimento dos repositórios digitais, cresceu o desafio da recuperação destes documentos de maneira eficiente, ou seja, como a máquina poderá compreender o que o usuário procura, para fornecer os documentos que este usuário necessita. Neste âmbito, a Web Semântica surgiu visando possibilitar com que os computadores consigam compreender o contexto em que as informações criadas pelos usuários se encontram, tendo em suas ferramentas a base para tornar tal propósito real. No contexto dos repositórios digitais, esta pesquisa tem como objetivo aprimorar o processo de recuperação de informação nesses ambientes informacionais por meio da utilização do conceito de representações semânticas no uso de ontologias de domínio, que permita uma maior aderência na intersecção entre os itens bibliográficos e as necessidades informacionais dos usuários. Para atingir tais objetivos, utilizou-se uma metodologia de natureza quantitativa, em que se criou um modelo utilizando conceitos e tecn... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: The evolution of Information and Communication Technologies has caused an exponential increase in the production and dissemination of data on the Internet. Among these data, we include the scientific production that is now in a moment of transition, in which the documents are no longer only published in printed books and magazines, and are now spread throughout the network. From this, a new technology has emerged called digital repositories, in which documents are stored in various formats. Along with the emergence of digital repositories, the challenge of recovering these documents has grown in an efficient way, i.e., how the machine can understand what the user is looking for, to provide the documents that this user needs. In this context, the Semantic Web came about in order to enable computers to understand the context in which the information created by the users meet, having in their tools the basis to make such a real purpose. In the context of Digital Repositories, this research aims to improve the Information Retrieval process in these informational environments through the use of the concept of semantic representations in the use of domain ontologies, which allows greater adherence at the intersection between bibliographic items and Information needs of users. In order to achieve these objectives, a quantitative methodology was used, in which a digital repositories interoperability model was created, using Semantic Web concepts and technologies to contextualize the search domain performed by the user. As results, it was verified that the relationships of the ontologies can be extracted efficiently by means of a SPARQL query engine, that is able to locate a term in the ontology, as well as to extract the relations of this term. In addition, we have outlined the actions that OWL properties must possess, in the context of Information Retrieval, so that the relationships that a search term has ... / Mestre
52

Combinações de similaridade semântica e frequência de termos para agrupamento de textos / Combinations of semantic and term frequency similarities for text clustering

Soares, Victor Hugo Andrade Soares 20 March 2017 (has links)
Submitted by Marco Antônio de Ramos Chagas (mchagas@ufv.br) on 2017-08-17T16:05:45Z No. of bitstreams: 1 texto completo.pdf: 2079237 bytes, checksum: 42491677e48c32006c0d10c2f53b0f35 (MD5) / Made available in DSpace on 2017-08-17T16:05:45Z (GMT). No. of bitstreams: 1 texto completo.pdf: 2079237 bytes, checksum: 42491677e48c32006c0d10c2f53b0f35 (MD5) Previous issue date: 2017-03-20 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Um dos desafios ao se agrupar documentos é encontrar uma boa medida de simila- ridade para documentos de textos, que seja capaz de gerar grupos coesos. Algumas medidas são baseadas no clássico modelo bag of words e consideram apenas o vo- cabulário do documento. Com isso, documentos semanticamente similares podem ser atribuídos a diferentes grupos se eles não compartilham o mesmo vocabulário. Por essa razão, medidas de similaridade semântica que usam conhecimento externo, como um corpus, dicionários ou banco de palavras, têm sido propostas na literatura. Neste trabalho, a medida Frequency Google Tri-grams Measures (FGTM) é proposta para identificar similaridade entre documentos baseado nas frequências dos termos nos documentos e no corpus Google n-grams. A comparação entre as frequências de um termo em um dado par de documentos pode quantificar a importância daquele termo para o assunto dos documentos, assumindo que um termo possui maior rele- vância para um documento se ele ocorre mais vezes. Adicionalmente, as frequências dos termos dos documentos no corpus Google n-grams permitem estimar semanti- camente suas similaridades. Adicionalmente, oito variantes de dois algoritmos de agrupamento são aplicadas a vários conjuntos de dados reais, com o objetivo de avaliar experimentalmente a qualidade dos grupos obtidos com a medida proposta e compará-la com outras medidas do estado da arte. Análises de complexidade computacional das medidas comparadas são apresentadas. Os resultados experi- mentais demonstram que a medida proposta melhora significativamente a qualidade dos agrupamentos de documentos, comprovado por testes estatísticos. Também é mostrado que, combinar resultados de agrupamento obtidos com bag of words e medida semântica obtém melhores resultados que adotar uma medida individualmente. Para finalizar, é feito um estudo sobre heurísticas para estimar o número K de gru- pos em agrupamento de textos. Uma versão modificada da heurística G-means é proposta e comparada com heurísticas da literatura. / One challenge for document clustering consists of finding a proper similarity me- asure for text documents, which enables the generation of cohesive groups. Some measures are based on the classic bag of words model and take into account the vocabulary of the documents solely. In doing so, semantically similar documents may reside in different clusters if they do not share the same vocabulary. For this reason, semantic similarity measures that use external knowledge, such as corpus, dictionaries, or word bases, have been proposed in the literature. In this paper, the Frequency Google Tri-grams Measure (FGTM) is proposed to assess similarity between documents based on the frequencies of terms in the compared documents and Google n-gram corpus. The comparison between the frequencies of a term in a given pair of documents can quantify the importance of that term to the documents’ subjects, assuming that a term is relevant to a document if it occurs multiple times. Additionally, the frequencies of documents’ terms in Google n-gram corpus allows to semantically estimate their similarity. Additionally, eight variants of two clustering algorithms are applied to several real data sets in order to experimentally evalu- ate the quality of the clusters obtained with the proposed measure and compare it with other state-of-the-art measures. Computational complexity analysis of the compared measures are provided. The experimental results demonstrate that the proposed measure improves significantly the quality of document clustering, based on statistical tests. Additionally, we show that combining clustering results obtained with bag of words and semantic measure give better results than adopting a single approach. Finally, a study involving heuristcs to identify the number K of clusters in a document clustering is done. A modified version of the G-means heuristic is proposed and compared to other heuristcs from the literature.
53

Rumo a “social machines” sobre dados criminais

Santos, Eduardo Ferreira dos 30 June 2015 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2015. / Submitted by Guimaraes Jacqueline (jacqueline.guimaraes@bce.unb.br) on 2015-11-13T13:21:13Z No. of bitstreams: 1 2015_EduardoFerreiraDosSantos.pdf: 5080466 bytes, checksum: 765cdde2da22f26b7b3f4a30f68a0074 (MD5) / Approved for entry into archive by Raquel Viana(raquelviana@bce.unb.br) on 2015-11-25T17:53:13Z (GMT) No. of bitstreams: 1 2015_EduardoFerreiraDosSantos.pdf: 5080466 bytes, checksum: 765cdde2da22f26b7b3f4a30f68a0074 (MD5) / Made available in DSpace on 2015-11-25T17:53:13Z (GMT). No. of bitstreams: 1 2015_EduardoFerreiraDosSantos.pdf: 5080466 bytes, checksum: 765cdde2da22f26b7b3f4a30f68a0074 (MD5) / Social machine é uma abordagem relativamente nova para tratar problemas relevantes à sociedade, integrando em um software elementos computacionais e sociais. Pode ser considerada uma extensão da Web Semântica, criando o processo por meio do qual as pessoas executam as tarefas criativas e as máquinas realizam a administração dos dados. Essa Dissertação de Mestrado apresenta uma proposta de aplicação do conceito ao tema violência e criminalidade, assunto bastante relevante nos países da América Latina e Caribe – LAC. Trata-se de uma extensão do conceito de Social Machines que aplica duas estratégias publicadas recentemente para obter informações semânticas de dados oriundos de redes sociais, além de publicar o resultado como um serviço de Dados Abertos. O processo de desenvolvimento foi documentado para fornecer um procedimento sistemático, e uma aplicação exemplo foi construída para identificar eventos relacionados a violência e criminalidade. O procedimento proposto foi validado e testado em modelos formais recentemente desenvolvidos para o tema. Os resultados da extração de dados são também comparados aos dados oficiais, de forma a identificar similaridades. / Social machine is a rather new approach to deal with relevant problems in society, blending computational and social elements into software. It can be an extension of the Semantic Web, creating processes in which people do the creative work and the machine does the data administration. This professional masters dissertation presents a proposal to apply this approach in violence and criminality domain, a relevant matter to Latin America and Caribbean – LAC – countries. It extends Social Machines by applying two recently published strategies to obtain semantics over social networks data and publishing it as a Linked Open Data service. The development procedure was documented to provide a systematic procedure and an example application is presented to identify violence and criminality events. The resulting procedure validation was be done by testing against recently developed formal models in the research area. Criminal activity data extraction results were also compared to official data, in order to identify similarities.
54

Representação de dados semânticos em agentes BDI

Campos, Diogo de January 2014 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2014 / Made available in DSpace on 2015-02-05T20:56:54Z (GMT). No. of bitstreams: 1 332122.pdf: 508583 bytes, checksum: b385a4821591685cb01e9c52fe87ad5e (MD5) Previous issue date: 2014 / A crescente necessidade de informação e consequente aumento no volume de comunicação tem conduzido a adoção de dados semânticos e resultando numa demanda por ferramentas que manipulam tais dados. Com o avanço de dados semânticos na Web, estamos atingindo um ponto onde ferramentas de software devem se adaptar a este novo formato. Este trabalho propõe um novo modelo para desenvolvimento de agentes inteligentes da IA baseados em um modelo de logica BDI, com o objetivo de permitir comunicação livre de ambiguidade e capaz de reutilizar dados semânticos já existentes na Web. O modelo propõe uma alternativa para a representação de dados semânticos no agente, como estes dados podem ser armazenados e utilizados para comunicação com triplestores da Web Semântica e também com outros agentes (semânticos e não semânticos). Com foco na representação destes dados semânticos, são exploradas maneiras de se integrar informação semântica a um agente, seus processos e estados e porque esta integração pode levar a melhores resultados quando acessando informação na Web. Além disso, e demonstrado o ganho que se pode obter ao reutilizar dados já existentes na Web Semântica, e como isto pode facilitar o desenvolvimento de novas aplicações baseadas em agentes. Finalmente, para avaliar o modelo proposto, e feita uma comparação qualitativa com outros trabalhos na área, levantando as diferenças, motivações e melhorias feitas neste trabalho. Uma implementação deste modelo e apresentada através de um arcabouço criado para demonstrar e validar as intenções deste trabalho. Este arcabouço chamado PySA e descrito expondo os principais pontos defendidos na proposta, testando em situações hipotéticas e exemplos reais a comunicação e aprendizado semanticamente rico que são os objetivos do trabalho.<br> / Abstract: Increasing needs for information and consequent increase in communication volume are leading to a widespread adoption of semantic data and demand for tools that manipulate such data. With the uprising of Semantic Web data, we are reaching a point where software tools must adapt to this new format. This work proposes a new model for developing intelligent agents based on a BDI reasoning model, with the goal of allowing ambiguity free communication and capable of reusing semantic data that already exists in the Web. The model proposes an alternative to representing semantic data in agents, and how this data can be stored and utilized to communicate with Semantic Web stores and also other agents (semantic and non-semantic). Focusing on the representation of this semantic data, this work explores ways to integrate semantic information to an agent, it's processes and states and why this integration can lead to better results when acessing information in the Web. On top of that, this work demonstrates what gain can be obtained from reutilizing data that already exists in the Semantic Web, and how this eases the development of new agent-based applications.Finally, to evaluate the proposed model, a qualitative comparison is made with similar work in the area, comparing the dierences, motivations and improvements made in this project. An implementation of this model is presented through a framework created to demonstrate and validate in practice the intentions of this project. This framework called PySA is described, exposing the main values defended in the proposal, testing in hypothetical situations and real examples the semantically rich communication and learning capabilities that are the main goal of this work.
55

Desenvolvimento de Web APIs RESTful semânticas baseadas em JSON

Salvadori, Ivan Luiz January 2015 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2015. / Made available in DSpace on 2015-04-29T21:09:45Z (GMT). No. of bitstreams: 1 333102.pdf: 3580158 bytes, checksum: ba1703beca878988af414a251c590687 (MD5) Previous issue date: 2015 / Os princípios arquiteturais REST estão sendo amplamente adotados nas implementações de sistemas distribuídos disponíveis na Web. As implementações REST são realizadas através de Web Services, que são comumente disponibilizados na forma de Web APIs, cujo principal objetivo é o intercâmbio de dados entre aplicações. No entanto, devido à falta de padrões e diretrizes para desenvolvimento, cada implementação REST segue uma linha de desenvolvimento, fato que resulta na dificuldade de construção de aplicações clientes, além de dificultar a composição de Web APIs. Outro desafio é a falta de suporte ao uso de controles hipermídia em representações de recursos que utilizam o formato JSON. Controles hipermídia podem assumir a forma de links, que guiam a navegação entre diferentes recursos. Este trabalho propõe uma abordagem de desenvolvimento com os passos necessários para modelar e implementar Web APIs RESTful Semânticas que suportam controles hipermídia em JSON. A abordagem identifica as representações necessárias e realiza anotações semânticas através de associações de propriedades e operações com termos de vocabulários controlados. Além disso, a abordagem busca separar a implementação da camada de integração de dados com as demais camadas do sistema, diminuindo o acoplamento e aumentando a coesão. De forma complementar, este trabalho apresenta um framework para o desenvolvimento de Web APIs RESTful baseado na abordagem de desenvolvimento proposta, sendo este compatível com a especificação JAX-RS. O suporte fornecido pelo framework proposto possibilita que o desenvolvedor concentre esforços no desenvolvimento do domínio do problema, sem perder tempo com infraestrutura. Com a utilização da abordagem proposta, juntamente com suporte ferramental oferecido pelo framework, espera-se proporcionar maior produtividade e qualidade no desenvolvimento de Web APIs alinhadas com os princípios arquiteturais REST.<br> / Abstract : The REST architectural principles are being widely adopted for implementing distributed systems on the Web. REST implementations are developed using Web Services technology and are made available through Web APIs, which have the main goal of interchanging data among applications. However, due the lack of development patterns and guidelines, each REST implementation follows its own development method. As a result, client applications are difficult to build and the composition of Web APIs becomes hard to achieve. Another challenge is the lack of support of hypermedia control in resource representations described using the JSON format. Hypermedia controls can be realized using hyperlinks, which guide navigation among multiple resources. This work proposes a development approach with the required steps for modeling and implementing Semantic RESTful Web APIs with support for hypermedia control in JSON format. The approach identifies resource representations and applies semantic annotations in order to bind properties and operations with terms defined by controlled vocabularies. On top of that, the development approach aims to achieve loose coupling and high cohesion through a clear division between the integration layer and the others layers of the system. In addition, this work proposes a framework based on the JAX-RS specification that provides support for the proposed development approach. The framework allows the software developer to focus on the implementation of the business core, instead of spending time to deal with infrastructure issues. The adoption of the proposed approach, together with the support provided by the framework, aims to improve the quality and productivity achieved by the development of Web APIs that follow the REST architectural principles.
56

Uma abordagem para publicação de visões RDF de dados relacionais / One approach to publishing RDF views of relational data

Teixeira Neto, Luis Eufrasio January 2014 (has links)
TEIXEIRA NETO, L. E. Uma abordagem para publicação de visões RDF de dados relacionais. 2014. 97 f. Dissertação (Mestrado em Ciência da Computação) - Centro de Ciências, Universidade Federal do Ceará, Fortaleza, 2014. / Submitted by Daniel Eduardo Alencar da Silva (dealencar.silva@gmail.com) on 2015-01-23T19:39:51Z No. of bitstreams: 1 2014_dis_letneto.pdf: 2039098 bytes, checksum: 476ca3810a4d9341414016b0440023ba (MD5) / Approved for entry into archive by Nirlange Queiroz(nirlange@gmail.com) on 2015-06-09T14:15:58Z (GMT) No. of bitstreams: 1 2014_dis_letneto.pdf: 2039098 bytes, checksum: 476ca3810a4d9341414016b0440023ba (MD5) / Made available in DSpace on 2015-06-09T14:15:58Z (GMT). No. of bitstreams: 1 2014_dis_letneto.pdf: 2039098 bytes, checksum: 476ca3810a4d9341414016b0440023ba (MD5) Previous issue date: 2014 / The Linked Data initiative brought new opportunities for building the next generation of Web applications. However, the full potential of linked data depends on how easy it is to transform data stored in conventional, relational databases into RDF triples. Recently, the W3C RDB2RDF Working Group proposed a standard mapping language, called R2RML, to specify customized mappings between relational schemas and target RDF vocabularies. However, the generation of customized R2RML mappings is not an easy task. Thus, it is mandatory to define: (a) a solution that maps concepts from a relational schema to terms from a RDF schema; (b) a process to support the publication of relational data into RDF, and (c) a tool that implements this process. Correspondence assertions are proposed to formalize the mappings between relational schemas and RDF schemas. Views are created to publish data from a database to a new structure or schema. The definition of RDF views over relational data allows providing this data in terms of an OWL ontology structure without having to change the database schema. In this work, we propose a three-tier architecture – database, SQL views and RDF views – where the SQL views layer maps the database concepts into RDF terms. The creation of this intermediate layer facilitates the generation of R2RML mappings and prevents that changes in the data layer result in changes on R2RML mappings. Additionally, we define a three-step process to generate the RDF views of relational data. First, the user defines the schema of the relational database and the target OWL ontology. Then, he defines correspondence assertions that formally specify the relational database in terms of the target ontology. Using these assertions, an exported ontology is generated automatically. The second step produces the SQL views that perform the mapping defined by the assertions and a R2RML mapping between these views and the exported ontology. This dissertation describes a formalization of the correspondence assertions, the three-tier architecture, the publishing process steps, the algorithms needed, a tool that supports the entire process and a case study to validate the results obtained. / A iniciativa Linked Data trouxe novas oportunidades para a construção da nova geração de aplicações Web. Entretanto, a utilização das melhores práticas estabelecidas por este padrão depende de mecanismos que facilitem a transformação dos dados armazenados em bancos relacionais em triplas RDF. Recentemente, o grupo de trabalho W3C RDB2RDF propôs uma linguagem de mapeamento padrão, denominada R2RML, para especificar mapeamentos customizados entre esquemas relacionais e vocabulários RDF. No entanto, a geração de mapeamentos R2RML não é uma tarefa fácil. É imperativo, então, definir: (a) uma solução para mapear os conceitos de um esquema relacional em termos de um esquema RDF; (b) um processo que suporte a publicação dos dados relacionais no formato RDF; e (c) uma ferramenta para facilitar a aplicação deste processo. Assertivas de correspondência são propostas para formalizar mapeamentos entre esquemas relacionais e esquemas RDF. Visões são usadas para publicar dados de uma base de dados em uma nova estrutura ou esquema. A definição de visões RDF sobre dados relacionais permite que esses dados possam ser disponibilizados em uma estrutura de termos de uma ontologia OWL, sem que seja necessário alterar o esquema da base de dados. Neste trabalho, propomos uma arquitetura em três camadas – de dados, de visões SQL e de visões RDF – onde a camada de visões SQL mapeia os conceitos da camada de dados nos termos da camada de visões RDF. A criação desta camada intermediária de visões facilita a geração dos mapeamentos R2RML e evita que alterações na camada de dados impliquem em alterações destes mapeamentos. Adicionalmente, definimos um processo em três etapas para geração das visões RDF. Na primeira etapa, o usuário define o esquema do banco de dados relacional e a ontologia OWL alvo e cria assertivas de correspondência que mapeiam os conceitos do esquema relacional nos termos da ontologia alvo. A partir destas assertivas, uma ontologia exportada é gerada automaticamente. O segundo passo produz um esquema de visões SQL gerado a partir da ontologia exportada e um mapeamento R2RML do esquema de visões para a ontologia exportada, de forma automatizada. Por fim, no terceiro passo, as visões RDF são publicadas em um SPARQL endpoint. Neste trabalho são detalhados as assertivas de correspondência, a arquitetura, o processo, os algoritmos necessários, uma ferramenta que suporta o processo e um estudo de caso para validação dos resultados obtidos.
57

Proposta de arquitetura para ecossistema de inovação em dados abertos

Gomes, Murilo Silveira January 2017 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Engenharia e Gestão do Conhecimento, Florianópolis, 2017. / Made available in DSpace on 2017-08-01T04:13:05Z (GMT). No. of bitstreams: 1 347159.pdf: 15279258 bytes, checksum: 27076dcdb083ca4f188f5ead3cdda2fa (MD5) Previous issue date: 2017 / Os ecossistemas de inovação e de software utilizam de tecnologias para apoiar seus objetivos. Estes ecossistemas possuem particularidades, mas também muita semelhança em alguns aspectos, como por exemplo, a inovação. As tecnologias semânticas por sua vez vem sendo destaque em pesquisas e no desenvolvendo de algumas tecnologias que auxiliam no vislumbre semântico dos dados. Não foi identificado na literatura nenhum estudo que realizasse um paralelo entre os dois ecossistemas e que utilizasse como base as tecnologias semânticas em um ecossistema. Desta forma, esta dissertação tem como objetivo propor uma modelagem de um ecossistema de inovação baseado em tecnologias semânticas utilizando elementos que compõem os ecossistemas de inovação e de software. Para a coleta dos dados, foi utilizado do método de revisão sistemática realizada em três bases de dados SCOPUS, IEEE e Web of Science e priorizando os papers dos últimos cinco anos para coleta de dados sobre os ecossistemas de inovação e de software, e uma revisão narrativa para dar embasamento sobre as tecnologias semânticas. Como resultados obtidos, foram elencados características e/ou fatores de sucesso dos ecossistemas de inovação e software, realizando o seu agrupamento, e foram identificados também na literatura as tecnologias e ciclos de vida que auxiliam na publicação de dados. Como resultado final desta dissertação, foi proposto uma arquitetura e recomendações que utilizam os elementos pertencentes de ambos os ecossistemas de inovação e de software, agregando um ciclo de vida e as tecnologias que auxiliem na publicação de dados a este ecossistema de inovação em tecnologias semânticas. É observado neste estudo uma oportunidade de execução para obtenção de resultados reais, contribuindo com uma evolução para este trabalho, abrindo novas oportunidades de pesquisas e uma nova perspectiva de serviços e produtos que podem ser oferecidos a sociedade.
58

Uma proposta para visualização de linked data sobre enchentes na bacia do Rio Doce.

AZEVEDO, Patrícia Carolina Neves January 2014 (has links)
Submitted by maria carolina coutinho barrozo de freitas (maria.barrozo@cprm.gov.br) on 2014-06-27T14:21:37Z No. of bitstreams: 1 DISSERTAÇÃO PATRICIA CAROLINA NEVES AZEVEDO.pdf: 6684736 bytes, checksum: 66cf5b82e6b1b15351ff6f73acbdf9f0 (MD5) / Approved for entry into archive by Flasleandro Oliveira (flasleandro.oliveira@cprm.gov.br) on 2014-06-27T14:47:33Z (GMT) No. of bitstreams: 1 DISSERTAÇÃO PATRICIA CAROLINA NEVES AZEVEDO.pdf: 6684736 bytes, checksum: 66cf5b82e6b1b15351ff6f73acbdf9f0 (MD5) / Approved for entry into archive by Flasleandro Oliveira (flasleandro.oliveira@cprm.gov.br) on 2014-06-27T14:47:41Z (GMT) No. of bitstreams: 1 DISSERTAÇÃO PATRICIA CAROLINA NEVES AZEVEDO.pdf: 6684736 bytes, checksum: 66cf5b82e6b1b15351ff6f73acbdf9f0 (MD5) / Made available in DSpace on 2014-06-27T14:47:48Z (GMT). No. of bitstreams: 1 DISSERTAÇÃO PATRICIA CAROLINA NEVES AZEVEDO.pdf: 6684736 bytes, checksum: 66cf5b82e6b1b15351ff6f73acbdf9f0 (MD5) Previous issue date: 2014 / Dentre as necessidades da população acerca das enchentes na Bacia do Rio Doce está a transparência das informações de interesse público e a preocupação na capacidade de percepção e compreensão dessas informações. A disponibilização de dados governamentais abertos oferece, para os usuários interessados, a facilidade de combinar e misturar esses dados com o objetivo de agregar valor. Os Sistemas de Informação Geográfica, agregados à tecnologia Web Semântica, permitem que a integração de dados e conhecimento, distribuídos por várias fontes heterogêneas, sejam substancialmente mais fáceis e eficientes, potenciando a descoberta e a partilha de novos conhecimentos. Em conjunto com a adoção dessas tecnologias, surge o conceito de Linked Data, um conjunto de princípios e técnicas cujo objetivo é interligar dados de fontes distintas e ampliar a rede de dados já existente. O objetivo deste trabalho é elucidar a questão de pesquisa: quais são os conceitos e tecnologias que permitem integrar e disponibilizar os dados relacionados às enchentes na Bacia do Rio Doce? Para isso, utilizando a metodologia experimental criou-se um dataset e um protótipo de aplicação capaz de obter dados heterogêneos, relacionados a inundações na Bacia do Rio Doce, de diversas organizações públicas integrá-los e disponibilizá-los para visualização em um Sistema de Informação Geográfica. Outros dados pertinentes foram incluídos com o objetivo de agregar conhecimento ao usuário final. Para tal, os dados foram convertidos para o formato RDF, interligados e visualizados com auxílio de consultas SPARQL. O estudo tem a metodologia experimental, com base em prova de conceito e a Bacia Hidrográfica do Rio Doce é a unidade de análise. Como resultado, obteve-se a implementação das técnicas e princípios da Web Semântica em um SIG e a disponibilização, para reuso, de um dataset contendo os dados da Bacia do Rio Doce, do ano de 2012, nos padrões RDF. Conclui-se, por meio do experimento, que as tecnologias Web Semântica e SIG dão o suporte necessário para a visualização e disponibilização de dados visando à transparência governamental.
59

Representação aberta e semântica de anotações de incidentes em mapas web

Gonzalez, André Lins January 2013 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2013. / Made available in DSpace on 2014-08-06T17:05:40Z (GMT). No. of bitstreams: 1 325153.pdf: 4171008 bytes, checksum: d7ff3738e5dee29a09693532a326ec2f (MD5) Previous issue date: 2013 / É crescente o número de ferramentas Web que adotam crowdsourcing, via anotações colaborativas em mapas, como modelo de resolução de problemas e produção de dados. Nestas iniciativas, grandes grupos de usuários podem anotar, colaborativamente, coisas espaciais em um mapa, como lugares e/ou incidentes relacionados à segurança, saúde e transporte. Idealmente, estas iniciativas deveriam produzir dados abertos interligados (LOD - Linked Open Data), de forma a permitir que as pessoas ou sistemas possam compartilhar as anotações e o conhecimento gerado na forma de dados estruturados e, consequentemente, melhorar o mapeamento e a resolução de incidentes. Este trabalho propõe uma abordagem de produção de anotações abertas e semânticas de incidentes em mapas. Nesta abordagem, as anotações são representadas usando o modelo de dados proposto pelo W3C Open Annotation e adota como alvo das anotações coordenadas geoespaciais referenciadas por meio do URI geo. Além disso, foram combinadas às anotações em mapas Web tecnologias da Web Semântica, com o intuito de enriquecer os mapas com informações semânticas. Para demonstrar a viabilidade da abordagem proposta, são desenvolvidos dois protótipos que utilizam a abordagem proposta, de forma a permitir a representação aberta e semântica de anotações, associadas a coordenadas geoespaciais.<br> / Abstract : There is an increasing number of initiatives using Web-based mapping systems that rely on crowdsourcing as a collaborative problem-solving and data production model. In these initiatives, large groups of users can collaboratively annotate spatial things on a map, such as places or incidents related to security, health and transportation. Ideally, these crowdsourcing initiatives should produce Linked Open Data (LOD) to enable people or systems to share the annotations and the generated knowledge as structured data and, consequently, improve mapping and resolution of incidents. This work presents an approach for producing open and semantic annotations of incidents on maps. In this approach, annotations are represented using the W3C Open Annotation data model and adopts geospatial coordinates referenced using the geo URI as the annotation target. Moreover, it is combined some semantic Web technologies with crowdsourced map annotations, in a way that it enriches maps with semantic information. To demonstrate the feasibility of our approach,two prototypes using the proposed approach are developed, in order to allow the open and semantic representation of annotations associated with geospatial coordinates.
60

Adaptação de hierarquias de dados conectados para análise de informação

Sacenti, Juarez Angelo Piazza January 2016 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2016. / Made available in DSpace on 2016-09-20T04:44:42Z (GMT). No. of bitstreams: 1 339454.pdf: 2256514 bytes, checksum: 03289f73726043dd181ecda93a630121 (MD5) Previous issue date: 2016 / Diversas abordagens têm sido propostas para o enriquecimento semântico de dados sobre movimento, incluindo propostas para a sua anotação com dados abertos conectados (LOD). Contudo, ainda há uma carência de soluções para modelagem dimensional de dados semanticamente anotados, visando sua análise em data warehouses. Este trabalho de pesquisa propõe um método para a geração automatizada de dimensões de análise de dados a partir da adaptação de hierarquias de recursos (sobre instâncias e conceitos) de LOD usados para anotar semanticamente tais dados. Este método extrai hierarquias de recursos de coleções de LOD por meio da exploração de relações de ordenamento parcial (como part of e is a) e adapta tais hierarquias, reduzindo o número de recursos de acordo com o número de vezes que um recurso aparece em anotações semânticas de uma dada coleção de dados. Dimensões assim produzidas são potencialmente menores que a hierarquia usada para gerá-las, pois escondem recursos com baixa frequência de uso em anotações. Isso tem potencial para propiciar ganhos de eficiência e facilidade de uso em data warehouses, entre outros benefícios. Resultados de experimentos com a adaptação de hierarquias de recursos para a análise de tweets anotados com LOD sugerem a viabilidade do método. Os resultados mostram considerável redução no número de recursos de hierarquias adaptadas a medida que se aumenta o limiar de frequência de uso de recursos em anotações semânticas.<br> / Abstract : Several approaches have been proposed to semantic enrich data about movement, including proposals to annotate it with linked open data (LOD). However, there is still a lack of solutions for multidimensional modelling semantic annotated data, in order to analyse it in data warehouses. This research work proposes a method for automated generation of data analysis dimensions from the adaptation of hierarchies of resources (about instances and concepts) of LOD used to annotate semantically such data. This method extract hierarchies of resources from LOD collections through exploration of partial ordering relations (like part of and is a) and adapt such hierarchies, reducing the number of resources according to the number of times a resource appears in semantic annotations of a particular dataset. Thus produced dimensions are potentially lower than the hierarchy used to generate them, because they hide resources having low frequency of use in annotations. This has the potential to provide efficiency gains and ease of use in data warehouses, among other benefits. Experiments results in adaptation of hierarchies of resources for the analysis of tweets annotated with LOD suggest the feasibility of the method. The results show considerable reduction of the number of adapted hierarchies' resources as it increases the threshold of frequency of use of resources in semantic annotations.

Page generated in 0.0862 seconds