• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 261
  • 16
  • 15
  • 15
  • 15
  • 14
  • 11
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 275
  • 275
  • 156
  • 98
  • 74
  • 65
  • 62
  • 51
  • 50
  • 49
  • 48
  • 38
  • 34
  • 31
  • 31
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
171

ONTO-Analyst: um método extensível para a identificação e visualização de anomalias em ontologias / ONTO-Analyst: An Extensible Method for the Identification and the Visualization of Anomalies in Ontologies

Orlando, João Paulo 21 August 2017 (has links)
A Web Semântica é uma extensão da Web em que as informações tem um significado explícito, permitindo que computadores e pessoas trabalhem em cooperação. Para definir os significados explicitamente, são usadas ontologias na estruturação das informações. À medida que mais campos científicos adotam tecnologias da Web Semântica, mais ontologias complexas são necessárias. Além disso, a garantia de qualidade das ontologias e seu gerenciamento ficam prejudicados quanto mais essas ontologias aumentam em tamanho e complexidade. Uma das causas para essas dificuldades é a existência de problemas, também chamados de anomalias, na estrutura das ontologias. Essas anomalias englobam desde problemas sutis, como conceitos mal projetados, até erros mais graves, como inconsistências. A identificação e a eliminação de anomalias podem diminuir o tamanho da ontologia e tornar sua compreensão mais fácil. Contudo, métodos para identificar anomalias encontrados na literatura não visualizam anomalias, muitos não trabalham com OWL e não são extensíveis por usuários. Por essas razões, um novo método para identificar e visualizar anomalias em ontologias, o ONTO-Analyst, foi criado. Ele permite aos desenvolvedores identificar automaticamente anomalias, usando consultas SPARQL, e visualizá-las em forma de grafos. Esse método usa uma ontologia proposta, a METAdata description For Ontologies/Rules (MetaFOR), para descrever a estrutura de outras ontologias, e consultas SPARQL para identificar anomalias nessa descrição. Uma vez identificadas, as anomalias podem ser apresentadas na forma de grafos. Um protótipo de sistema, chamado ONTO-Analyst, foi criado para a validação desse método e testado em um conjunto representativo de ontologias, por meio da verificação de anomalias representativas. O protótipo testou 18 tipos de anomalias retirados da literatura científica, em um conjunto de 608 ontologias OWL de 4 repositórios públicos importantes e dois artigos. O sistema detectou 4,4 milhões de ocorrências de anomalias nas 608 ontologias: 3,5 milhões de ocorrências de um mesmo tipo e 900 mil distribuídas em 11 outros tipos. Essas anomalias ocorreram em várias partes das ontologias, como classes, propriedades de objetos e de dados, etc. Num segundo teste foi realizado um estudo de caso das visualizações geradas pelo protótipo ONTO-Analyst das anomalias encontradas no primeiro teste. Visualizações de 11 tipos diferentes de anomalias foram automaticamente geradas. O protótipo mostrou que cada visualização apresentava os elementos envolvidos na anomalia e que pelo menos uma solução podia ser deduzida a partir da visualização. Esses resultados demonstram que o método pode eficientemente encontrar ocorrências de anomalias em um conjunto representativo de ontologias OWL, e que as visualizações facilitam o entendimento e correção da anomalia encontrada. Para estender os tipos de anomalias detectáveis, usuários podem escrever novas consultas SPARQL. / The Semantic Web is an extension of the World Wide Web in which the information has explicit meaning, allowing computers and people to work in cooperation. In order to explicitly define meaning, ontologies are used to structure information. As more scientific fields adopt Semantic Web technologies, more complex ontologies are needed. Moreover, the quality assurance of the ontologies and their management are undermined as these ontologies increase in size and complexity. One of the causes for these difficulties is the existence of problems, also called anomalies, in the ontologies structure. These anomalies range from subtle problems, such as poorly projected concepts, to more serious ones, such as inconsistencies. The identification and elimination of anomalies can diminish the ontologies size and provide a better understanding of the ontologies. However, methods to identify anomalies found in the literature do not provide anomaly visualizations, many do not work on OWL ontologies or are not user extensible. For these reasons, a new method for anomaly identification and visualization, the ONTO-Analyst, was created. It allows ontology developers to automatically identify anomalies, using SPARQL queries, and visualize them as graph images. The method uses a proposed ontology, the METAdata description For Ontologies/Rules (MetaFOR), to describe the structure of other ontologies, and SPARQL queries to identify anomalies in this description. Once identified, the anomalies can be presented as graph images. A system prototype, the ONTO-Analyst, was created in order to validate this method and it was tested in a representative set of ontologies, trough the verification of representative anomalies. The prototype tested 18 types of anomalies, taken from the scientific literature, in a set of 608 OWL ontologies from major public repositories and two articles. The system detected 4.4 million anomaly occurrences in the 608 ontologies: 3.5 million occurrences from the same type and 900 thousand distributed in 11 other types. These anomalies occurred in various parts of the ontologies, such as classes, object and data properties, etc. In a second test, a case study was performed in the visualizations generated by the ONTO-Analyst prototype, from the anomalies found in the first test. It was shown that each visualization presented the elements involved in the anomaly and that at least one possible solution could be deduced from the visualization. These results demonstrate that the method can efficiently find anomaly occurrences in a representative set of OWL ontologies and that the visualization aids in the understanding and correcting of said anomalies. In order to extend the types of detectable anomalies, users can write new SPARQL queries.
172

OntoLP: construção semi-automática de ontologias a partir de textos da lingua portuguesa

Ribeiro Junior, Luiz Carlos 21 February 2008 (has links)
Made available in DSpace on 2015-03-05T13:59:42Z (GMT). No. of bitstreams: 0 Previous issue date: 21 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / O crescimento da Internet provoca a necessidade de estruturas mais consistentes de representação do conhecimento disponível na rede. Nesse contexto, a Web Semântica e as ontologias aparecem como resposta ao problema. Contudo, a construção de ontologias é extremamente custosa, o que estimula diversas pesquisas visando automatizar a tarefa. Em sua maioria, essas pesquisas partem do conhecimento disponível em textos. As ferramentas e métodos são, nesse caso, dependentes de idioma. Para que todos tenham acesso aos benefícios da utilização de ontologias em larga escala, estudos específicos para cada língua são necessários. Nesse sentido, pouco foi feito para o Português. Este trabalho procura avançar nas questões concernentes à tarefa para a língua portuguesa, abrangendo o desenvolvimento e a avaliação de métodos para a construção automática de ontologias a partir de textos. Além disso, foi desenvolvida uma ferramenta de auxílio à construção de ontologias para a língua portuguesa integrada ao ambiente largamente / The internet evolution is in need of more sophisticated knowledge management techniques. In this context, the Semantic Web and Ontologies are being developed as a way to solve this problem. Ontology learning is, however, a dificult and expensive task. Research on ontology learning is usually based on natural language texts. Language specific tools have to be developed. There is no much research that considers specifically the portuguese language. This work advances in these questions and it considers portuguese in particular. The development and evaluation of methods are presented and discussed. Besides, the developed methods were integrated as a plug-in of the widely used ontology editor Protégé
173

Um modelo para integração de informações de bases de dados abertos, com uso de ontologias

Tosin, Thyago de Melo 26 February 2016 (has links)
Submitted by Silvana Teresinha Dornelles Studzinski (sstudzinski) on 2016-05-09T13:21:17Z No. of bitstreams: 1 Thyago de Melo Tosin_.pdf: 4027788 bytes, checksum: 005b4b30c3ee7d5ddc7a8365fa1917f4 (MD5) / Made available in DSpace on 2016-05-09T13:21:17Z (GMT). No. of bitstreams: 1 Thyago de Melo Tosin_.pdf: 4027788 bytes, checksum: 005b4b30c3ee7d5ddc7a8365fa1917f4 (MD5) Previous issue date: 2016-02-26 / IFRR - Instituto Federal de Educação Ciências e Tecnologia de Roraima / Com a lei de Acesso à Informação (Lei 12527/2011), espera-se que nas esferas federais, estaduais e municipais estejam garantidas e facilitadas as atividades de acesso aos dados de interesse para o cidadão. As bases interligadas de dados abertos facilitam a aquisição desses dados, possibilitando que diversas aplicações sejam criadas e que consultas sejam realizadas. Entretanto observa-se uma carência de recursos para realizar o relacionamento das informações originadas em bases de dados abertas distintas. A integração de diferentes conjuntos de dados possibilita a criação de aplicações mais ricas e relevantes. A representação formal das relações entre os dados consultados permite o uso de mecanismos de inferência e mecanismos de consulta aos dados abertos e conectados. Este trabalho apresenta o desenvolvimento de recursos para inferir e relacionar tais informações no contexto de aplicações Web voltadas para a integração de bases de dados abertos e conectados. Um modelo foi desenvolvido como contribuição e um protótipo foi implementado como caso de uso. Neste protótipo foram utilizados os dados das compras governamentais que estavam armazenados em bases de dados relacionais, com o uso de uma ontologia, desenvolvida especificamente para este caso, os dados foram mapeados e importados para um triplestore Apache Fuseki em formato RDF, uma aplicação em Java EE com o uso do framework Apache Jena foi desenvolvida para visualização dos dados através de métodos de consulta utilizando SPARQL. Foram aplicadas três avaliações nesse protótipo: baseada em cenário, de usabilidade e da ontologia. Como resultados, verificou-se que o modelo implementado proporcionou a integração desejada e auxiliou os usuários a obterem uma melhor experiência na visualização dos dados interligados das compras governamentais com o orçamento federal. / With the Law of Access to Information and sanctioned in force, access to information, at least at the federal, state and local levels, make it easy for citizens. The bases linked open data, facilitate the acquisition of these data, however there is a lack of resources for inference of relationship information. This work aims at the development of these resources to infer and relate this information in the context of Web applications integrated with open and connected databases. The prototype implemented used the data from government purchases that was stored in relational databases, using an ontology, developed specifically for this case, the data have been mapped and imported into a triplestore Apache Fuseki in RDF format, a Java EE application using Apache Jena framework, was developed to display data through methods that consulted using SPARQL. Three evaluations were applied in this prototype: scenario-based, usability and ontology. As result, it was found that the model implemented helped people to have a better experience when viewing linked data of government purchases with the federal budget.
174

Uma arquitetura multiagente para gerenciamento de dispositivos em ambientes da internet das coisas /

Cagnin, Renato Luciano. January 2015 (has links)
Orientador: Ivan Rizzo Guilherme / Banca: Paulo André Lima De Castro / Banca: Simone das Graças Domingues Prado / Resumo: A Internet das Coisas (IoT) é o termo usado para definir o novo cenário da Internet, caracterizado pela conexão de uma grande variedade de dispositivos que possuem interfaces de comunicação sem fio e estão imersos em um ambiente físico. Na IoT, esses ambientes são abertos, onde novos componentes podem ser incorporados; distribuídos, caracterizados por diversos componentes conectados em rede; e dinâmicos. Tais características trazem diversos desafios para o desenvolvimento de aplicações que buscam acessar, integrar e analisar a quantidade de dados produzida por estes dispositivos. Nesse sentido, este trabalho propõe uma arquitetura de software para o desenvolvimento de aplicações no contexto da IoT. A arquitetura proposta é constituída de diversas camadas, caracterizadas por diferentes tecnologias. As tecnologias utilizadas são Sistemas Multiagente, Arquitetura Orientada a Serviços e Web Semântica. Para demonstrar a viabilidade da proposta, um protótipo da arquitetura foi desenvolvido e aplicado em um estudo de caso no contexto da automação residencial. Os resultados apresentados demonstram que a arquitetura demonstrou capacidade de identificação de diferentes dispositivos, operações e serviços; e coordenação da execução de operações de dispositivos em tarefas de maior complexidade segundo informações contextuais / Abstract: The Internet of Things (IoT) is the term used to define the new Internet scenario, characterized by connecting a variety of devices that have wireless communication interfaces and are immersed in a physical environment. The IoT environments are open, where new components can be incorporated; distributed, characterized by several components networked; and dynamic. These characteristics bring many challenges for the development of applications that seek to access, integrate and analyze the amount of data produced by these devices. In this sense, this paper proposes a software architecture for the development of applications in the context of IoT. The proposed architecture is made up of several layers characterized by different technologies. The technologies used are Multi-Agent Systems, Service Oriented Architecture and Web Semantics. To demonstrate the feasibility of the proposal, a prototype of the architecture was developed and applied in a case study in the context of home automation. The results presented show that the architecture demonstrated ability to identify different devices, operations, and services; and coordinate the executions of operation of devices in more complex tasks according to the available contextual information / Mestre
175

Uma abordagem de suporte à avaliação de qualidade de sistemas educacionais baseados em Web Semântica / A supportive approach to quality assessment of Semantic Web-based educational systems

Lopes, Aparecida Maria Zem 05 October 2017 (has links)
O mercado global dos sistemas educacionais Web (WES, do inglês, Web Educational Systems) continua a mudar, crescer e evoluir em todo o mundo, impulsionado por diversos fatores, entre eles, pelas novas tendências em tecnologias emergentes e ferramentas que dão suporte aos WES e, ainda, ao papel crescente da aprendizagem social como prioridade para o processo de desenvolvimento de tais sistemas. Os Sistemas Educacionais baseados em Web Semântica (SWBES, do inglês Semantic Web-based Educational Systems) são plataformas educacionais Web desenvolvidas para resolver diversos problemas enfrentados pelos alunos e outros usuários, como dificuldades relacionadas à busca, compartilhamento e reutilização de recursos educacionais. SWBES têm sido frequentemente usados como motores de busca para plataformas MOOC e Sistemas Tutores Inteligentes (STI). Portanto, é necessário garantir a qualidade desses sistemas para possibilitar melhores experiências de ensino e aprendizagem. No entanto, a avaliação da qualidade dos SWBES é uma tarefa complexa, uma vez que requer um amplo conhecimento sobre as tecnologias da Web Semântica, Educação a Distância, Engenharia de Software, além das normas e padrões utilizados para a Avaliação da Qualidade de Software. O problema identificado foi a ausência de uma abordagem de avaliação de qualidade desses sistemas a partir dos elementos da arquitetura do sistema, ou seja, a atuação e estruturação dos agentes inteligentes, ontologias, objetos de aprendizagem, repositórios, metadados etc. Nesse contexto, o objetivo dessa tese foi desenvolver uma abordagem para a avaliação de qualidade de SWBES. Para atingir o objetivo proposto, foram necessários identificar os critérios de qualidade utilizados na avaliação de qualidade de software, de WES (incluindo recursos educacionais, tais como os objetos de aprendizagem), das tecnologias da Web Semântica (tais como ontologias). Esses critérios foram classificados, analisados e ajustados, com base nos requisitos de qualidade dos SWBES apontados na literatura. Em seguida, um conjunto de fatores de qualidade foi estabelecido, com subfatores e critérios que serão utilizados como diretriz geral para avaliar e comparar a qualidade de SWBES. Foram definidos os avaliadores responsáveis de acordo com os papéis que representam no sistema. Estabeleceu-se também quais os artefatos do SWBES que devem ser avaliados pela abordagem, de modo que o processo de avaliação seja simplificado. A abordagem foi automatizada em uma ferramenta Web e validada por meio de estudos de caso, por meio de especialistas no domínio da Web Semântica, Informática e Educação. Espera-se que a abordagem desenvolvida possa contribuir com profissionais, desenvolvedores e outros usuários (professores, educadores, alunos, mediadores, tutores e gestores) que desejam ou necessitam adquirir e utilizar SWBES, de forma que possam efetuar a aquisição adequada às suas necessidades e objetivos. Além disso, espera-se poder colaborar no processo de desenvolvimento de SWBES, a partir dos fatores de qualidade estabelecidos para a abordagem, e promover a garantia de qualidade desde o início do processo do desenvolvimento. Como trabalhos futuros, pretende-se ampliar os fatores de qualidade e estender a abordagem para permitir a avaliação de outros Sistemas baseados em Web Semântica, em outros domínios do conhecimento. / The Web education systems (WES) global community is in continuous change, growth and evolve all around the world, driven by several factors, including new trends in emerging technologies and tools that support WES, and even the growing role of social learning as a priority for the development process of such systems. Semantic Web-based Educational Systems (SWBES) are Web-based educational platforms designed to address a variety of problems faced by students and other users, such as difficulties in finding, sharing, and reusing educational resources. SWBES have often been used as search engines for MOOC platforms and Intelligent Tutoring Systems (ITS). Therefore, ensuring the quality of these systems is necessary to enable better teaching and learning experiences. However, SWBES quality assessment is a complex task, since it requires extensive knowledge about Semantic Web technologies, Web Educational Systems, Software Engineering, and software quality assessment standards. The problem identified was the absence of a quality evaluation approach of these systems from the elements of the system architecture, ie, the role and structure of intelligent agents, ontologies, learning objects, repositories, metadata etc. In this context, the purpose of this thesis was to develop an approach for the quality evaluation of SWBES. In order to achieve the proposed objective, it was necessary to identify the quality criteria used in software quality assessment, WES (including educational resources, such as learning objects), Semantic Web technologies (such as ontologies). These criteria were classified, analyzed and adjusted, based on the quality requirements of SWBES in the literature and named as factors. Next, a set of quality factors was established, with subfactors and criteria that will be used as a general guideline to evaluate and compare the quality of SWBES. The evaluators designated to evaluate the SWBES were defined according to the role they represent in the systems. It was also established which SWBES artifacts should be evaluated by the approach, in order of making the evaluation process simplified. It was developed a Web tool to automate the approach developed which were validated through case studies by specialists in the related research fields. It is expected that the approach will contribute with professionals, developers and other users (teachers, educators, students, virtual tutors and managers) in acquiring and using SWBES, so that they can choose the appropriate system to fill out their needs and goals. In addition, it is expected to collaborate in the SWBES development process, based on the quality factors established, and promoting quality assurance since the beginning of the development process. As future work, it is intended to broaden the quality factors and extend the approach allowing the evaluation of other Semantic Web-based Systems in other knowledge domain.
176

Um processo de software e um modelo ontológico para apoio ao desenvolvimento de aplicações sensíveis a contexto / A software process and a ontological model for supporting the development of context-aware applications

Bulcão Neto, Renato de Freitas 13 December 2006 (has links)
Aplicações sensíveis a contexto utilizam informações de contexto para fornecer serviços adaptados a usuários na realização de suas tarefas. Informação de contexto é qualquer informação considerada relevante para caracterizar entidades de uma interação usuário-computador, como a identidade e a localização de usuários. Esta tese trata a carência de uma abordagem que considere, em termos de processo de software, a complexidade de desenvolvimento de software sensível a contexto. O problema em questão é tratado por meio de três linhas de investigação: modelagem de informação contextual, serviços para tratamento de informação contextual e processo de software para computação sensível a contexto. As contribuições desta tese incluem: (i) o processo de software POCAp (Process for Ontological Context-aware Applications) para apoiar a construção de aplicações sensíveis a contexto baseadas em ontologias; (ii) o modelo de informações de contexto SeCoM (Semantic Context Model) baseado em ontologias e em padrões da Web Semântica; (iii) a infra-estrutura de serviços configuráveis SCK (Semantic Context Kernel) para interpretar informações de contexto apoiadas por modelos ontológicos de informação contextual, como o modelo SeCoM; (iv) uma instanciação do processo POCAp correspondente à extensão de uma aplicação com informações de contexto apoiadas pelo modelo SeCoM, e sua integração com serviços da infra-estrutura SCK; e (v) a identificação de questões de projeto relacionadas à inferência sobre informação contextual ontológica / In order to provide adaptive services according to users? tasks, context-aware applications exploit context information, which is any information used to characterize entities of a user-computer interaction such as user identity or user location. This thesis deals with the lack of a software process-based approach to supporting the inherent complexity of developing context-aware systems. The work reported in this thesis followed three main lines of investigation: context information modeling, services for processing context information, and a software process for context-aware computing. The contributions of this thesis include: (i) the Process for Ontological Context-aware Applications (POCAp) to support the development of context-aware applications based on ontologies; (ii) the Semantic Context Model (SeCoM) based on Semantic Web standards and ontologies; (iii) the Semantic Context Kernel (SCK) services infrastructure for interpreting ontological context information models such as the SeCoM model; (iv) an implementation of the POCAp process for the extension of an application with context information based on the SeCoM model, and its integration with services of the SCK infrastructure; and (v) the identification of design issues related to the inference over ontology-based context information
177

O controle de autoridade no consórcio VIAF / The authority control in the consortium VIAF

Romanetto, Luiza de Menezes [UNESP] 24 January 2017 (has links)
Submitted by LUIZA DE MENEZES ROMANETTO (luizamenezes@reitoria.unesp.br) on 2017-02-22T14:24:28Z No. of bitstreams: 1 romanetto_lm_me_mar.pdf: 2455878 bytes, checksum: 25b85b9fc9e1542b5eccb4e8abac7954 (MD5) / Approved for entry into archive by LUIZA DE MENEZES ROMANETTO (luizamenezes@reitoria.unesp.br) on 2017-02-22T14:25:59Z (GMT) No. of bitstreams: 1 romanetto_lm_me_mar.pdf: 2455878 bytes, checksum: 25b85b9fc9e1542b5eccb4e8abac7954 (MD5) / Made available in DSpace on 2017-02-22T14:26:03Z (GMT). No. of bitstreams: 1 romanetto_lm_me_mar.pdf: 2455878 bytes, checksum: 25b85b9fc9e1542b5eccb4e8abac7954 (MD5) Previous issue date: 2017-01-24 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / O controle de autoridade garante consistência aos sistemas de informação. Adotado na catalogação, o tema recebeu maior visibilidade durante a década de 1980 com a automação dos catálogos. Desde então, surgiram projetos direcionados ao intercâmbio e compartilhamento de dados de autoridade. O Virtual International Authority File (VIAF) é um consórcio de cooperação internacional entre bibliotecas e agências nacionais que disponibiliza arquivos de autoridade no Linking Open Data. Este estudo foi desenvolvido com o intuito de responder ao problema de pesquisa: como o controle de autoridade no VIAF contribui para a efetivação da Web Semântica de modo a proporcionar maior qualidade aos sistemas de busca e recuperação da informação? Para isso, foram definidos os objetivos: 1) descrever sobre os princípios, técnicas e padrões que proporcionam o controle de autoridade na catalogação; 2) analisar o controle de autoridade de nomes para pessoas, instituições e geográfico; 3) apresentar o VIAF, sua origem, as tecnologias envolvidas em sua estrutura e sua perspectiva de contribuição para a Web Semântica. A metodologia compreende um estudo qualitativo, de natureza aplicada, com objetivos exploratórios. Os resultados obtidos apresentam a abrangência internacional do VIAF e a caracterização sobre as tecnologias e a forma pela qual são estabelecidos os registros de autoridade no consórcio. Os registros de autoridade estabelecidos no VIAF compreendem a agregação de vocabulários de valor estabelecidos pelas principais agências catalogadoras no mundo, que têm sido adotados em Linking Open Data. / Authority control ensures consistency in information systems. Adopted in the cataloging, the theme received greater visibility from the automation of the catalogs, during the decade of 1980 with automation of catalogs. Since then emerged projects cooperation targeted to exchange and cooperation of authority data. The Virtual International Authority File (VIAF) is consortium of international cooperation between library and national agencies what provides authority file in the linking open data. This study was developed with intent to respond to research problem: how does the authority control in VIAF contributes to the effectiveness from the semantic web so provide higher quality to the search systems and information retrieval? For this were defined the objectives: 1) to describe about the principles, techniques and standards what provide authority control in cataloging; 2) to analyze authority control of names for people, institutions and geographical; 3) present the VIAF, your origin, the technologies involved in your structure and its perspective of contribution to the Semantic Web. The methodology comprises a qualitative study of an applied nature with exploratory objectives. The obtained results present the international scope of VIAF and characterization about the technologies and the way in which are established authority records in the consortium. The authority established the VIAF records comprise the vocabulary of aggregate value established by the main catalogers agencies in the world. What stands out to the importance relevance of the consortium to the international community.
178

UM MODELO DE RECUPERAÇÃO DE INFORMAÇÃO PARA A WEB SEMÂNTICA. / AN INFORMATION RETRIEVAL MODEL FOR THE SEMANTIC WEB.

SILVA, Fábio Augusto de Santana 18 May 2009 (has links)
Submitted by Maria Aparecida (cidazen@gmail.com) on 2017-08-29T14:17:25Z No. of bitstreams: 1 Fabio Augusto.pdf: 2319314 bytes, checksum: 7dc99465ac724efe228c61bb9dfafa80 (MD5) / Made available in DSpace on 2017-08-29T14:17:25Z (GMT). No. of bitstreams: 1 Fabio Augusto.pdf: 2319314 bytes, checksum: 7dc99465ac724efe228c61bb9dfafa80 (MD5) Previous issue date: 2009-05-18 / Several techniques for extracting meaning from text in order to construct more accurate internal representations of both queries and information items in retrieval systems have been already proposed. However, there is a lack of semantic retrieval models to provide appropriate abstractions of these techniques. This work proposes a knowledge--based information retrieval model that explores the semantic content of information items . The internal representation of information items is based on user interest groups, called “semantic cases”. The model also defines a criteria for retrieve information items and a function for ordering the results that uses similarity measures based on semantic distance between semantic cases items. The model was instantiated by a sample system built upon the tributary legal domain using the specialization of the ONTOJURIS, a generic legal ontology, called ONTOTRIB. Legal normative instruments can be instantiated in a knowledge base by ONTOTRIB classes. The results obtained for this specific domain showed an improvement in the precision rates compared to a keyword-based system. / Várias técnicas para extrair significado de textos com o objetivo de construir representações internas mais precisas, tanto para itens de informação quanto para consultas em sistemas de recuperação já foram propostas. Contudo, faltam modelos de recuperação baseados em semântica que especifiquem abstrações apropriadas para essas técnicas. Este trabalho apresenta um modelo de recuperação baseado no conhecimento que explora o conteúdo semântico dos itens de informação. A representação interna dos itens de informação é baseada em grupos de interesse do usuário chamados de “casos semânticos”. O modelo também define um critério para a recuperação dos itens de informação e uma função para ordenar os resultados obtidos que utiliza medidas de similaridade baseadas na distância semântica entre os elementos das representações internas. O modelo foi instanciado em um sistema construído para o domínio jurídico tributário usando a ontologia ONTOTRIB, uma extensão da ontologia genérica ONTOJURIS, que permite a instanciação de instrumentos jurídico-tributários. Os resultados obtidos nos testes realizados neste domínio específico apontaram uma melhoria da precisão em relação a um sistema baseado em palavras-chave.
179

Estudo sobre aplicação de web semântica e visualização em dados abertos: proposta de portal para transparência em séries históricas de indicadores sociais, econômicos e financeiros, públicos na web / Study on application of semantic web and viewing in open data

Garcia, Paulo Sérgio Rangel 22 November 2011 (has links)
Made available in DSpace on 2016-04-29T14:23:04Z (GMT). No. of bitstreams: 1 Paulo Sergio Rangel Garcia.pdf: 2904735 bytes, checksum: 788a6453214c9f0a41c9629423741347 (MD5) Previous issue date: 2011-11-22 / This paper aims to discuss a model for constructing a transparent portal that contains historical trends of public social, economical and financial indicators, preferably if collected at e-Gov websites. In order to reach that objective, we researched extensively within Manuel Castells, Tim Berners-Lee, Vinton Cerf, Karin K. Breitman, Martha Gabriel and Fernanda Viegas s work, amongst others, about semantic web, ontologies, search engine optimization and data visualization. Starting from a study of the historical evolution of internet, we try to understand how was possible to forge this context of highly productive disorganized dynamics that provided the conditions of the massive availability of information and data that we see today. By utilizing concepts and technologies such as metadata, ontologies, web services, software agents, data visualization and optimization of research mechanisms, we discuss techniques and methodologies that could make collecting data as fast as possible feasible, as well as putting it together in a way that either humans or other computer systems may easily understand. We also analyze the current e-Gov services provided by the Brazilian government by evaluating its characteristics, tendencies and possibilities for evolution and growth by utilizing data and research provided by NIC.BR and W3C BR. Thus, based on research and the author s own experience, this dissertation will try to propose a model for a portal that allows human interaction and integration with other computer systems for historical trends collected via web and formats and provides this data to society in a structured way. Finally, we indicate future researches that may contribute to the discussion and development of websites and services that apropriate public open data / Este trabalho tem como objetivo discutir um modelo para a construção de portal que dê transparência a séries históricas de indicadores sociais, econômicos e financeiros, públicos e disponíveis na web. Para se chegar a esse objetivo, foram realizados estudos em autores como Manuel Castells, Tim Berners-Lee, Vinton Cerf, Karin K. Breitman, Martha Gabriel e Fernanda Viegas entre outros, sobre web semântica, ontologias, otimização em mecanismos de buscas e visualização de dados. A partir do estudo da evolução histórica da Internet, buscou-se compreender como foi possível formar esse contexto de dinamismo não ordenado, com alta produção, criando condições para a alta disponibilidade de dados e informações que existem hoje. Abordando conceitos e tecnologias relacionadas à web semântica, ontologias, web services, agentes de software, visualização de dados e otimização dos mecanismos de buscas, discutiu-se técnicas e metodologias que viabilizem a sua construção de maneira a permitir que tais dados sejam coletados e que estejam disponíveis em formatos compreensíveis para seres humanos e integráveis a outros sistemas computacionais. Foi também analisado o e-Gov atual, especialmente no Brasil, avaliando suas características, tendências e oportunidades de evolução utilizando dados e estudos disponibilizados pelo NIC.BR e W3C BR. Assim, com base nesses estudos e na experiência do autor, esta dissertação tem o objetivo de propor um modelo de portal que permita a interatividade humana e integração com outros sistemas computacionais, das séries históricas públicas coletadas, formatando e disponibilizando-as de maneira estruturada para a sociedade. ` Por fim, é feita a indicação de pesquisas futuras, as quais venham contribuir para a discussão e o desenvolvimento de sites e serviços que apropriem dados abertos públicos.
180

Uma infraestrutura semântica para integração de dados científicos sobre biodiversidade / A semantic infrastructure for integrating biodiversity scientific data

Serique, Kleberson Junio do Amaral 21 December 2017 (has links)
Pesquisas na área de biodiversidade são, em geral, transdisciplinares por natureza. Essas pesquisas tentam responder problemas complexos que necessitam de conhecimento transdisciplinar e requerem a cooperação entre pesquisadores de diversas disciplinas. No entanto, é raro que duas ou mais disciplinas distintas tenham observações, dados e métodos em formatos que permitam a colaboração imediata sobre hipóteses complexas e transdisciplinares. Hoje, a velocidade com que qualquer disciplina obtêm avanços científicos depende de quão bem seus pesquisadores colaboram entre si e com tecnologistas das áreas de bancos de dados, gerenciamento de workflow, visualização e tecnologias, como computação em nuvem. Dentro desse cenário, a Web Semântica surge, não só como uma nova geração de ferramentas para a representação de informações, mais também para a automação, integração, interoperabilidade e reutilização de recursos. Neste trabalho, uma infraestrutura semântica é proposta para a integração de dados científicos sobre biodiversidade. Sua arquitetura é baseada na aplicação das tecnologias da Web Semântica para se desenvolver uma infraestrutura eficiente, robusta e escalável aplicada ao domínio da Biodiversidade. O componente central desse ambiente é a linguagem BioDSL, uma Linguagem de Domínio Especifico (DSL) para mapear dados tabulares para o modelo RDF, seguindo os princípios de Linked Open Data. Esse ambiente integrado também conta com uma interface Web, editores e outras facilidades para conversão/integração de conjuntos de dados sobre biodiversidade. Para o desenvolvimento desse ambiente, houve a participação de instituições de pesquisa parceiras que atuam na área de biodiversidade da Amazônia. A ajuda do Laboratório de Interoperabilidade Semântica do Instituto Nacional de Pesquisas da Amazônia (INPA) foi fundamental para a especificação e testes do ambiente. Foram pesquisados vários casos de uso com pesquisadores do INPA e realizados testes com o protótipo do sistema. Nesses testes, ele foi capaz de converter arquivos de dados reais sobre biodiversidade para RDF e interligar automaticamente entidades presentes nesses dados a entidades presentes na web (nuvem LOD). Num experimento envolvendo 1173 registros de espécies ameaçadas, o ambiente conseguiu recuperar automaticamente 967 (82,4%) entidades (URIs) da LOD referentes a essas espécies, com matching completo para o nome das espécies, 149 (12,7%) com matching parcial (apenas um dos nomes da espécie), 36 (3,1%) não tiveram correspondências (sem resultados nas buscas) e 21 (1,7%) sem registro das especies na LOD. / Research in the area of biodiversity is, in general, transdisciplinary in nature. This type of research attempts to answer complex problems that require transdisciplinary knowledge and require the cooperation between researchers of diverse disciplines. However, it is rare for two or more distinct disciplines to have observations, data, and methods in formats that allow immediate collaboration on complex and transdisciplinary hypotheses. Today, the speed which any discipline gets scientific advances depends on how well its researchers collaborate with each other and with technologists from the areas of databases, workflow management, visualization, and internet technologies. Within this scenario, the Semantic Web arises not only as a new generation of tools for information representation, but also for automation, integration, interoperability and resource reuse. In this work, a semantic infrastructure is proposed for the integration of scientific data on biodiversity. This architecture is based on the application of Semantic Web technologies to develop an efficient, robust and scalable infrastructure for use in the field of Biodiversity. The core component of this infrastructure is the BioDSL language, a Specific Domain Language (DSL) to map tabular data to the RDF model, following the principles of Linked Open Data. This integrated environment also has a Web interface, editors and other facilities for converting/integrating biodiversity datasets. For the development of this environment, we had the participation of partner research institutions that work with Amazon biodiversity. The help of the Laboratory of Semantic Interoperability of the National Institute of Amazonian Research (INPA) was fundamental for the specification and tests of this infrastructure. Several use cases were investigated with INPA researchers and tests were carried out with the system prototype. In these tests, the prototype was able to convert actual biodiversity data files to RDF and automatically interconnect entities present in these data to entities present on the web (LOD cloud). In an experiment involving 1173 records of endangered species, the environment was able to automatically retrieve 967 (82.4%) LOD entities (URIs) for these species, with complete matching for the species name, 149 (12.7%) with partial matching (only one of the species names), 36 (3,1%) with no matching and 21 (1,7%) no have records at LOD.

Page generated in 0.0553 seconds