• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 174
  • 11
  • 10
  • 10
  • 10
  • 9
  • 8
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 187
  • 108
  • 61
  • 52
  • 28
  • 28
  • 27
  • 27
  • 26
  • 26
  • 25
  • 24
  • 23
  • 23
  • 22
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

Utilizando XML para publicação de dados multimídia na web.

Teixeira, Eduardo Cotrin 21 February 2002 (has links)
Made available in DSpace on 2016-06-02T19:06:04Z (GMT). No. of bitstreams: 1 DissECT.pdf: 1686156 bytes, checksum: b0ac8a0a204b32af0621b1d744787f9f (MD5) Previous issue date: 2002-02-21 / Oriented-Object Database Management Systems have been adopted for the management of multimedia applications, becoming possible to implement recovery forms that propitiate more expression capacity to the user if are foreseen metadata (information about the stored data) that assist in this task, providing a more natural and powerful form to find objects in the objects base. In this context project AMMO (Authoring and Manipulation of Multimedia Objects) appeared, aiming to provide an environment for support the authoring, storage and manipulation of multimedia applications. The developed work aims to implement automatic XML document creation for representation of multimedia data obtained as result of consultations to the Multimedia Objects Server (MmOS) of AMMO environment, preserving the advantages of this environment, as possibility of content-based search, semantics description of multimedia data and high reusability, associating them with XML advantages, as interchange facility, independence and flexibility in presentation form and semantics description of content. The XML concepts, the AMMO Project, the XML representation of multimedia data with semantic information, the creation and use of XML documents inside AMMO Project and some possible forms of visualization of the data through the XSL Style Sheets are presented. / Sistemas de gerenciamento de banco de dados orientados a objetos têm sido adotados para o gerenciamento de aplicações multimídia, tornando possível implementar formas de recuperação que propiciem maior poder de expressão ao usuário desde que sejam previstos metadados (informações sobre os dados armazenados) que auxiliem nesta tarefa, proporcionando ao usuário uma forma mais natural e poderosa para encontrar os objetos no banco de objetos. Nesse contexto surgiu o projeto AMMO (Authoring and Manipulation of Multimedia Objects), com o objetivo de prover um ambiente para suporte à autoria, armazenamento e manipulação de aplicações multimídia. O trabalho desenvolvido tem como objetivo implementar a criação automática de documentos XML para representação de dados multimídia obtidos como resultado de consultas ao Servidor de Objetos Multimídia (MmOS - Multimedia Objects Server) do ambiente AMMO, preservando as vantagens presentes nesse ambiente, como possibilidade de busca por conteúdo, descrição semântica dos dados multimídia e alta reusabilidade, associando-as às vantagens de XML, como facilidade de intercâmbio, independência e flexibilidade na forma de apresentação e descrição semântica de conteúdo. São apresentados os conceitos de XML, o Projeto AMMO, a representação em XML dos dados multimídia com informações semânticas, a criação e o uso dos documentos XML dentro do Projeto AMMO e algumas formas possíveis de visualização dos dados através do uso de Folhas de Estilo XSL.
162

BIBLIOTECA DIGITAL: UMA PROPOSTA PARA PUBLICAÇÃO E DISSEMINAÇÃO DO CONHECIMENTO PRODUZIDO ATRAVÉS DAS TESES E DISSERTAÇÕES / (DIGITAL LIBRARY: A PROPOSAL FOR PUBLICATION AND DISSEMINATION OF THE KNOWLEDGE PRODUCED THROUGH THESES AND DISSERTATIONS

Gubiani, Juçara Salete 14 July 2005 (has links)
With the coming of the World Wide Web (Web), there has been a great change in the form of communication between the people and the organizations. The link among documents that can be situated in any place on the computer network, through the Internet and the concept of Universal Resource Locator, made the fast recovery of information possible, before materialized in environments of restricted access. Publishing on Internet has become a simple task, however it was necessary to search for quality in publications and an only vestibule of access and search of excellent information. Proposals with standards for publication have appeared propitiating the interoperabilidade of information. In this context we have the digital libraries offering conditions to make a great net of data and knowledge. This work has the aim to analyze technologies for publication on the Web and to suggest a proposal to publish the knowledge produced through the Theses and Dissertation of the Programs of Pos-Graduation of the Federal University of Santa Maria (UFSM), as well as measuring the acceptability in the academic community of the new form of spreading and dissemination of the knowledge. The proposal tool must use standards and technologies that offer total integration with the other libraries in the country and be part of the project of the Digital Library of Theses and Dissertations (BDTD), as well as being linked with the Digital Networked Library of Theses and Dissertations of Virginia Tech University. After analysis of technologies, publication protocols and the view of the academic community, the system TEDE developed by the Institute of Science and Technology (IBICT), was considered as solution for publication. It was chosen because it incorporates technologies with protocols capable to collect and to make the transference of information possible being guaranteed the necessary interoperabilidade among libraries and for consequence the dissemination of the knowledge produced by the programs of pos-graduation through the publication of the theses and dissertations on the Web. / Com o surgimento da World Wide Web (Web), houve uma grande mudança na forma de comunicação entre as pessoas e as organizações. A ligação entre documentos que podem estar situados em qualquer lugar na rede de computadores, através da Internet e do conceito de Universal Resource Locator, possibilitou a recuperação rápida de informações, antes materializadas em ambientes de acesso restrito. Publicar na Internet passou a ser uma tarefa simples, porém era preciso buscar qualidade nas publicações e um portal único de acesso e busca de informações relevantes. Surgem propostas com padrões para publicação propiciando a interoperabilidade de informações. Neste contexto temos as bibliotecas digitais oferecendo condições para a formação de uma grande rede de dados e conhecimento. Este trabalho tem como objetivo analisar tecnologias para publicação na Web e sugerir uma proposta para publicar o conhecimento produzido através das Teses e Dissertações dos Programas de Pós-Graduação da Universidade Federal de Santa Maria (UFSM), bem como medir a aceitabilidade na comunidade acadêmica da nova forma de divulgação e disseminação do conhecimento. A ferramenta proposta deve usar padrões e tecnologias que ofereçam total integração com as demais bibliotecas do país e fazer parte do projeto da Biblioteca Digital de Teses e Dissertações (BDTD), bem como estar ligada com a Networked Digital Library of Theses and Dissertations da Virginia Tech University. Após análise de tecnologias, protocolos de publicações e a visão da comunidade acadêmica, o sistema TEDE desenvolvido pelo Instituto de Ciência e Tecnologia (IBICT), foi considerado como solução para publicação. Sua escolha de deu, em função do mesmo incorporar tecnologias com protocolos capazes de coletar e possibilitar a transferência de informações garantindo a interoperabilidade necessária entre bibliotecas e por conseqüência a disseminação do conhecimento produzido pelos programas de pós-graduação através da publicação na Web das teses e dissertações.
163

Modelo de procedência para auxiliar na análise da qualidade do dado geográfico

Santos, Renata Ribeiro dos 09 August 2016 (has links)
Submitted by Aelson Maciera (aelsoncm@terra.com.br) on 2017-03-29T19:09:28Z No. of bitstreams: 1 DissRRS.pdf: 3751863 bytes, checksum: 950bef628d03f26a109436e96c9ac337 (MD5) / Approved for entry into archive by Ronildo Prado (ronisp@ufscar.br) on 2017-04-11T13:45:04Z (GMT) No. of bitstreams: 1 DissRRS.pdf: 3751863 bytes, checksum: 950bef628d03f26a109436e96c9ac337 (MD5) / Approved for entry into archive by Ronildo Prado (ronisp@ufscar.br) on 2017-04-11T13:45:15Z (GMT) No. of bitstreams: 1 DissRRS.pdf: 3751863 bytes, checksum: 950bef628d03f26a109436e96c9ac337 (MD5) / Made available in DSpace on 2017-04-11T13:53:54Z (GMT). No. of bitstreams: 1 DissRRS.pdf: 3751863 bytes, checksum: 950bef628d03f26a109436e96c9ac337 (MD5) Previous issue date: 2016-08-09 / Não recebi financiamento / The quality of the geographic data must be a relevant concern for providers and consumers of this type of data because the manipulation and analysis of low quality geographic data may result in errors, which will be propagated through the consequent data. Thus it is important to properly document the information which allows for certifying the quality of the geographic data. In order to provide a minimum amount of metadata for such purpose, this dissertation presents an approach based on the provenance of the geographic data, which corresponds to the information about the history of such data from its origin until the processes that resulted in its current state. For this purpose, a provenance model called ProcGeo was proposed, in which it was defined a minimum amount of metadata that must be considered for the analysis of the quality of a certain geographic data. Although a few works and geographic metadata standards, such as Federal Geographic Data Committee (FGDC) and ISO 19115, consider the information about the provenance in the analysis of the quality of geographic data, it´s the opinion of the author that some metadata considered important for this purpose are not adequately contemplated. In this work, the prototype of an interface called ProcGeoInter was also implemented, aiming to guarantee the completeness and correctness in the filling out of the defined metadata in the ProcGeo model as well as the visualization of their content. The validation of the ProcGeo model and of the ProcGeoInter interface were made through tests and surveys applied to providers and consumers of geographic data. As a means of comparison, the interface for filling out and visualization of metadata available by SIG Quantum GIS (plugin Metatools) was used, which implements the FGDC geographic metadata standard. The obtained results indicated that the metadata defined in the ProcGeo model helped the geographic data provider in the description of the provenance of such data, when compared to those defined in the FGDC geographic metadata standard. Through the consumer´s focus it was possible to notice that the information filled out in the metadata defined by the ProcGeo favored the analysis of the quality of the consumed data. It was clear that both providers and consumers do not possess the habit of providing or consuming the information predicted in the FGDC and ISO 19115 geographic metadata standards. / A qualidade do dado geográfico deve ser uma preocupação relevante para provedores e consumidores desse tipo de dado, pois a manipulação e análise de um dado geográfico com baixa qualidade podem resultar em erros que vão se propagar nos dados gerados a partir desse. Assim, é importante que a informação que permita atestar a qualidade do dado geográfico seja adequadamente documentada. Com o propósito de oferecer um conjunto mínimo de metadados para essa finalidade, esse trabalho apresenta uma abordagem baseada na procedência do dado geográfico, que corresponde à informação sobre a história do dado, desde a sua origem até os processos que resultaram no seu estado atual. Para tanto, foi proposto um modelo de procedência denominado ProcGeo no qual foi definido um conjunto mínimo de metadados que devem ser considerados para a análise da qualidade de um dado geográfico. Embora alguns trabalhos e padrões de metadados geográficos, como o Federal Geographic Data Committee (FGDC) e o ISO 19115, considerem a informação da procedência para a análise da qualidade do dado geográfico, sob o ponto de vista da autora deste trabalho, alguns metadados considerados importantes para essa finalidade não são adequadamente contemplados. Neste trabalho também foi implementado o protótipo de uma interface denominada ProcGeoInter, que tem como finalidade garantir a corretude e completude do preenchimento dos metadados definidos no modelo ProcGeo e a visualização do conteúdo dos mesmos. A validação do modelo ProcGeo e da interface ProcGeoInter foram realizados por meio de testes e questionários aplicados a provedores e consumidores de dados geográficos. Para efeito de comparação, foi considerada a interface para preenchimento e visualização de metadados disponibilizada no SIG Quantum GIS (plugin Metatoools), que implementa o padrão de metadados geográficos FGDC. Os resultados obtidos indicaram que os metadados definidos no modelo ProcGeo auxiliaram o provedor de dados geográficos na descrição da procedência desses dados, quando comparados aos definidos no padrão de metadados geográficos FGDC. Pelo foco do consumidor foi possível perceber que as informações preenchidas nos metadados definidos pelo ProcGeo favoreceram a análise da qualidade dos dados consumidos. Ficou evidente que tanto provedores quanto consumidores não possuem o hábito de prover ou consumir as informações previstas nos padrões de metadados geográficos FGDC e ISO 19115.
164

Geoestatística aplicada na avaliação da qualidade de dados geoespaciais / Geostatistics applied in assessment of geospatial data quality

Santos, Alex da Silva 07 October 2013 (has links)
Made available in DSpace on 2015-03-26T13:28:26Z (GMT). No. of bitstreams: 1 texto completo.pdf: 3330909 bytes, checksum: 83d789ab10722b6666725f8fd263d49e (MD5) Previous issue date: 2013-10-07 / Fundação Instituto Brasileiro de Geografia e Estatística / In the process of production cartographic is natural the pursuit of quality spatial dataset. Throughout time technological evolution provided at the professionals in the area a constant growth in this production and in demand of these geospatial information by the users. However, to support this evolution without losing the qualification of space data is necessary to adopt standards. Furthermore, the complexity of geographic information in many aspects, require sampling techniques to measure and assess the quality of the spatial dataset in order to ensure with statistical basis, a significant amount and an appropriate spatial distribution of its samples. In Geosciences is intuitive to think in spatial correlation of a phenomenon under study and Geostatistics provides tools to identify and represent the behavior of this dependence. The spatial analysis of results from an inspection of a quality cartographic product is seldom addressed in literature, restricted only to conclusions descriptive and tabular, based on the assumption of classical statistical of independence from the observed data. At the present time is in deploying the National Spatial Data Infrastructure of Brazil (INDE), where several cartographic products are made available to the society, along with their geographic metadata. The metadata facilitates access to spatial data, but serve partly aspects concerning the quality of the dataset. Therefore, this thesis proposes a methodology for the quality inspection of spatial datasets of the INDE, based on international standards, concepts of generalization and elements of quality defined in literature as well as the spatial analysis of results of this inspection by using geostatistical methods and the representation of this assessment by means of quality maps. The method of quality evaluation data developed and applied on the Base Cartographic Continuous of Brazil at the 1:250.000 scale - BC250 with a focus on certain aspects of quality. The quality maps generated showed regionalizations in the indicators of quality inspected, confirmed by the staff that producer of cartographic base, subsidizing the producers themselves and users in understanding the spatial behavior quality product cartographic under study. / No processo de produção cartográfica é natural a busca pela qualidade do conjunto de dados espaciais. Ao longo do tempo, a evolução tecnológica propiciou aos profissionais da área um crescimento constante desta produção e na demanda destas informações geoespaciais por parte dos usuários. Entretanto, para acompanhar esta evolução, sem perder a qualificação dos dados espaciais, é necessária a adoção de padrões. Além disto, a complexidade das informações geográficas, em diversos aspectos, demanda técnicas de amostragem para mensurar e aferir a qualidade do conjunto de dados espaciais, a fim de garantir com embasamento estatístico, uma quantidade significativa e uma adequada distribuição espacial de suas amostras. Na área de Geociências é intuitivo pensar na correlação espacial de um fenômeno em estudo e a Geoestatística dispõe de ferramentas para identificar e representar o comportamento desta dependência. A análise espacial dos resultados de uma inspeção de qualidade de um produto cartográfico raramente é abordada na literatura, restrita apenas à conclusões descritivas e tabulares, baseadas no pressuposto da Estatística Clássica de independência dos dados observados. No presente momento está em implantação a Infraestrutura Nacional de Dados Espaciais do Brasil (INDE), onde diversos produtos cartográficos são disponibilizados à sociedade, junto com seus metadados geográficos. Os metadados facilitam o acesso ao dado espacial, mas atendem em parte aspectos relativos à qualidade do conjunto de dados. Desta forma, a presente dissertação propõe uma metodologia de inspeção da qualidade de conjuntos de dados espaciais da INDE, baseada em normas internacionais, conceitos de generalização e elementos de qualidade definidos na literatura, bem como a análise espacial dos resultados desta inspeção, usando métodos geoestatísticos e a representação desta aferição por meio de mapas de qualidade. O método de avaliação da qualidade de dados foi desenvolvido e aplicado sobre a Base Cartográfica Contínua do Brasil na escala 1:250.000 - BC250, com foco em determinados aspectos de qualidade. Os mapas de qualidade gerados mostraram regionalizações dos indicadores de qualidade inspecionados, confirmadas pela equipe produtora da referida base cartográfica, subsidiando usuários e os próprios produtores no entendimento do comportamento espacial da qualidade do produto cartográfico em estudo.
165

Uso de web services e softwares livres na disseminação de informações georreferenciadas sobre produtos da floresta amazônica. / Web services and free software applied to dissemination of amazon products geospatial information.

Felipe dos Santos Costa 08 April 2009 (has links)
Georreferenced information has been increasingly required for the planning and decision-making in different sectors of society. New ways of dissemination of data, such as the Open Geospatial Consortium (OGC) web services, have contributed to the ease of access to this information. Even with all the technological advances in the area of data distribution, there is still low availability of georreferenced data about the Amazon. The goal of the present work is the development of a spatial data infrastructure (SDI), that is, an environment of sharing and use of georreferenced data based on the technology of web services, metadata and interfaces that allow the user easy access to these data. The present work discussess the OGC patterns, the most relevant georeferrenced data servers, the main web clients, and the revolution in the dissemination of georeferrenced data which geobrowsers and web clients offered to regular users. Data to be released for the case study come from the project Exploitation of Non-wooden Forest Products-PFNM-in progress at the National Institute of Research in the Amazon-INPA-as well as from inventories of NGOs and other government bodies. Besides contributing to the enhancement of PFNM, this project aims at encouraging the use of GIS in the state of Amazonas offering tech support for the deployment of geographic databases and sharing between agencies, optimizing the resources applied in this area through the use of free software and integration of diffuse information currently available.
166

Um perfil de qualidade para fontes de dados dinâmicas

SILVA NETO, Everaldo Costa 24 August 2016 (has links)
Submitted by Irene Nascimento (irene.kessia@ufpe.br) on 2016-10-17T18:07:42Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Dissertação - Everaldo Costa Silva Neto (final).pdf: 1973752 bytes, checksum: 18ff29972829bab54f92cc990addf923 (MD5) / Made available in DSpace on 2016-10-17T18:07:42Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Dissertação - Everaldo Costa Silva Neto (final).pdf: 1973752 bytes, checksum: 18ff29972829bab54f92cc990addf923 (MD5) Previous issue date: 2016-08-24 / Atualmente, um massivo volume de dados tem sido produzido pelos mais variados tipos de fontes de dados. Apesar da crescente facilidade de acesso a esses dados, identificar quais fontes de dados são mais adequadas para um determinado uso é um grande desafio. Isso ocorre devido ao grande número de fontes de dados disponíveis e, principalmente, devido à ausência de informações sobre a qualidade dos dados. Nesse contexto, a literatura oferece diversos trabalhos que abordam o uso de critérios de Qualidade da Informação (QI) para avaliar fontes de dados e solucionar esse desafio. No entanto, poucos trabalhos consideram o aspecto dinâmico das fontes na etapa da avaliação da qualidade. Nesta dissertação, abordamos o problema de avaliação da qualidade em fontes de dados dinâmicas, ou seja, fontes de dados cujo conteúdo pode sofrer modificações com alta frequência. Como contribuição, propomos uma estratégia onde os critérios de QI são avaliados de forma contínua, com o objetivo de acompanhar a evolução das fontes de dados ao longo do tempo. Além disso, propomos a criação de um Perfil de Qualidade, que consiste de um conjunto de metadados sobre a qualidade de uma fonte, onde seu uso pode ser aplicado para diversos fins, inclusive no processo de seleção de fontes de dados. O Perfil de Qualidade proposto é atualizado periodicamente de acordo com os resultados obtidos pela avaliação contínua da qualidade. Dessa forma, é possível refletir o aspecto dinâmico das fontes. Para avaliar os resultados deste trabalho, mais especificamente a estratégia de avaliação contínua da qualidade, utilizamos fontes de dados do domínio Meteorológico. Os experimentos realizados demonstraram que a estratégia de avaliação proposta produz resultados satisfatórios. / Nowadays, a massive data volume has been produced by a variety of data sources. The easy access to these data presents new opportunities. In this sense, choosing the most suitable data sources for a specific use has become a challenge. Several works in the literature use Information Quality as a mean of solving this problem, however, only few works employ a continuous strategy. In this work, we address the problem of performing assessment continuously, looking to dynamic data sources. We also propose the creation of a data source Quality Profile, which consists of a set of metadata about the data source’s quality and may be used to help the selection of data sources. To reflect the real quality values of a data source, we propose a continuous updating of the Quality Profile, according to the data source’s refresh rate. In order to evaluate our proposal, we carried out some experiments with meteorological data provided by institutions that monitor weather conditions of Recife. The experimental results have demonstrated that our strategy produces more satisfactory results than others, regarding the trade off between performance and accuracy.
167

O uso de metadados para a preservação digital no Arquivo da Marinha: a implementação do Software ICA-AToM

Xavier, Jean Frederick Brito 28 September 2014 (has links)
Submitted by Priscilla Araujo (priscilla@ibict.br) on 2016-06-23T17:19:42Z No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) JEAN FREDERICK BRITO XAVIER.pdf: 1785438 bytes, checksum: f17977271213d535cec1a6521da9380b (MD5) / Made available in DSpace on 2016-06-23T17:19:42Z (GMT). No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) JEAN FREDERICK BRITO XAVIER.pdf: 1785438 bytes, checksum: f17977271213d535cec1a6521da9380b (MD5) Previous issue date: 2014-09-28 / O presente trabalho investiga a aplicação do software livre ICA-AToM em um dos maiores Arquivos brasileiros: o Arquivo da Marinha. Este software foi arquitetado para funcionar na internet e é baseado em normas arquivísticas internacionais, como a Norma Internacional de Registro de Autoridade Arquivística para Entidades Coletivas, Pessoas e Famílias ISAAR (CPF), a Norma Geral Internacional de Descrição Arquivística - ISAD(G) e a Norma Internacional para Descrição de Instituições com Acervo Arquivístico ISDIAH. Apesar de ter sido criado com base em normas indicadas pelo Conselho Internacional de Arquivos – CIA, esse trabalho questiona até que ponto o ICA-AToM atende ao processo de descrição documental do Arquivo da Marinha. Para medir a eficiência deste sofware, no que diz respeito a garantir o acesso da documentação do Arquivo da Marinha, é realizada, nas análises, uma comparação dos metadados utilizados na versão do ICA-AToM instalada no Arquivo da Marinha com os metadados estabelecidos pela Norma Brasileira Arquivística de Descrição – NOBRADE e pelo Modelo de Requisitos para Sistemas Informatizados de Gestão Arquivística de Documentos e-ARQ Brasil. Buscou-se entender cada um dos metadados especificados nestas normas e relacioná-los com as possíveis vantagens de uso dos mesmos. O resultado obtido nestas comparações foi a constatação de um conjunto de metadados e sugestões para que o Arquivo da Marinha possa otimizar o uso deste software e da sua descrição arquivística, que é fundamental na tarefa de garantir o acesso e a preservação do seu acervo. / The present work investigates the aplication of the free software Ica atom in one of the biggest brazilian archives: the Marine Archive. This software was created to work in the internet and based in archivistic international rules, like the international rule of register of archivistic authority to group entities, people and families ISAAR (CPF), the international rule of archivistic description ISAD(G) and the International standard for describing institutions with archival holdings-ISDIAH. Despite of being created based on rules indicated by the international Council of Archives - CIA, this work questions until what point the ICA-AToM answers to the process of documental description of the Marine Archive. To mesure the eficiency of this software, in order to garantee the access to the documents of the Marine Archive, a comparison of the metadatas used in the version of ICA-AToM, situated in the Marine Archive with the metadatas stablished by the brazilian archivistic rule of description (NOBRADE), is done in the analysis and by the “modelo de requisitos para sistemas informatizados de gestão arquivistica de documentos” - e-ARQ Brasil. There was an attempt to understand each one of the metadatas especyfied in these rules and relate them to the possible advantages of their use. The result of these comparisons was the realization of a group of metadatas and sugestions for that Marine Archive can optimize the use of this software and of its archivistic description, which is fundamental in the ensuring task the access and preservation of its collection.
168

Um serviço de gerenciamento de coletas para sistemas de biodiversidade / A service for data collection management for biodiversity information system

Gonzales Malaverri, Joana Esther, 1981- 13 August 2018 (has links)
Orientador: Claudia M. Bauzer Medeiros / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-13T18:08:33Z (GMT). No. of bitstreams: 1 GonzalesMalaverri_JoanaEsther_M.pdf: 7785529 bytes, checksum: 898b84df81a858308fd9c919606e4936 (MD5) Previous issue date: 2009 / Resumo: A pesquisa em biodiversidade requer correlacionar dados sobre seres vivos e seus habitats. Essas correlações podem ser de varios tipos, integrando desde relacionamentos espaciais a especificações ambientais (descrições do habitat ou ecossistema). Sistemas de Biodiversidade são sistemas de software complexos que permitem aos pesquisadores realizar tais analises. A complexidade desses sistemas varia com os dados manipulados, os usuários visados e o ambiente em que são executados. Um problema que deve ser enfrentado, especialmente no ambiente Web, é a heterogeneidade dos dados, agravado pela diversidade dos vocabularios dos usuarios. Esta dissertação contribui para resolver tal problema, apresentando um modelo de banco de dados que permite organizar informações de biodiversidade a partir de padrões mundiais de dados. O modelo proposto combina informações coletadas em campo com dados de catalogos de museus. Para a especificação do modelo, contamos com a participação de ecologos e biologos. Para permitir o acesso e recuperação de informação de forma transparente, o banco de dados foi encapsulado em um servi"co Web, que é invocado por aplicaçõoes cliente. A validação do banco de dados e do servi"co utiliza dados reais fornecidos pelos parceiros do projeto BIO-CORE, um projeto de pesquisa que envolve pesquisadores em Computação e Biologia da UNICAMP e USP / Abstract: Abstract: Biodiversity research requires correlations of data on living beings and their habitats. Such correlations can be of different types, considering factors such as spatial relationships or environmental descriptions (e.g., description of habitat and ecossystems). Biodiversity information systems are complex pieces of software that allow researchers to perform these kinds of analysis. The complexity of these systems varies with the data used, the target users, and the environment where the systems are executed. One of the problems to be faced, especially on the Web, is the heterogeneity of the data aggravated by the diversity of user vocabularies. This research contributes to solve this problem by presenting a database model that organizes the biodiversity information using consensual data standards. The proposed model combines information collected in the ¯eld with that from museum data catalogues. The model was specified with the assistance of biologists and ecologists. The database was encapsulated in a Web service to ensure transparency in using, accessing and recovering the information. The service is invoked by client applications. The database and service were validated using real data, provided by the BIO-CORE project partners. BIO-CORE is a research project that involves computer and biology researchers from UNICAMP and USP / Mestrado / Banco de Dados / Mestre em Ciência da Computação
169

Anotação semantica de dados geoespaciais

Macario, Carla Geovana do Nascimento 15 August 2018 (has links)
Orientador: Claudia Maria Bauzer Medeiros / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-15T04:11:30Z (GMT). No. of bitstreams: 1 Macario_CarlaGeovanadoNascimento_D.pdf: 3780981 bytes, checksum: 4b8ad7138779392bff940f1f95ad1f51 (MD5) Previous issue date: 2009 / Resumo: Dados geoespaciais constituem a base para sistemas de decisão utilizados em vários domínios, como planejamento de transito, fornecimento de serviços ou controle de desastres. Entretanto, para serem usados, estes dados precisam ser analisados e interpretados, atividades muitas vezes trabalhosas e geralmente executadas por especialistas. Apesar disso estas interpretacoes nao sao armazenadas e quando o são, geralmente correspondem a alguma informacao textual e em linguagem própria, gravadas em arquivos tecnicos. A ausencia de solucoes eficientes para armazenar estas interpretaçães leva a problemas como retrabalho e dificuldades de compartilhamento de informação. Neste trabalho apresentamos uma soluçao para estes problemas que baseia-se no uso de anotações semânticas, uma abordagem que promove um entendimento comum dos conceitos usados. Para tanto, propomos a adocão de workflows científicos para descricao do processo de anotacão dos dados e tambíem de um esquema de metadados e ontologias bem conhecidas, aplicando a soluçao a problemas em agricultura. As contribuicães da tese envolvem: (i) identificacao de um conjunto de requisitos para busca semantica a dados geoespaciais; (ii) identificacao de características desejóveis para ferramentas de anotacão; (iii) proposta e implementacao parcial de um framework para a anotacão semântica de diferentes tipos de dados geoespaciais; e (iv) identificacao dos desafios envolvidos no uso de workflows para descrever o processo de anotaçcaão. Este framework foi parcialmente validado, com implementação para aplicações em agricultura / Abstract: Geospatial data are a basis for decision making in a wide range of domains, such as traffic planning, consumer services disasters controlling. However, to be used, these kind of data have to be analyzed and interpreted, which constitutes a hard task, prone to errors, and usually performed by experts. Although all of these factors, the interpretations are not stored. When this happens, they correspond to descriptive text, which is stored in technical files. The absence of solutions to efficiently store them leads to problems such as rework and difficulties in information sharing. In this work we present a solution for these problems based on semantic annotations, an approach for a common understanding of concepts being used. We propose the use of scientific workflows to describe the annotation process for each kind of data, and also the adoption of well known metadata schema and ontologies. The contributions of this thesis involves: (i) identification of requirements for semantic search of geospatial data; (ii) identification of desirable features for annotation tools; (iii) proposal, and partial implementation, of a a framework for semantic annotation of different kinds of geospatial data; and (iv) identification of challenges in adopting scientific workflows for describing the annotation process. This framework was partially validated, through an implementation to produce annotations for applications in agriculture / Doutorado / Banco de Dados / Doutora em Ciência da Computação
170

Metadados de Bancos de Dados Relacionais: Extração e Exposição com o Protocolo OAI-PMH / Metadata of Relacional Database: Extraction and ExpositionWith OAI-PMH Protocol

KOWATA, Elisabete Tomomi 11 September 2011 (has links)
Made available in DSpace on 2014-07-29T14:57:50Z (GMT). No. of bitstreams: 1 Dissertacao Elisabete T Kowata.pdf: 2397519 bytes, checksum: df1ed4bd74a16c5e66a0ff4d7f8f9825 (MD5) Previous issue date: 2011-09-11 / Information about a particular subject can be stored in different repositories such as databases, digital libraries, spreadsheets, text files, web pages etc. In this context of heterogeneous data sources, to query, possibly in natural language, to integrate information and to promote interoperability are tasks that depend, among other factors, on the prior knowledge that an user has regarding location, owner, content description of each information source etc. More specifically, in the case of database, this information are not usually stored in a catalogue of the database management system and to obtain is necessary to resort to the administrator s knowledge database. Another factor is the absence of search engines to databases in the web that access and make available the information in those repositories, data are limited due to the organizations themselves. In a shared information environment, it is highly relevant to make possible access to metadata that describe a data source, regardlessly of the device and format in which is stored. This study aims to describe a mechanism to promote interoperability of relational databases with other sources of information through the extraction and exposing of metadata using OAI-PMH / Informações sobre um determinado assunto podem estar armazenadas em diferentes repositórios como banco de dados, bibliotecas digitais, planilhas eletrônicas, arquivos textos, páginas na web etc. Nesse contexto de fontes de dados heterogêneas, consultar, possivelmente em linguagem natural, integrar informações e promover interoperabilidade são tarefas que dependem, dentre outros fatores, do conhecimento prévio que um usuário tem sobre a localização, o proprietário, a descrição do conteúdo de cada fonte de informação. Mais especificamente, no caso de bancos de dados, essas informações não são, em geral, armazenadas no catálogo de um sistema gerenciador de bancos de dados; para obtê-las é necessário recorrer ao conhecimento do administrador desse banco. Outro fator que evidencia essa dependência é a ausência de mecanismos de busca a bancos de dados na web que acessam e tornam disponíveis as informações contidas nesses repositórios, devido ao fato desses dados estarem limitados às próprias organizações. Em um ambiente de compartilhamento de informações, é altamente relevante tornar possível o acesso aos metadados que descrevem uma fonte de dados, independentemente do meio e do formato em que esteja armazenada. Este trabalho tem como objetivo descrever um mecanismo para promover interoperabilidade de bancos de dados relacionais com outras fontes de informações, por meio da extração e exposição dos metadados usando o protocolo OAI-PMH.

Page generated in 0.0788 seconds