521 |
Modelo de procedência para auxiliar na análise da qualidade do dado geográficoSantos, Renata Ribeiro dos 09 August 2016 (has links)
Submitted by Aelson Maciera (aelsoncm@terra.com.br) on 2017-03-29T19:09:28Z
No. of bitstreams: 1
DissRRS.pdf: 3751863 bytes, checksum: 950bef628d03f26a109436e96c9ac337 (MD5) / Approved for entry into archive by Ronildo Prado (ronisp@ufscar.br) on 2017-04-11T13:45:04Z (GMT) No. of bitstreams: 1
DissRRS.pdf: 3751863 bytes, checksum: 950bef628d03f26a109436e96c9ac337 (MD5) / Approved for entry into archive by Ronildo Prado (ronisp@ufscar.br) on 2017-04-11T13:45:15Z (GMT) No. of bitstreams: 1
DissRRS.pdf: 3751863 bytes, checksum: 950bef628d03f26a109436e96c9ac337 (MD5) / Made available in DSpace on 2017-04-11T13:53:54Z (GMT). No. of bitstreams: 1
DissRRS.pdf: 3751863 bytes, checksum: 950bef628d03f26a109436e96c9ac337 (MD5)
Previous issue date: 2016-08-09 / Não recebi financiamento / The quality of the geographic data must be a relevant concern for providers and consumers of this
type of data because the manipulation and analysis of low quality geographic data may result in
errors, which will be propagated through the consequent data. Thus it is important to properly
document the information which allows for certifying the quality of the geographic data. In order
to provide a minimum amount of metadata for such purpose, this dissertation presents an approach
based on the provenance of the geographic data, which corresponds to the information about the
history of such data from its origin until the processes that resulted in its current state. For this
purpose, a provenance model called ProcGeo was proposed, in which it was defined a minimum
amount of metadata that must be considered for the analysis of the quality of a certain geographic
data. Although a few works and geographic metadata standards, such as Federal Geographic Data
Committee (FGDC) and ISO 19115, consider the information about the provenance in the analysis
of the quality of geographic data, it´s the opinion of the author that some metadata considered
important for this purpose are not adequately contemplated. In this work, the prototype of an
interface called ProcGeoInter was also implemented, aiming to guarantee the completeness and
correctness in the filling out of the defined metadata in the ProcGeo model as well as the
visualization of their content. The validation of the ProcGeo model and of the ProcGeoInter
interface were made through tests and surveys applied to providers and consumers of geographic
data. As a means of comparison, the interface for filling out and visualization of metadata
available by SIG Quantum GIS (plugin Metatools) was used, which implements the FGDC
geographic metadata standard. The obtained results indicated that the metadata defined in the
ProcGeo model helped the geographic data provider in the description of the provenance of such
data, when compared to those defined in the FGDC geographic metadata standard. Through the
consumer´s focus it was possible to notice that the information filled out in the metadata defined
by the ProcGeo favored the analysis of the quality of the consumed data. It was clear that both
providers and consumers do not possess the habit of providing or consuming the information
predicted in the FGDC and ISO 19115 geographic metadata standards. / A qualidade do dado geográfico deve ser uma preocupação relevante para provedores e
consumidores desse tipo de dado, pois a manipulação e análise de um dado geográfico com baixa
qualidade podem resultar em erros que vão se propagar nos dados gerados a partir desse. Assim, é
importante que a informação que permita atestar a qualidade do dado geográfico seja
adequadamente documentada. Com o propósito de oferecer um conjunto mínimo de metadados
para essa finalidade, esse trabalho apresenta uma abordagem baseada na procedência do dado
geográfico, que corresponde à informação sobre a história do dado, desde a sua origem até os
processos que resultaram no seu estado atual. Para tanto, foi proposto um modelo de procedência
denominado ProcGeo no qual foi definido um conjunto mínimo de metadados que devem ser
considerados para a análise da qualidade de um dado geográfico. Embora alguns trabalhos e
padrões de metadados geográficos, como o Federal Geographic Data Committee (FGDC) e o ISO
19115, considerem a informação da procedência para a análise da qualidade do dado geográfico,
sob o ponto de vista da autora deste trabalho, alguns metadados considerados importantes para
essa finalidade não são adequadamente contemplados. Neste trabalho também foi implementado o
protótipo de uma interface denominada ProcGeoInter, que tem como finalidade garantir a
corretude e completude do preenchimento dos metadados definidos no modelo ProcGeo e a
visualização do conteúdo dos mesmos. A validação do modelo ProcGeo e da interface
ProcGeoInter foram realizados por meio de testes e questionários aplicados a provedores e
consumidores de dados geográficos. Para efeito de comparação, foi considerada a interface para
preenchimento e visualização de metadados disponibilizada no SIG Quantum GIS (plugin
Metatoools), que implementa o padrão de metadados geográficos FGDC. Os resultados obtidos
indicaram que os metadados definidos no modelo ProcGeo auxiliaram o provedor de dados
geográficos na descrição da procedência desses dados, quando comparados aos definidos no
padrão de metadados geográficos FGDC. Pelo foco do consumidor foi possível perceber que as
informações preenchidas nos metadados definidos pelo ProcGeo favoreceram a análise da
qualidade dos dados consumidos. Ficou evidente que tanto provedores quanto consumidores não
possuem o hábito de prover ou consumir as informações previstas nos padrões de metadados
geográficos FGDC e ISO 19115.
|
522 |
Geoestatística aplicada na avaliação da qualidade de dados geoespaciais / Geostatistics applied in assessment of geospatial data qualitySantos, Alex da Silva 07 October 2013 (has links)
Made available in DSpace on 2015-03-26T13:28:26Z (GMT). No. of bitstreams: 1
texto completo.pdf: 3330909 bytes, checksum: 83d789ab10722b6666725f8fd263d49e (MD5)
Previous issue date: 2013-10-07 / Fundação Instituto Brasileiro de Geografia e Estatística / In the process of production cartographic is natural the pursuit of quality spatial dataset. Throughout time technological evolution provided at the professionals in the area a constant growth in this production and in demand of these geospatial information by the users. However, to support this evolution without losing the qualification of space data is necessary to adopt standards. Furthermore, the complexity of geographic information in many aspects, require sampling techniques to measure and assess the quality of the spatial dataset in order to ensure with statistical basis, a significant amount and an appropriate spatial distribution of its samples. In Geosciences is intuitive to think in spatial correlation of a phenomenon under study and Geostatistics provides tools to identify and represent the behavior of this dependence. The spatial analysis of results from an inspection of a quality cartographic product is seldom addressed in literature, restricted only to conclusions descriptive and tabular, based on the assumption of classical statistical of independence from the observed data. At the present time is in deploying the National Spatial Data Infrastructure of Brazil (INDE), where several cartographic products are made available to the society, along with their geographic metadata. The metadata facilitates access to spatial data, but serve partly aspects concerning the quality of the dataset. Therefore, this thesis proposes a methodology for the quality inspection of spatial datasets of the INDE, based on international standards, concepts of generalization and elements of quality defined in literature as well as the spatial analysis of results of this inspection by using geostatistical methods and the representation of this assessment by means of quality maps. The method of quality evaluation data developed and applied on the Base Cartographic Continuous of Brazil at the 1:250.000 scale - BC250 with a focus on certain aspects of quality. The quality maps generated showed regionalizations in the indicators of quality inspected, confirmed by the staff that producer of cartographic base, subsidizing the producers themselves and users in understanding the spatial behavior quality product cartographic under study. / No processo de produção cartográfica é natural a busca pela qualidade do conjunto de dados espaciais. Ao longo do tempo, a evolução tecnológica propiciou aos profissionais da área um crescimento constante desta produção e na demanda destas informações geoespaciais por parte dos usuários. Entretanto, para acompanhar esta evolução, sem perder a qualificação dos dados espaciais, é necessária a adoção de padrões. Além disto, a complexidade das informações geográficas, em diversos aspectos, demanda técnicas de amostragem para mensurar e aferir a qualidade do conjunto de dados espaciais, a fim de garantir com embasamento estatístico, uma quantidade significativa e uma adequada distribuição espacial de suas amostras. Na área de Geociências é intuitivo pensar na correlação espacial de um fenômeno em estudo e a Geoestatística dispõe de ferramentas para identificar e representar o comportamento desta dependência. A análise espacial dos resultados de uma inspeção de qualidade de um produto cartográfico raramente é abordada na literatura, restrita apenas à conclusões descritivas e tabulares, baseadas no pressuposto da Estatística Clássica de independência dos dados observados. No presente momento está em implantação a Infraestrutura Nacional de Dados Espaciais do Brasil (INDE), onde diversos produtos cartográficos são disponibilizados à sociedade, junto com seus metadados geográficos. Os metadados facilitam o acesso ao dado espacial, mas atendem em parte aspectos relativos à qualidade do conjunto de dados. Desta forma, a presente dissertação propõe uma metodologia de inspeção da qualidade de conjuntos de dados espaciais da INDE, baseada em normas internacionais, conceitos de generalização e elementos de qualidade definidos na literatura, bem como a análise espacial dos resultados desta inspeção, usando métodos geoestatísticos e a representação desta aferição por meio de mapas de qualidade. O método de avaliação da qualidade de dados foi desenvolvido e aplicado sobre a Base Cartográfica Contínua do Brasil na escala 1:250.000 - BC250, com foco em determinados aspectos de qualidade. Os mapas de qualidade gerados mostraram regionalizações dos indicadores de qualidade inspecionados, confirmadas pela equipe produtora da referida base cartográfica, subsidiando usuários e os próprios produtores no entendimento do comportamento espacial da qualidade do produto cartográfico em estudo.
|
523 |
Uso de web services e softwares livres na disseminação de informações georreferenciadas sobre produtos da floresta amazônica. / Web services and free software applied to dissemination of amazon products geospatial information.Felipe dos Santos Costa 08 April 2009 (has links)
Georreferenced information has been increasingly required for the planning and
decision-making in different sectors of society. New ways of dissemination of data, such as
the Open Geospatial Consortium (OGC) web services, have contributed to the ease of access
to this information. Even with all the technological advances in the area of data distribution,
there is still low availability of georreferenced data about the Amazon. The goal of the present
work is the development of a spatial data infrastructure (SDI), that is, an environment of
sharing and use of georreferenced data based on the technology of web services, metadata and
interfaces that allow the user easy access to these data. The present work discussess the OGC
patterns, the most relevant georeferrenced data servers, the main web clients, and the
revolution in the dissemination of georeferrenced data which geobrowsers and web clients
offered to regular users. Data to be released for the case study come from the project
Exploitation of Non-wooden Forest Products-PFNM-in progress at the National Institute of
Research in the Amazon-INPA-as well as from inventories of NGOs and other government
bodies. Besides contributing to the enhancement of PFNM, this project aims at encouraging
the use of GIS in the state of Amazonas offering tech support for the deployment of
geographic databases and sharing between agencies, optimizing the resources applied in this
area through the use of free software and integration of diffuse information currently
available.
|
524 |
Democratização da informação a partir do uso de repositórios digitais institucionais : da comunicação científica às informações tecnológicas de patentesBrandão, Felipe Grando January 2016 (has links)
O presente estudo aborda a produção, a comunicação e o uso da informação científica e tecnológica no contexto dos repositórios digitais institucionais de universidades brasileiras, bem como a disseminação e o uso das informações contidas em documentos de patente. Verifica-se que o uso dessas informações ainda é insipiente no Brasil, mesmo nas universidades, e considera-se que um meio de promover esse tema é explorando os serviços prestados pelos repositórios na divulgação da propriedade intelectual gerada nessas instituições. Para tanto, tem-se como objetivo geral estudar a democratização do acesso à informação a partir dos repositórios digitais institucionais, considerando seus elementos aderentes e seu uso para a comunicação das informações tecnológicas de patentes. Trata-se de uma pesquisa exploratória e interpretativa, dividida em quatro etapas qualitativas: pesquisa do referencial bibliográfico; identificação dos campos de metadados sobre patentes nos repositórios; verificação da existência de depósitos de patentes no Instituto Nacional da Propriedade Industrial de titularidade das universidades pesquisadas; comparações e análises. Identificou-se que não é uma prática corrente a disponibilização das informações dos documentos de patente nos repositórios, bem como se constata uma baixa padronização em relação aos metadados utilizados ou aos valores a estes atribuídos. Propõe-se um conjunto de metadados para a descrição dos documentos de patente e promove-se uma discussão crítica a respeito dos temas abordados. / The present study deals with the production, communication and use of scientific and technological information in the context of institutional digital repositories of Brazilian universities, as well as the dissemination and use of the information contained in patent documents. It is verified that the use of this information is still insipient in Brazil, even in the universities, and it is considered that a means to promote this theme is exploring the services provided by the repositories in the divulgation of the intellectual property generated in these institutions. For this purpose, the general objective is to study the democratization of access to information from institutional digital repositories, considering their adherent elements and their use for the communication of technological patent information. This is an exploratory and interpretative research, divided in four qualitative stages: research of the bibliographic reference; identification of patent metadata fields in repositories; verification of the existence of patent deposits in the National Institute of Industrial Property owned by the researched universities; comparisons and analyzes. It was identified that it is not current practice to make patent document information available in repositories, as well as low standardization in relation to the metadata used or the values assigned to them. A set of metadata is proposed for the description of the patent documents and a critical discussion about the topics covered is promoted. / El presente estudio aborda la producción, la comunicación y el uso de la información científica y tecnológica en el contexto de los repositorios digitales institucionales de universidades brasileñas, así como la diseminación y el uso de la información contenida en documentos de patente. Se verifica que el uso de esas informaciones aún es insipiente en Brasil, incluso en las universidades, y se considera que un medio de promover ese tema es explorando los servicios prestados por los repositorios en la divulgación de la propiedad intelectual generada en esas instituciones. Para ello, se tiene como objetivo general estudiar la democratización del acceso a la información a partir de los repositorios digitales institucionales, considerando sus elementos adherentes y su uso para la comunicación de las informaciones tecnológicas de patentes. Se trata de una investigación exploratoria e interpretativa, dividida en cuatro etapas cualitativas: investigación del referencial bibliográfico; identificación de los campos de metadatos sobre patentes en los repositorios; verificación de la existencia de depósitos de patentes en el Instituto Nacional de la Propiedad Industrial de titularidad de las universidades investigadas; comparaciones y análisis. Se identificó que no es una práctica corriente la disponibilización de las informaciones de los documentos de patente en los repositorios, así como se constata una baja estandarización en relación a los metadatos utilizados oa los valores a éstos asignados. Se propone un conjunto de metadatos para la descripción de los documentos de patente y se promueve una discusión crítica sobre los temas abordados.
|
525 |
Uma arquitetura para mecanismos de buscas na web usando integração de esquemas e padrões de metadados heterogêneos de recursos educacionais abertos em repositórios dispersos / An architecture for web search engines using integration of heterogeneous metadata schemas and standards of open educational resources in scattered repositoriesMurilo Gleyson Gazzola 18 November 2015 (has links)
Recursos Educacionais Abertos (REA) podem ser definidos como materiais de ensino, aprendizagem e pesquisa, em qualquer meio de armazenamento, que estão amplamente disponíveis por meio de uma licença aberta que permite reuso, readequação e redistribuição sem restrições ou com restrições limitadas. Atualmente, diversas instituições de ensino e pesquisa têm investido em REA para ampliar o acesso ao conhecimento. Entretanto, os usuários ainda têm dificuldades de encontrar os REA com os mecanismos de busca atuais. Essa dificuldade deve-se principalmente ao fato dos mecanismos de busca na Web serem genéricos, pois buscam informação em qualquer lugar, desde páginas de vendas até materiais escritos por pessoas anônimas. De fato, esses mecanismos não levam em consideração as características intrínsecas de REA, como os diferentes padrões de metadados, repositórios e plataformas existentes, os tipos de licença, a granularidade e a qualidade dos recursos. Esta dissertação apresenta o desenvolvimento de um mecanismo de busca na Web especificamente para recuperação de REA denominado SeeOER. As principais contribuições desta pesquisa de mestrado consistem no desenvolvimento de um mecanismo de busca na Web por REA com diferenciais entre os quais se destacam a resolução de conflitos em nível de esquema oriundos da heterogeneidade dos REA, a busca em repositórios de REA, a consulta sobre a procedência de dados e o desenvolvimento de um crawler efetivo para obtenção de metadados específicos. Além disso, contribui na inclusão de busca de REA no cenário brasileiro, no mapeamento de padrões de metadados para mecanismos de busca na Web e a publicação de uma arquitetura de um mecanismo de busca na Web. Ademais, o SeeOER disponibiliza um serviço que traz um índice invertido de busca que auxilia encontrar REA nos repositórios dispersos na Web. Também foi disponibilizada uma API para buscas que possibilita consultas por palavras chaves e o uso de palavras booleanas. A forma de validação em mecanismos de busca na Web, como um todo, e de forma quantitativa e específica por componentes foi feita em grau de especialidade. Para validação de qualidade foram considerados 10 participantes com grupos distintos de escolaridade e área de estudo. Os resultados quantitativos demonstraram que o SeeOER é superior em 23.618 REA indexados em comparação a 15.955 do Jorum. Em relação à qualidade o SeeOER demonstrou ser superior ao Jorum considerando a função penalizada e o score utilizada nesta pesquisa. / Open Educational Resources (OER) has been increasingly applied to support students and professionals in their learning process. They consist of learning resources, usually stored in electronic device, associated with an open license that allows reuse, re-adaptation and redistribution with either no or limited restrictions. However, currently the Web search engines do not provide efficient mechanisms to find OER, in particular, because they do not consider the intrinsic characteristics of OER such as different standards of metadata, repositories and heterogeneous platforms, license types, granularity and quality of resources. This project proposes a Web search engine, named SeeOER, designed to recover OER. Main features of SeeOER are: schema-level con ict resolution derived from the heterogeneity of OER, search for Brazilian OER repositories, query considering data provenance and the development of an effective crawler to obtain specific metadata. In addition, our project contributes to the inclusion of the search OER research issues in the Brazilian scenario, to the mapping of metadata standards to Web search engine. In addition, SeeOER provides a service which internally has an inverted index search to find the OER which is different from traditional Web repositories. We also provide an API for queries which make it possible to write queries based on keywords and boolean. The validation of the search engine on the Web was both qualitative and quantitative. In the quantitative validation it was observed in level of specialty of the search engines components. In conclusion, the quality and quantitative results experiments showed that SeeOER is superior in OER indexed 23,618 compared to 15,955 the Jorum. In relation to the quality SeeOER shown to be superior to Jorum 27 points considering the metric used in project.
|
526 |
K-Aspects : uma abordagem baseada em aspectos para implementação de sistemas de conhecimentos / K-Aspects: an approach for building knowledge systems using aspectsCastro, Eduardo Studzinski Estima de January 2009 (has links)
Esse trabalho define K-Aspects (Knowledge Aspects), uma abordagem para a implementação de Sistemas de Conhecimento (SC) em linguagens orientadas a objetos usando o paradigma orientado a aspectos (OA) e anotações de metadados. Essa abordagem define uma forte correspondência entre o Modelo de Conhecimento (MC) e sua implementação no paradigma da orientação a objetos (OO). K-Aspects fornece um conjunto de anotações documentacionais para facilitar a leitura da associação entre o modelo de implementação e o modelo conceitual do conhecimento; um conjunto de anotações para facilitar a separação de interesses na implementação do SC usando OA; um conjunto de bibliotecas para realizar a interpretação das anotações e sua execução em aspectos; e uma ferramenta para geração de documentação do MC a partir das anotações no código. A abordagem busca atender tanto os engenheiros de conhecimento quanto os engenheiros de desenvolvimento em projetos de SC. Os engenheiros de conhecimento tem ao seu alcance um modo adequado para elaborar a especificação do MC que resulta em uma especificação em uma linguagem orientada a objetos, permitindo aos engenheiros de desenvolvimento implementarem o sistema preservando a estrutura do modelo conceitual e mantendo clara distinção entre os requisitos associados ao MC dos demais requisitos. K-Annotations adicionam recursos de OA ao modelo conceitual do conhecimento OO, oferecendo facilidades de tratamento separado de diversas funcionalidades transversais de um SC, através do particionamento do sistema em aspectos que implementam funcionalidades específicas, ativadas através das anotações inseridas no componente do modelo conceitual. Anotações distinguem, clara e visualmente, no código, os elementos do MC em relação ao restante do código do programa, facilitando a leitura do código pelos engenheiros de conhecimento. A função principal das anotações é prover as informações necessárias para a interpretação dos elementos de conhecimento durante a execução do programa. Anotações identificam as funcionalidades transversais relativas aos construtos do modelo e são gerenciadas pela biblioteca de aspectos. A abordagem foi validada re-escrevendo com o uso de K-Annotations um sistema de conhecimento no domínio da análise da qualidade de reservatórios de petróleo. O modelo desse sistema representa uma ontologia de domínio sobre o qual métodos de solução de problemas para interpretação e classificação de rochas são aplicados. A análise dos resultados identificou um conjunto de vantagens no uso de K-Aspects, como distinção clara entre a implementação do MC e a implementação dos demais requisitos, suporte nativo aos construtos providos no modelo de conhecimento e alto grau de rastreabilidade entre o modelo e sua implementação. Além disso, provê redução de tarefas repetitivas de implementação e redução da dispersão de código a partir da geração automática de código. As bibliotecas de aspectos garantem o encapsulamento de inferências e tarefas. As bibliotecas tratam os construtos do modelo para garantir a reutilização em diferentes projetos de SCs. / This work defines K-Aspects (Knowledge Aspects), an approach for implementing Knowledge Systems (KS) with object-oriented languages using the aspect-oriented paradigm (AO) and metadata annotations. This approach defines a strong link between the knowledge model (KM) and its implementation in the object-oriented paradigm (OO). K-Aspects provides a set of documentational annotations to make the association between the implementation model and the knowledge conceptual model easier to read; a set of annotations to enable the separation of concerns, using aspect orientation, of the implementation of the different requirements of the knowledge system; a set of libraries to perform the interpretation and execution as aspects of annotations; and a tool for documentation generation of the KM extracted from the annotations on the code. The approach aims to support both knowledge engineers and development engineers in KS projects, by providing to the knowledge engineers a well-defined way to elaborate the KS specification, which results in a specification presented in an object oriented language, making it easily understandable and extensible by development engineers that can thus implement the knowledge system preserving its conceptual knowledge structure and keeping a clear distinction of the requirements associated to the KM from the other requirements. K-Annotations add aspect oriented resources to the OO conceptual knowledge model, providing features to manage separately the multiple crosscutting concerns of a KS, partitioning the system in aspects that implement specific features, activated by annotations inserted in the knowledge conceptual model. Annotations distinguish, clearly and visually, within the code, KM elements from the rest of the code, making easier the code reading by the knowledge engineers. The most important function of the annotations is to provide information necessary for interpreting knowledge elements during runtime. Annotations identify several crosscutting concerns related to the model constructs. Annotations are managed and executed by the aspect libraries. This approach was validated by re-coding, using K-Annotations, a complex commercial KS on the domain of oil reservoir quality analysis. The model of this system represents a domain ontology on which problem-resolving methods for rock interpretation and classification are performed. The analysis of the results identified several advantages of using K-Aspects as: a clear distinction of the KM implementation among other requirements; native support for knowledge model constructs; and high traceability between the knowledge conceptual model and its implementation. Moreover, the use of K-Aspects reduces repetitive implementation tasks and code dispersion because of the automatic code generation. The provided aspect libraries enable the encapsulation of inferences and the execution of several tasks. The libraries manage the constructs of the model thus providing reusability among multiple KS projects.
|
527 |
Um perfil de qualidade para fontes de dados dinâmicasSILVA NETO, Everaldo Costa 24 August 2016 (has links)
Submitted by Irene Nascimento (irene.kessia@ufpe.br) on 2016-10-17T18:07:42Z
No. of bitstreams: 2
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
Dissertação - Everaldo Costa Silva Neto (final).pdf: 1973752 bytes, checksum: 18ff29972829bab54f92cc990addf923 (MD5) / Made available in DSpace on 2016-10-17T18:07:42Z (GMT). No. of bitstreams: 2
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
Dissertação - Everaldo Costa Silva Neto (final).pdf: 1973752 bytes, checksum: 18ff29972829bab54f92cc990addf923 (MD5)
Previous issue date: 2016-08-24 / Atualmente, um massivo volume de dados tem sido produzido pelos mais variados tipos de fontes de dados. Apesar da crescente facilidade de acesso a esses dados, identificar quais fontes de dados são mais adequadas para um determinado uso é um grande desafio. Isso ocorre devido ao grande número de fontes de dados disponíveis e, principalmente, devido à ausência de informações sobre a qualidade dos dados. Nesse contexto, a literatura oferece diversos trabalhos que abordam o uso de critérios de Qualidade da Informação (QI) para avaliar fontes de dados e solucionar esse desafio. No entanto, poucos trabalhos consideram o aspecto dinâmico das fontes na etapa da avaliação da qualidade. Nesta dissertação, abordamos o problema de avaliação da qualidade em fontes de dados dinâmicas, ou seja, fontes de dados cujo conteúdo pode sofrer modificações com alta frequência. Como contribuição, propomos uma estratégia onde os critérios de QI são avaliados de forma contínua, com o objetivo de acompanhar a evolução das fontes de dados ao longo do tempo. Além disso, propomos a criação de um Perfil de Qualidade, que consiste de um conjunto de metadados sobre a qualidade de uma fonte, onde seu uso pode ser aplicado para diversos fins, inclusive no processo de seleção de fontes de dados. O Perfil de Qualidade proposto é atualizado periodicamente de acordo com os resultados obtidos pela avaliação contínua da qualidade. Dessa forma, é possível refletir o aspecto dinâmico das fontes. Para avaliar os resultados deste trabalho, mais especificamente a estratégia de avaliação contínua da qualidade, utilizamos fontes de dados do domínio Meteorológico. Os experimentos realizados demonstraram que a estratégia de avaliação proposta produz resultados satisfatórios. / Nowadays, a massive data volume has been produced by a variety of data sources. The easy access to these data presents new opportunities. In this sense, choosing the most suitable data sources for a specific use has become a challenge. Several works in the literature use Information Quality as a mean of solving this problem, however, only few works employ a continuous strategy. In this work, we address the problem of performing assessment continuously, looking to dynamic data sources. We also propose the creation of a data source Quality Profile, which consists of a set of metadata about the data source’s quality and may be used to help the selection of data sources. To reflect the real quality values of a data source, we propose a continuous updating of the Quality Profile, according to the data source’s refresh rate. In order to evaluate our proposal, we carried out some experiments with meteorological data provided by institutions that monitor weather conditions of Recife. The experimental results have demonstrated that our strategy produces more satisfactory results than others, regarding the trade off between performance and accuracy.
|
528 |
O uso de metadados para a preservação digital no Arquivo da Marinha: a implementação do Software ICA-AToMXavier, Jean Frederick Brito 28 September 2014 (has links)
Submitted by Priscilla Araujo (priscilla@ibict.br) on 2016-06-23T17:19:42Z
No. of bitstreams: 2
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5)
JEAN FREDERICK BRITO XAVIER.pdf: 1785438 bytes, checksum: f17977271213d535cec1a6521da9380b (MD5) / Made available in DSpace on 2016-06-23T17:19:42Z (GMT). No. of bitstreams: 2
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5)
JEAN FREDERICK BRITO XAVIER.pdf: 1785438 bytes, checksum: f17977271213d535cec1a6521da9380b (MD5)
Previous issue date: 2014-09-28 / O presente trabalho investiga a aplicação do software livre ICA-AToM em um dos maiores
Arquivos brasileiros: o Arquivo da Marinha. Este software foi arquitetado para funcionar
na internet e é baseado em normas arquivísticas internacionais, como a Norma
Internacional de Registro de Autoridade Arquivística para Entidades Coletivas, Pessoas e
Famílias ISAAR (CPF), a Norma Geral Internacional de Descrição Arquivística - ISAD(G)
e a Norma Internacional para Descrição de Instituições com Acervo Arquivístico ISDIAH.
Apesar de ter sido criado com base em normas indicadas pelo Conselho Internacional de
Arquivos – CIA, esse trabalho questiona até que ponto o ICA-AToM atende ao processo
de descrição documental do Arquivo da Marinha. Para medir a eficiência deste sofware, no
que diz respeito a garantir o acesso da documentação do Arquivo da Marinha, é realizada,
nas análises, uma comparação dos metadados utilizados na versão do ICA-AToM instalada
no Arquivo da Marinha com os metadados estabelecidos pela Norma Brasileira
Arquivística de Descrição – NOBRADE e pelo Modelo de Requisitos para Sistemas
Informatizados de Gestão Arquivística de Documentos e-ARQ Brasil. Buscou-se entender
cada um dos metadados especificados nestas normas e relacioná-los com as possíveis
vantagens de uso dos mesmos. O resultado obtido nestas comparações foi a constatação de
um conjunto de metadados e sugestões para que o Arquivo da Marinha possa otimizar o
uso deste software e da sua descrição arquivística, que é fundamental na tarefa de garantir
o acesso e a preservação do seu acervo. / The present work investigates the aplication of the free software Ica atom in one of the
biggest brazilian archives: the Marine Archive. This software was created to work in the
internet and based in archivistic international rules, like the international rule of register of
archivistic authority to group entities, people and families ISAAR (CPF), the international
rule of archivistic description ISAD(G) and the International standard for describing
institutions with archival holdings-ISDIAH. Despite of being created based on rules
indicated by the international Council of Archives - CIA, this work questions until what
point the ICA-AToM answers to the process of documental description of the Marine
Archive. To mesure the eficiency of this software, in order to garantee the access to the
documents of the Marine Archive, a comparison of the metadatas used in the version of
ICA-AToM, situated in the Marine Archive with the metadatas stablished by the brazilian
archivistic rule of description (NOBRADE), is done in the analysis and by the “modelo de
requisitos para sistemas informatizados de gestão arquivistica de documentos” - e-ARQ
Brasil. There was an attempt to understand each one of the metadatas especyfied in these
rules and relate them to the possible advantages of their use. The result of these
comparisons was the realization of a group of metadatas and sugestions for that Marine
Archive can optimize the use of this software and of its archivistic description, which is
fundamental in the ensuring task the access and preservation of its collection.
|
529 |
Anotação semantica de dados geoespaciaisMacario, Carla Geovana do Nascimento 15 August 2018 (has links)
Orientador: Claudia Maria Bauzer Medeiros / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-15T04:11:30Z (GMT). No. of bitstreams: 1
Macario_CarlaGeovanadoNascimento_D.pdf: 3780981 bytes, checksum: 4b8ad7138779392bff940f1f95ad1f51 (MD5)
Previous issue date: 2009 / Resumo: Dados geoespaciais constituem a base para sistemas de decisão utilizados em vários domínios, como planejamento de transito, fornecimento de serviços ou controle de desastres. Entretanto, para serem usados, estes dados precisam ser analisados e interpretados, atividades muitas vezes trabalhosas e geralmente executadas por especialistas. Apesar disso estas interpretacoes nao sao armazenadas e quando o são, geralmente correspondem a alguma informacao textual e em linguagem própria, gravadas em arquivos tecnicos. A ausencia de solucoes eficientes para armazenar estas interpretaçães leva a problemas como retrabalho e dificuldades de compartilhamento de informação. Neste trabalho apresentamos uma soluçao para estes problemas que baseia-se no uso de anotações semânticas, uma abordagem que promove um entendimento comum dos conceitos usados. Para tanto, propomos a adocão de workflows científicos para descricao do processo de anotacão dos dados e tambíem de um esquema de metadados e ontologias bem conhecidas, aplicando a soluçao a problemas em agricultura. As contribuicães da tese envolvem: (i) identificacao de um conjunto de requisitos para busca semantica a dados geoespaciais; (ii) identificacao de características desejóveis para ferramentas de anotacão; (iii) proposta e implementacao parcial de um framework para a anotacão semântica de diferentes tipos de dados geoespaciais; e (iv) identificacao dos desafios envolvidos no uso de workflows para descrever o processo de anotaçcaão. Este framework foi parcialmente validado, com implementação para aplicações em agricultura / Abstract: Geospatial data are a basis for decision making in a wide range of domains, such as traffic planning, consumer services disasters controlling. However, to be used, these kind of data have to be analyzed and interpreted, which constitutes a hard task, prone to errors, and usually performed by experts. Although all of these factors, the interpretations are not stored. When this happens, they correspond to descriptive text, which is stored in technical files. The absence of solutions to efficiently store them leads to problems such as rework and difficulties in information sharing. In this work we present a solution for these problems based on semantic annotations, an approach for a common understanding of concepts being used. We propose the use of scientific workflows to describe the annotation process for each kind of data, and also the adoption of well known metadata schema and ontologies. The contributions of this thesis involves: (i) identification of requirements for semantic search of geospatial data; (ii) identification of desirable features for annotation tools; (iii) proposal, and partial implementation, of a a framework for semantic annotation of different kinds of geospatial data; and (iv) identification of challenges in adopting scientific workflows for describing the annotation process. This framework was partially validated, through an implementation to produce annotations for applications in agriculture / Doutorado / Banco de Dados / Doutora em Ciência da Computação
|
530 |
Metadados de Bancos de Dados Relacionais: Extração e Exposição com o Protocolo OAI-PMH / Metadata of Relacional Database: Extraction and ExpositionWith OAI-PMH ProtocolKOWATA, Elisabete Tomomi 11 September 2011 (has links)
Made available in DSpace on 2014-07-29T14:57:50Z (GMT). No. of bitstreams: 1
Dissertacao Elisabete T Kowata.pdf: 2397519 bytes, checksum: df1ed4bd74a16c5e66a0ff4d7f8f9825 (MD5)
Previous issue date: 2011-09-11 / Information about a particular subject can be stored in different repositories such as databases,
digital libraries, spreadsheets, text files, web pages etc. In this context of heterogeneous
data sources, to query, possibly in natural language, to integrate information and
to promote interoperability are tasks that depend, among other factors, on the prior knowledge
that an user has regarding location, owner, content description of each information
source etc. More specifically, in the case of database, this information are not usually stored
in a catalogue of the database management system and to obtain is necessary to resort
to the administrator s knowledge database. Another factor is the absence of search engines
to databases in the web that access and make available the information in those
repositories, data are limited due to the organizations themselves. In a shared information
environment, it is highly relevant to make possible access to metadata that describe a data
source, regardlessly of the device and format in which is stored. This study aims to describe
a mechanism to promote interoperability of relational databases with other sources
of information through the extraction and exposing of metadata using OAI-PMH / Informações sobre um determinado assunto podem estar armazenadas em diferentes
repositórios como banco de dados, bibliotecas digitais, planilhas eletrônicas, arquivos
textos, páginas na web etc. Nesse contexto de fontes de dados heterogêneas, consultar,
possivelmente em linguagem natural, integrar informações e promover interoperabilidade
são tarefas que dependem, dentre outros fatores, do conhecimento prévio que um usuário
tem sobre a localização, o proprietário, a descrição do conteúdo de cada fonte de
informação. Mais especificamente, no caso de bancos de dados, essas informações não
são, em geral, armazenadas no catálogo de um sistema gerenciador de bancos de dados;
para obtê-las é necessário recorrer ao conhecimento do administrador desse banco. Outro
fator que evidencia essa dependência é a ausência de mecanismos de busca a bancos
de dados na web que acessam e tornam disponíveis as informações contidas nesses
repositórios, devido ao fato desses dados estarem limitados às próprias organizações. Em
um ambiente de compartilhamento de informações, é altamente relevante tornar possível
o acesso aos metadados que descrevem uma fonte de dados, independentemente do meio
e do formato em que esteja armazenada. Este trabalho tem como objetivo descrever
um mecanismo para promover interoperabilidade de bancos de dados relacionais com
outras fontes de informações, por meio da extração e exposição dos metadados usando o
protocolo OAI-PMH.
|
Page generated in 0.0502 seconds