• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 29
  • 3
  • 2
  • Tagged with
  • 34
  • 34
  • 26
  • 26
  • 15
  • 13
  • 12
  • 10
  • 8
  • 8
  • 8
  • 7
  • 7
  • 7
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Avaliação da qualidade do Sistema  de Informação de Registro de Óbitos Hospitalares (SIS-ROH), Hospital Central da Beira, Moçambique / Assessment of the Quality of the Information System of Hospital Death Registration (SIS-ROH), Beira Central Hospital, Mozambique

Mola, Edina da Rosa Durão 24 February 2016 (has links)
As informações de mortalidade são úteis para avaliar a situação de saúde de uma população. Dados de mortalidade confiáveis produzidos por um sistema de informação de saúde nacional constituem uma ferramenta importante para o planejamento de saúde. Em muitos países, sobretudo em desenvolvimento, o sistema de informação de mortalidade continua precário. Apesar dos esforços feitos em Moçambique para melhoria das estatísticas de mortalidade, os desafios ainda prevalecem em termos de tecnologias de informação, capacidade técnica de recursos humanos e em termos de produção estatística. O SIS-ROH é um sistema eletrônico de registro de óbitos hospitalares de nível nacional, implementado em 2008 e tem uma cobertura de apenas 4% de todos os óbitos anuais do país. Apesar de ser um sistema de nível nacional, ele presentemente funciona em algumas Unidades Sanitárias (US), incluindo o Hospital Central da Beira (HCB). Dada a importância deste sistema para monitorar o padrão de mortalidade do HCB e, no geral, da cidade da Beira, este estudo avalia a qualidade do SIS-ROH do HCB. É um estudo descritivo sobre a completitude, cobertura, concordância e consistência dos dados do SIS-ROH. Foram analisados 3.009 óbitos de menores de 5 anos ocorridos entre 2010 e 2013 e regsitrados no SIS-ROH e uma amostra de 822 Certificados de Óbitos (COs) fetais e de menores de 5 anos do HCB. O SIS-ROH apresentou uma cobertura inferior a 50% calculados com os dados de mortalidade estimados pelo Inquérito Nacional de Causas de Morte (INCAM). Verificamos a utilização de dois modelos diferentes de CO (modelo antigo e atual) para o registro de óbitos referentes ao ano de 2013. Observou-se completitude excelente para a maioria das variáveis do SISROH. Das 25 variáveis analisadas dos COs observou-se a seguinte situação: 9 apresentaram completitude muito ruim, sendo elas relativas à identificação do falecido (tipo de óbito e idade), relativas ao bloco V em que dados da mãe devem ser obrigatoriamente preenchidos em caso de óbitos fetais e de menores de 1 ano (escolaridade, ocupação habitual, número de filhos tidos vivos e mortos, duração da gestação) e relativas às condições e às causas de óbito (autópsia e causa intermédiacódigo); 3 variáveis apresentaram completitude ruim relativas à identificação do falecido (NID) e relativas às condições e causas de morte (causa intermédia - descrição e causa básica - código); 9 apresentaram completitude regular relativas à identificação do falecido (data de nascimento e idade), relativas ao bloco V (idade da mãe, tipo de gravidez, tipo de parto, peso do feto/bebé ao nascer, morte do feto/bebé em relação ao parto) e relativas às condições e causa de óbito (causa direta- código, causa básica descrição); 2 apresentaram completitude bom relativas à identificação do falecido (sexo e raça/cor) e, por último, 2 apresentaram completitude excelente relativas ao local de ocorrência de óbito (data de internamento e data de óbito ou desaparecimento do cadáver). Algumas variáveis do SIS-ROH e dos COS apresentaram inconsistências. Observou-se falta de concordância para causa direta entre o SIS-ROH e os COs. Conclusão: Moçambique tem feito esforços para aprimorar as estatísticas de mortalidade, porém há lacunas na qualidade; a análise rotineria dos dados pode identificar essas lacunas e subsidiar seu aprimoramento. / The mortality information is useful to assess the health status of a population. Reliable mortality data produced by a national health information system is an important tool for health planning. In many countries, especially developing countries, the mortality information system is still precarious. Despite efforts in Mozambique to improve mortality statistics, challenges still prevail in terms of information technology, technical capacity and human resources and statistical production. The SIS-ROH is an electronic system of national-level hospital deaths registration, implemented in 2008 and has a coverage of only 4% of all annual deaths in the country. Despite being a national system, it currently works in some health units (US), including Beira Central Hospital (HCB). Given the importance of this system to monitor the mortality pattern of HCB and, in general, the city of Beira, this study evaluates the quality of SIS-ROH HCB. It is a descriptive study on the completeness, coverage, compliance and consistency of the SIS-ROH data and examined a sample of 822 HCB deaths Certificates (COs) of fetal and children under 5 years of age. We find the use of two different models of CO (former and current model) for the registration of deaths related to the year 2013. We observed excellent completeness for most SIS-ROH variables. Of the 25 variables of COs there was the following situation: 9 had very bad completeness, which were relating to the identification of the deceased (type of death and age) on the V block in the mother\'s data, where must be filled in case of stillbirths and children under 1 year of age (education, usual occupation, number of living children taken and killed, gestational age) and on the conditions and causes of death (autopsy and intermediate-code causes); 3 variables had bad completeness concerning the identification of the deceased (NID) and on the conditions and causes of death (intermediate cause - description and basic cause - code); 9 showed regular completeness concerning the identification of the deceased (date of birth and age) on the V block (mother\'s age, type of pregnancy, mode of delivery, weight of the fetus / baby birth, death of the fetus / baby compared to delivery) and on the conditions and causes of death (direct cause code, basic cause description); 2 showed good completeness concerning the identification of the deceased (sex and race / color) and, finally, 2 showed excellent completeness concerning the place of occurrence of death (date of admission and date of death or the disappearance corpse). The SIS-ROH had coverage below 50% calculated on mortality data estimated by the National Survey of Causes of Death (INCAM). Some SIS-ROH variables and COS showed inconsistencies. There was a lack of agreement to direct cause between SIS-ROH and COs.
22

Arquitetura e métodos de integração de dados e interoperabilidade aplicados na saúde mental / Investigation of the effectiveness of data integration and interoperability methods applied to mental health

Miyoshi, Newton Shydeo Brandão 16 March 2018 (has links)
A disponibilidade e integração das informações em saúde relativas a um mesmo paciente entre diferentes níveis de atenção ou entre diferentes instituições de saúde é normalmente incompleta ou inexistente. Isso acontece principalmente porque os sistemas de informação que oferecem apoio aos profissionais da saúde não são interoperáveis, dificultando também a gestão dos serviços a nível municipal e regional. Essa fragmentação da informação também é desafiadora e preocupante na área da saúde mental, em que normalmente se exige um cuidado prolongado e que integra diferentes tipos de serviços de saúde. Problemas como a baixa qualidade e indisponibilidade de informações, assim como a duplicidade de registros, são importantes aspectos na gestão e no cuidado prolongado ao paciente portador de transtornos mentais. Apesar disso, ainda não existem estudos objetivos demonstrando o impacto efetivo da interoperabilidade e integração de dados na gestão e na qualidade de dados para a área de saúde mental. Objetivos: Neste contexto, o projeto tem como objetivo geral propor uma arquitetura de interoperabilidade para a assistência em saúde regionalizada e avaliar a efetividade de técnicas de integração de dados e interoperabilidade para a gestão dos atendimentos e internações em saúde mental na região de Ribeirão Preto, assim como o impacto na melhoria e disponibilidade dos dados por meio de métricas bem definidas. Métodos: O framework de interoperabilidade proposto tem como base a arquitetura cliente-servidor em camadas. O modelo de informação de interoperabilidade foi baseado em padrões de saúde internacionais e nacionais. Foi proposto um servidor de terminologias baseado em padrões de informação em saúde. Foram também utilizados algoritmos de Record Linkage para garantir a identificação unívoca do paciente. Para teste e validação da proposta foram utilizados dados de diferentes níveis de atenção à saúde provenientes de atendimentos na rede de atenção psicossocial na região de Ribeirão Preto. Os dados foram extraídos de cinco fontes diferentes: (i) a Unidade Básica de Saúde da Família - I, de Santa Cruz da Esperança; (ii) o Centro de Atenção Integrada à Saúde, de Santa Rita do Passa Quatro; (iii) o Hospital Santa Tereza; (iv) as informações de solicitações de internação contidas no SISAM (Sistema de Informação em Saúde Mental); e (v) dados demográficos do Barramento do Cartão Nacional de Saúde do Ministério da Saúde. As métricas de qualidade de dados utilizadas foram completude, consistência, duplicidade e acurácia. Resultados: Como resultado deste trabalho, foi projetado, desenvolvido e testado a plataforma de interoperabilidade em saúde, denominado eHealth-Interop. Foi adotada uma proposta de interoperabilidade por meio de serviços web com um modelo de integração de dados baseado em um banco de dados centralizador. Foi desenvolvido também um servidor de terminologias, denominado eHealth-Interop Terminology Server, que pode ser utilizado como um componente independente e em outros contextos médicos. No total foram obtidos dados de 31340 registros de pacientes pelo SISAM, e-SUS AB de Santa Cruz da Esperança, do CAIS de Santa Rita do Passa Quatro, do Hospital Santa Tereza e do Barramento do CNS do Ministério da Saúde. Desse total, 30,47% (9548) registros foram identificados como presente em mais de 1 fonte de informação, possuindo diferentes níveis de acurácia e completude. A análise de qualidade de dados, abrangendo todas os registros integrados, obteve uma melhoria na completude média de 18,40% (de 56,47% para 74,87%) e na acurácia sintática média de 1,08% (de 96,69% para 96,77%). Na análise de consistência houve melhoras em todas as fontes de informação, variando de uma melhoria mínima de 14.4% até o máximo de 51,5%. Com o módulo de Record Linkage foi possível quantificar, 1066 duplicidades e, dessas, 226 foram verificadas manualmente. Conclusões: A disponibilidade e a qualidade da informação são aspectos importantes para a continuidade do atendimento e gerenciamento de serviços de saúde. A solução proposta neste trabalho visa estabelecer um modelo computacional para preencher essa lacuna. O ambiente de interoperabilidade foi capaz de integrar a informação no caso de uso de saúde mental com o suporte de terminologias clínicas internacionais e nacionais sendo flexível para ser estendido a outros domínios de atenção à saúde. / The availability and integration of health information from the same patient between different care levels or between different health services is usually incomplete or non-existent. This happens especially because the information systems that support health professionals are not interoperable, making it difficult to manage services at the municipal and regional level. This fragmentation of information is also challenging and worrying in the area of mental health, where long-term care is often required and integrates different types of health services and professionals. Problems such as poor quality and unavailability of information, as well as duplicate records, are important aspects in the management and long-term care of patients with mental disorders. Despite this, there are still no objective studies that demonstrate the effective impact of interoperability and data integration on the management and quality of data for the mental health area. Objectives: In this context, this project proposes an interoperability architecture for regionalized health care management. It also proposes to evaluate the effectiveness of data integration and interoperability techniques for the management of mental health hospitalizations in the Ribeirão Preto region as well as the improvement in data availability through well-defined metrics. Methods: The proposed framework is based on client-service architecture to be deployed in the web. The interoperability information model was based on international and national health standards. It was proposed a terminology server based on health information standards. Record Linkage algorithms were implemented to guarantee the patient identification. In order to test and validate the proposal, we used data from different health care levels provided by the mental health care network in the Ribeirão Preto region. The data were extracted from five different sources: the Family Health Unit I of Santa Cruz da Esperança, the Center for Integrated Health Care of Santa Rita do Passa Quatro, Santa Tereza Hospital, the information on hospitalization requests system in SISAM (Mental Health Information System) and demographic data of the Brazilian Ministry of Health Bus. Results: As a result of this work, the health interoperability platform, called eHealth-Interop, was designed, developed and tested. A proposal was adopted for interoperability through web services with a data integration model based on a centralizing database. A terminology server, called eHealth-Interop Terminology Server, has been developed that can be used as an independent component and in other medical contexts. In total, 31340 patient records were obtained from SISAM, eSUS-AB from Santa Cruz da Esperança, from CAIS from Santa Rita do Passa Quatro, from Santa Tereza Hospital and from the CNS Service Bus from the Brazillian Ministry of Health. 47% (9548) records were identified as present in more than 1 information source, having different levels ofaccuracy and completeness. The data quality analysis, covering all integrated records, obtained an improvement in the average completeness of 18.40% (from 56.47% to 74.87%) and the mean syntactic accuracy of 1.08% (from 96,69% to 96.77%). In the consistency analysis there were improvements in all information sources, ranging from a minimum improvement of 14.4% to a maximum of 51.5%. With the Record Linkage module it was possible to quantify 1066 duplications, of which 226 were manually verified. Conclusions: The information\'s availability and quality are both important aspects for the continuity of care and health services management. The solution proposed in this work aims to establish a computational model to fill this gap. It has been successfully applied in the mental health care context and is flexible to be extendable to other medical domains.
23

Análise da qualidade da informação produzida por classificação baseada em orientação a objeto e SVM visando a estimativa do volume do reservatório Jaguari-Jacareí / Analysis of information quality in using OBIA and SVM classification to water volume estimation from Jaguari-Jacareí reservoir

Leão Junior, Emerson [UNESP] 25 April 2017 (has links)
Submitted by Emerson Leão Júnior null (emerson.leaojr@gmail.com) on 2017-12-05T18:07:16Z No. of bitstreams: 1 leao_ej_me_prud.pdf: 4186679 bytes, checksum: ee186b23411343c3e2d782d622226699 (MD5) / Approved for entry into archive by ALESSANDRA KUBA OSHIRO null (alessandra@fct.unesp.br) on 2017-12-06T10:52:22Z (GMT) No. of bitstreams: 1 leaojunior_e_me_prud.pdf: 4186679 bytes, checksum: ee186b23411343c3e2d782d622226699 (MD5) / Made available in DSpace on 2017-12-06T10:52:22Z (GMT). No. of bitstreams: 1 leaojunior_e_me_prud.pdf: 4186679 bytes, checksum: ee186b23411343c3e2d782d622226699 (MD5) Previous issue date: 2017-04-25 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / Considerando o cenário durante a crise hídrica de 2014 e a situação crítica dos reservatórios do sistema Cantareira no estado de São Paulo, este estudo realizado no reservatório Jaguari-Jacareí, consistiu na extração de informações a partir de imagens multiespectrais e análise da qualidade da informação relacionada com a acurácia no cálculo do volume de água do reservatório. Inicialmente, a superfície do espelho d’água foi obtida pela classificação da cobertura da terra a partir de imagens multiespectrais RapidEye tomadas antes e durante a crise hídrica (2013 e 2014, respectivamente), utilizando duas abordagens distintas: classificação orientada a objeto (Object-based Image Analysis - OBIA) e classificação baseada em pixel (Support Vector Machine – SVM). A acurácia do usuário por classe permitiu expressar o erro para detectar a superfície do espelho d’água para cada abordagem de classificação de 2013 e 2014. O segundo componente da estimação do volume foi a representação do relevo submerso, que considerou duas fontes de dados na construção do modelo numérico do terreno (MNT): dados topográficos provenientes de levantamento batimétrico disponibilizado pela Sabesp e o modelo de superfície AW3D30 (ALOS World 3D 30m mesh), para complementar a informação não disponível além da cota 830,13 metros. A comparação entre as duas abordagens de classificação dos tipos de cobertura da terra do entorno do reservatório Jaguari-Jacareí mostrou que SVM resultou em indicadores de acurácia ligeiramente superiores à OBIA, para os anos de 2013 e 2014. Em relação à estimação de volume do reservatório, incorporando a informação do nível de água divulgado pela Sabesp, a abordagem SVM apresentou menor discrepância relativa do que OBIA. Apesar disso, a qualidade da informação produzida na estimação de volume, resultante da propagação da variância associada aos dados envolvidos no processo, ambas as abordagens produziram valores similares de incerteza, mas com uma sutil superioridade de OBIA, para alguns dos cenários avaliados. No geral, os métodos de classificação utilizados nesta dissertação produziram informação acurada e adequada para o monitoramento de recursos hídricos e indicou que a abordagem SVM teve um desempenho sutilmente superior na classificação dos tipos de cobertura da terra, na estimação do volume e em alguns dos cenários considerados na propagação da incerteza. / This study aims to extract information from multispectral images and to analyse the information quality in the water volume estimation of Jaguari-Jacareí reservoir. The presented study of changes in the volume of the Jaguari-Jacareí reservoir was motivated by the critical situation of the reservoirs from Cantareira System in São Paulo State caused by water crisis in 2014. Reservoir area was extracted from RapidEye multispectral images acquired before and during the water crisis (2013 and 2014, respectively) through land cover classification. Firstly, the image classification was carried out in two distinct approaches: object-based (Object-based Image Analysis - OBIA) and pixel-based (Support Vector Machine - SVM) method. The classifications quality was evaluated through thematic accuracy, in which for every technique the user accuracy allowed to express the error for the class representing the water in 2013 and 2014. Secondly, we estimated the volume of the reservoir’s water body, using the numerical terrain model generated from two additional data sources: topographic data from a bathymetric survey, available from Sabesp, and the elevation model AW3D30 (to complement the information in the area where data from Sabesp was not available). When compare the two classification techniques, it was found that in the image classification, SVM performance slightly overcame the OBIA classification technique for 2013 and 2014. In the volume calculation considering the water level estimated from the generated DTM, the result obtained by SVM approach was better in 2013, whereas OBIA approach was more accurate in 2014. Considering the quality of the information produced in the volume estimation, both approaches presented similar values of uncertainty, with the OBIA method slightly less uncertain than SVM. In conclusion, the classification methods used in this dissertation produced accurate information to monitor water resource, but SVM had a subtly superior performance in the classification of land cover types, volume estimation and some of the scenarios considered in the propagation of uncertainty.
24

Modelo de procedência para auxiliar na análise da qualidade do dado geográfico

Santos, Renata Ribeiro dos 09 August 2016 (has links)
Submitted by Aelson Maciera (aelsoncm@terra.com.br) on 2017-03-29T19:09:28Z No. of bitstreams: 1 DissRRS.pdf: 3751863 bytes, checksum: 950bef628d03f26a109436e96c9ac337 (MD5) / Approved for entry into archive by Ronildo Prado (ronisp@ufscar.br) on 2017-04-11T13:45:04Z (GMT) No. of bitstreams: 1 DissRRS.pdf: 3751863 bytes, checksum: 950bef628d03f26a109436e96c9ac337 (MD5) / Approved for entry into archive by Ronildo Prado (ronisp@ufscar.br) on 2017-04-11T13:45:15Z (GMT) No. of bitstreams: 1 DissRRS.pdf: 3751863 bytes, checksum: 950bef628d03f26a109436e96c9ac337 (MD5) / Made available in DSpace on 2017-04-11T13:53:54Z (GMT). No. of bitstreams: 1 DissRRS.pdf: 3751863 bytes, checksum: 950bef628d03f26a109436e96c9ac337 (MD5) Previous issue date: 2016-08-09 / Não recebi financiamento / The quality of the geographic data must be a relevant concern for providers and consumers of this type of data because the manipulation and analysis of low quality geographic data may result in errors, which will be propagated through the consequent data. Thus it is important to properly document the information which allows for certifying the quality of the geographic data. In order to provide a minimum amount of metadata for such purpose, this dissertation presents an approach based on the provenance of the geographic data, which corresponds to the information about the history of such data from its origin until the processes that resulted in its current state. For this purpose, a provenance model called ProcGeo was proposed, in which it was defined a minimum amount of metadata that must be considered for the analysis of the quality of a certain geographic data. Although a few works and geographic metadata standards, such as Federal Geographic Data Committee (FGDC) and ISO 19115, consider the information about the provenance in the analysis of the quality of geographic data, it´s the opinion of the author that some metadata considered important for this purpose are not adequately contemplated. In this work, the prototype of an interface called ProcGeoInter was also implemented, aiming to guarantee the completeness and correctness in the filling out of the defined metadata in the ProcGeo model as well as the visualization of their content. The validation of the ProcGeo model and of the ProcGeoInter interface were made through tests and surveys applied to providers and consumers of geographic data. As a means of comparison, the interface for filling out and visualization of metadata available by SIG Quantum GIS (plugin Metatools) was used, which implements the FGDC geographic metadata standard. The obtained results indicated that the metadata defined in the ProcGeo model helped the geographic data provider in the description of the provenance of such data, when compared to those defined in the FGDC geographic metadata standard. Through the consumer´s focus it was possible to notice that the information filled out in the metadata defined by the ProcGeo favored the analysis of the quality of the consumed data. It was clear that both providers and consumers do not possess the habit of providing or consuming the information predicted in the FGDC and ISO 19115 geographic metadata standards. / A qualidade do dado geográfico deve ser uma preocupação relevante para provedores e consumidores desse tipo de dado, pois a manipulação e análise de um dado geográfico com baixa qualidade podem resultar em erros que vão se propagar nos dados gerados a partir desse. Assim, é importante que a informação que permita atestar a qualidade do dado geográfico seja adequadamente documentada. Com o propósito de oferecer um conjunto mínimo de metadados para essa finalidade, esse trabalho apresenta uma abordagem baseada na procedência do dado geográfico, que corresponde à informação sobre a história do dado, desde a sua origem até os processos que resultaram no seu estado atual. Para tanto, foi proposto um modelo de procedência denominado ProcGeo no qual foi definido um conjunto mínimo de metadados que devem ser considerados para a análise da qualidade de um dado geográfico. Embora alguns trabalhos e padrões de metadados geográficos, como o Federal Geographic Data Committee (FGDC) e o ISO 19115, considerem a informação da procedência para a análise da qualidade do dado geográfico, sob o ponto de vista da autora deste trabalho, alguns metadados considerados importantes para essa finalidade não são adequadamente contemplados. Neste trabalho também foi implementado o protótipo de uma interface denominada ProcGeoInter, que tem como finalidade garantir a corretude e completude do preenchimento dos metadados definidos no modelo ProcGeo e a visualização do conteúdo dos mesmos. A validação do modelo ProcGeo e da interface ProcGeoInter foram realizados por meio de testes e questionários aplicados a provedores e consumidores de dados geográficos. Para efeito de comparação, foi considerada a interface para preenchimento e visualização de metadados disponibilizada no SIG Quantum GIS (plugin Metatoools), que implementa o padrão de metadados geográficos FGDC. Os resultados obtidos indicaram que os metadados definidos no modelo ProcGeo auxiliaram o provedor de dados geográficos na descrição da procedência desses dados, quando comparados aos definidos no padrão de metadados geográficos FGDC. Pelo foco do consumidor foi possível perceber que as informações preenchidas nos metadados definidos pelo ProcGeo favoreceram a análise da qualidade dos dados consumidos. Ficou evidente que tanto provedores quanto consumidores não possuem o hábito de prover ou consumir as informações previstas nos padrões de metadados geográficos FGDC e ISO 19115.
25

Geoestatística aplicada na avaliação da qualidade de dados geoespaciais / Geostatistics applied in assessment of geospatial data quality

Santos, Alex da Silva 07 October 2013 (has links)
Made available in DSpace on 2015-03-26T13:28:26Z (GMT). No. of bitstreams: 1 texto completo.pdf: 3330909 bytes, checksum: 83d789ab10722b6666725f8fd263d49e (MD5) Previous issue date: 2013-10-07 / Fundação Instituto Brasileiro de Geografia e Estatística / In the process of production cartographic is natural the pursuit of quality spatial dataset. Throughout time technological evolution provided at the professionals in the area a constant growth in this production and in demand of these geospatial information by the users. However, to support this evolution without losing the qualification of space data is necessary to adopt standards. Furthermore, the complexity of geographic information in many aspects, require sampling techniques to measure and assess the quality of the spatial dataset in order to ensure with statistical basis, a significant amount and an appropriate spatial distribution of its samples. In Geosciences is intuitive to think in spatial correlation of a phenomenon under study and Geostatistics provides tools to identify and represent the behavior of this dependence. The spatial analysis of results from an inspection of a quality cartographic product is seldom addressed in literature, restricted only to conclusions descriptive and tabular, based on the assumption of classical statistical of independence from the observed data. At the present time is in deploying the National Spatial Data Infrastructure of Brazil (INDE), where several cartographic products are made available to the society, along with their geographic metadata. The metadata facilitates access to spatial data, but serve partly aspects concerning the quality of the dataset. Therefore, this thesis proposes a methodology for the quality inspection of spatial datasets of the INDE, based on international standards, concepts of generalization and elements of quality defined in literature as well as the spatial analysis of results of this inspection by using geostatistical methods and the representation of this assessment by means of quality maps. The method of quality evaluation data developed and applied on the Base Cartographic Continuous of Brazil at the 1:250.000 scale - BC250 with a focus on certain aspects of quality. The quality maps generated showed regionalizations in the indicators of quality inspected, confirmed by the staff that producer of cartographic base, subsidizing the producers themselves and users in understanding the spatial behavior quality product cartographic under study. / No processo de produção cartográfica é natural a busca pela qualidade do conjunto de dados espaciais. Ao longo do tempo, a evolução tecnológica propiciou aos profissionais da área um crescimento constante desta produção e na demanda destas informações geoespaciais por parte dos usuários. Entretanto, para acompanhar esta evolução, sem perder a qualificação dos dados espaciais, é necessária a adoção de padrões. Além disto, a complexidade das informações geográficas, em diversos aspectos, demanda técnicas de amostragem para mensurar e aferir a qualidade do conjunto de dados espaciais, a fim de garantir com embasamento estatístico, uma quantidade significativa e uma adequada distribuição espacial de suas amostras. Na área de Geociências é intuitivo pensar na correlação espacial de um fenômeno em estudo e a Geoestatística dispõe de ferramentas para identificar e representar o comportamento desta dependência. A análise espacial dos resultados de uma inspeção de qualidade de um produto cartográfico raramente é abordada na literatura, restrita apenas à conclusões descritivas e tabulares, baseadas no pressuposto da Estatística Clássica de independência dos dados observados. No presente momento está em implantação a Infraestrutura Nacional de Dados Espaciais do Brasil (INDE), onde diversos produtos cartográficos são disponibilizados à sociedade, junto com seus metadados geográficos. Os metadados facilitam o acesso ao dado espacial, mas atendem em parte aspectos relativos à qualidade do conjunto de dados. Desta forma, a presente dissertação propõe uma metodologia de inspeção da qualidade de conjuntos de dados espaciais da INDE, baseada em normas internacionais, conceitos de generalização e elementos de qualidade definidos na literatura, bem como a análise espacial dos resultados desta inspeção, usando métodos geoestatísticos e a representação desta aferição por meio de mapas de qualidade. O método de avaliação da qualidade de dados foi desenvolvido e aplicado sobre a Base Cartográfica Contínua do Brasil na escala 1:250.000 - BC250, com foco em determinados aspectos de qualidade. Os mapas de qualidade gerados mostraram regionalizações dos indicadores de qualidade inspecionados, confirmadas pela equipe produtora da referida base cartográfica, subsidiando usuários e os próprios produtores no entendimento do comportamento espacial da qualidade do produto cartográfico em estudo.
26

Avaliação da qualidade do Sistema  de Informação de Registro de Óbitos Hospitalares (SIS-ROH), Hospital Central da Beira, Moçambique / Assessment of the Quality of the Information System of Hospital Death Registration (SIS-ROH), Beira Central Hospital, Mozambique

Edina da Rosa Durão Mola 24 February 2016 (has links)
As informações de mortalidade são úteis para avaliar a situação de saúde de uma população. Dados de mortalidade confiáveis produzidos por um sistema de informação de saúde nacional constituem uma ferramenta importante para o planejamento de saúde. Em muitos países, sobretudo em desenvolvimento, o sistema de informação de mortalidade continua precário. Apesar dos esforços feitos em Moçambique para melhoria das estatísticas de mortalidade, os desafios ainda prevalecem em termos de tecnologias de informação, capacidade técnica de recursos humanos e em termos de produção estatística. O SIS-ROH é um sistema eletrônico de registro de óbitos hospitalares de nível nacional, implementado em 2008 e tem uma cobertura de apenas 4% de todos os óbitos anuais do país. Apesar de ser um sistema de nível nacional, ele presentemente funciona em algumas Unidades Sanitárias (US), incluindo o Hospital Central da Beira (HCB). Dada a importância deste sistema para monitorar o padrão de mortalidade do HCB e, no geral, da cidade da Beira, este estudo avalia a qualidade do SIS-ROH do HCB. É um estudo descritivo sobre a completitude, cobertura, concordância e consistência dos dados do SIS-ROH. Foram analisados 3.009 óbitos de menores de 5 anos ocorridos entre 2010 e 2013 e regsitrados no SIS-ROH e uma amostra de 822 Certificados de Óbitos (COs) fetais e de menores de 5 anos do HCB. O SIS-ROH apresentou uma cobertura inferior a 50% calculados com os dados de mortalidade estimados pelo Inquérito Nacional de Causas de Morte (INCAM). Verificamos a utilização de dois modelos diferentes de CO (modelo antigo e atual) para o registro de óbitos referentes ao ano de 2013. Observou-se completitude excelente para a maioria das variáveis do SISROH. Das 25 variáveis analisadas dos COs observou-se a seguinte situação: 9 apresentaram completitude muito ruim, sendo elas relativas à identificação do falecido (tipo de óbito e idade), relativas ao bloco V em que dados da mãe devem ser obrigatoriamente preenchidos em caso de óbitos fetais e de menores de 1 ano (escolaridade, ocupação habitual, número de filhos tidos vivos e mortos, duração da gestação) e relativas às condições e às causas de óbito (autópsia e causa intermédiacódigo); 3 variáveis apresentaram completitude ruim relativas à identificação do falecido (NID) e relativas às condições e causas de morte (causa intermédia - descrição e causa básica - código); 9 apresentaram completitude regular relativas à identificação do falecido (data de nascimento e idade), relativas ao bloco V (idade da mãe, tipo de gravidez, tipo de parto, peso do feto/bebé ao nascer, morte do feto/bebé em relação ao parto) e relativas às condições e causa de óbito (causa direta- código, causa básica descrição); 2 apresentaram completitude bom relativas à identificação do falecido (sexo e raça/cor) e, por último, 2 apresentaram completitude excelente relativas ao local de ocorrência de óbito (data de internamento e data de óbito ou desaparecimento do cadáver). Algumas variáveis do SIS-ROH e dos COS apresentaram inconsistências. Observou-se falta de concordância para causa direta entre o SIS-ROH e os COs. Conclusão: Moçambique tem feito esforços para aprimorar as estatísticas de mortalidade, porém há lacunas na qualidade; a análise rotineria dos dados pode identificar essas lacunas e subsidiar seu aprimoramento. / The mortality information is useful to assess the health status of a population. Reliable mortality data produced by a national health information system is an important tool for health planning. In many countries, especially developing countries, the mortality information system is still precarious. Despite efforts in Mozambique to improve mortality statistics, challenges still prevail in terms of information technology, technical capacity and human resources and statistical production. The SIS-ROH is an electronic system of national-level hospital deaths registration, implemented in 2008 and has a coverage of only 4% of all annual deaths in the country. Despite being a national system, it currently works in some health units (US), including Beira Central Hospital (HCB). Given the importance of this system to monitor the mortality pattern of HCB and, in general, the city of Beira, this study evaluates the quality of SIS-ROH HCB. It is a descriptive study on the completeness, coverage, compliance and consistency of the SIS-ROH data and examined a sample of 822 HCB deaths Certificates (COs) of fetal and children under 5 years of age. We find the use of two different models of CO (former and current model) for the registration of deaths related to the year 2013. We observed excellent completeness for most SIS-ROH variables. Of the 25 variables of COs there was the following situation: 9 had very bad completeness, which were relating to the identification of the deceased (type of death and age) on the V block in the mother\'s data, where must be filled in case of stillbirths and children under 1 year of age (education, usual occupation, number of living children taken and killed, gestational age) and on the conditions and causes of death (autopsy and intermediate-code causes); 3 variables had bad completeness concerning the identification of the deceased (NID) and on the conditions and causes of death (intermediate cause - description and basic cause - code); 9 showed regular completeness concerning the identification of the deceased (date of birth and age) on the V block (mother\'s age, type of pregnancy, mode of delivery, weight of the fetus / baby birth, death of the fetus / baby compared to delivery) and on the conditions and causes of death (direct cause code, basic cause description); 2 showed good completeness concerning the identification of the deceased (sex and race / color) and, finally, 2 showed excellent completeness concerning the place of occurrence of death (date of admission and date of death or the disappearance corpse). The SIS-ROH had coverage below 50% calculated on mortality data estimated by the National Survey of Causes of Death (INCAM). Some SIS-ROH variables and COS showed inconsistencies. There was a lack of agreement to direct cause between SIS-ROH and COs.
27

Arquitetura e métodos de integração de dados e interoperabilidade aplicados na saúde mental / Investigation of the effectiveness of data integration and interoperability methods applied to mental health

Newton Shydeo Brandão Miyoshi 16 March 2018 (has links)
A disponibilidade e integração das informações em saúde relativas a um mesmo paciente entre diferentes níveis de atenção ou entre diferentes instituições de saúde é normalmente incompleta ou inexistente. Isso acontece principalmente porque os sistemas de informação que oferecem apoio aos profissionais da saúde não são interoperáveis, dificultando também a gestão dos serviços a nível municipal e regional. Essa fragmentação da informação também é desafiadora e preocupante na área da saúde mental, em que normalmente se exige um cuidado prolongado e que integra diferentes tipos de serviços de saúde. Problemas como a baixa qualidade e indisponibilidade de informações, assim como a duplicidade de registros, são importantes aspectos na gestão e no cuidado prolongado ao paciente portador de transtornos mentais. Apesar disso, ainda não existem estudos objetivos demonstrando o impacto efetivo da interoperabilidade e integração de dados na gestão e na qualidade de dados para a área de saúde mental. Objetivos: Neste contexto, o projeto tem como objetivo geral propor uma arquitetura de interoperabilidade para a assistência em saúde regionalizada e avaliar a efetividade de técnicas de integração de dados e interoperabilidade para a gestão dos atendimentos e internações em saúde mental na região de Ribeirão Preto, assim como o impacto na melhoria e disponibilidade dos dados por meio de métricas bem definidas. Métodos: O framework de interoperabilidade proposto tem como base a arquitetura cliente-servidor em camadas. O modelo de informação de interoperabilidade foi baseado em padrões de saúde internacionais e nacionais. Foi proposto um servidor de terminologias baseado em padrões de informação em saúde. Foram também utilizados algoritmos de Record Linkage para garantir a identificação unívoca do paciente. Para teste e validação da proposta foram utilizados dados de diferentes níveis de atenção à saúde provenientes de atendimentos na rede de atenção psicossocial na região de Ribeirão Preto. Os dados foram extraídos de cinco fontes diferentes: (i) a Unidade Básica de Saúde da Família - I, de Santa Cruz da Esperança; (ii) o Centro de Atenção Integrada à Saúde, de Santa Rita do Passa Quatro; (iii) o Hospital Santa Tereza; (iv) as informações de solicitações de internação contidas no SISAM (Sistema de Informação em Saúde Mental); e (v) dados demográficos do Barramento do Cartão Nacional de Saúde do Ministério da Saúde. As métricas de qualidade de dados utilizadas foram completude, consistência, duplicidade e acurácia. Resultados: Como resultado deste trabalho, foi projetado, desenvolvido e testado a plataforma de interoperabilidade em saúde, denominado eHealth-Interop. Foi adotada uma proposta de interoperabilidade por meio de serviços web com um modelo de integração de dados baseado em um banco de dados centralizador. Foi desenvolvido também um servidor de terminologias, denominado eHealth-Interop Terminology Server, que pode ser utilizado como um componente independente e em outros contextos médicos. No total foram obtidos dados de 31340 registros de pacientes pelo SISAM, e-SUS AB de Santa Cruz da Esperança, do CAIS de Santa Rita do Passa Quatro, do Hospital Santa Tereza e do Barramento do CNS do Ministério da Saúde. Desse total, 30,47% (9548) registros foram identificados como presente em mais de 1 fonte de informação, possuindo diferentes níveis de acurácia e completude. A análise de qualidade de dados, abrangendo todas os registros integrados, obteve uma melhoria na completude média de 18,40% (de 56,47% para 74,87%) e na acurácia sintática média de 1,08% (de 96,69% para 96,77%). Na análise de consistência houve melhoras em todas as fontes de informação, variando de uma melhoria mínima de 14.4% até o máximo de 51,5%. Com o módulo de Record Linkage foi possível quantificar, 1066 duplicidades e, dessas, 226 foram verificadas manualmente. Conclusões: A disponibilidade e a qualidade da informação são aspectos importantes para a continuidade do atendimento e gerenciamento de serviços de saúde. A solução proposta neste trabalho visa estabelecer um modelo computacional para preencher essa lacuna. O ambiente de interoperabilidade foi capaz de integrar a informação no caso de uso de saúde mental com o suporte de terminologias clínicas internacionais e nacionais sendo flexível para ser estendido a outros domínios de atenção à saúde. / The availability and integration of health information from the same patient between different care levels or between different health services is usually incomplete or non-existent. This happens especially because the information systems that support health professionals are not interoperable, making it difficult to manage services at the municipal and regional level. This fragmentation of information is also challenging and worrying in the area of mental health, where long-term care is often required and integrates different types of health services and professionals. Problems such as poor quality and unavailability of information, as well as duplicate records, are important aspects in the management and long-term care of patients with mental disorders. Despite this, there are still no objective studies that demonstrate the effective impact of interoperability and data integration on the management and quality of data for the mental health area. Objectives: In this context, this project proposes an interoperability architecture for regionalized health care management. It also proposes to evaluate the effectiveness of data integration and interoperability techniques for the management of mental health hospitalizations in the Ribeirão Preto region as well as the improvement in data availability through well-defined metrics. Methods: The proposed framework is based on client-service architecture to be deployed in the web. The interoperability information model was based on international and national health standards. It was proposed a terminology server based on health information standards. Record Linkage algorithms were implemented to guarantee the patient identification. In order to test and validate the proposal, we used data from different health care levels provided by the mental health care network in the Ribeirão Preto region. The data were extracted from five different sources: the Family Health Unit I of Santa Cruz da Esperança, the Center for Integrated Health Care of Santa Rita do Passa Quatro, Santa Tereza Hospital, the information on hospitalization requests system in SISAM (Mental Health Information System) and demographic data of the Brazilian Ministry of Health Bus. Results: As a result of this work, the health interoperability platform, called eHealth-Interop, was designed, developed and tested. A proposal was adopted for interoperability through web services with a data integration model based on a centralizing database. A terminology server, called eHealth-Interop Terminology Server, has been developed that can be used as an independent component and in other medical contexts. In total, 31340 patient records were obtained from SISAM, eSUS-AB from Santa Cruz da Esperança, from CAIS from Santa Rita do Passa Quatro, from Santa Tereza Hospital and from the CNS Service Bus from the Brazillian Ministry of Health. 47% (9548) records were identified as present in more than 1 information source, having different levels ofaccuracy and completeness. The data quality analysis, covering all integrated records, obtained an improvement in the average completeness of 18.40% (from 56.47% to 74.87%) and the mean syntactic accuracy of 1.08% (from 96,69% to 96.77%). In the consistency analysis there were improvements in all information sources, ranging from a minimum improvement of 14.4% to a maximum of 51.5%. With the Record Linkage module it was possible to quantify 1066 duplications, of which 226 were manually verified. Conclusions: The information\'s availability and quality are both important aspects for the continuity of care and health services management. The solution proposed in this work aims to establish a computational model to fill this gap. It has been successfully applied in the mental health care context and is flexible to be extendable to other medical domains.
28

A conceptual framework on biodiversity data quality. / Um framework conceitual em qualidade de dados de biodiversidade.

Veiga, Allan Koch 28 November 2016 (has links)
The increasing availability of digitized biodiversity data worldwide, provided by an increasing number of sources, and the growing use of those data for a variety of purposes have raised concerns related to the \"fitness for use\" of such data and the impact of data quality (DQ) on outcomes of analyses, reports and decisions making. A consistent approach to assess and manage DQ is currently critical for biodiversity data users. However, achieving this goal has been particularly challenging because of the idiosyncrasies inherent to the concept of quality. DQ assessment and management cannot be suitably carried out if we have not clearly established the meaning of quality according to the data user\'s standpoint. This thesis presents a formal conceptual framework to support the Biodiversity Informatics (BI) community to consistently describe the meaning of data \"fitness for use\". Principles behind data fitness for use are used to establish a formal and common ground for the collaborative definition of DQ needs, solutions and reports useful for DQ assessment and management. Based on the study of the DQ domain and its contextualization in the BI domain, which involved discussions with experts in DQ and BI in an iterative process, a comprehensive framework was designed and formalized. The framework defines eight fundamental concepts and 21 derived concepts, organized into three classes: DQ Needs, DQ Solutions and DQ Report. The concepts of each class describe, respectively, the meaning of DQ in a given context, the methods and tools that can serve as solutions for meeting DQ needs, and reports that present the current status of quality of a data resource. The formalization of the framework was presented using conceptual maps notation and sets theory notation. In order to validate the framework, we present a proof of concept based on a case study conducted at the Museum of Comparative Zoology of Harvard University. The tools FP-Akka Kurator and the BDQ Toolkit were used in the case study to perform DQ measures, validations and improvements in a dataset of the Arizona State University Hasbrouck Insect Collection. The results illustrate how the framework enables data users to assess and manage DQ of datasets and single records using quality control and quality assurance approaches. The proof of concept has also shown that the framework is adequately formalized and flexible, and sufficiently complete for defining DQ needs, solutions and reports in the BI domain. The framework is able of formalizing human thinking into well-defined components to make it possible sharing and reusing definitions of DQ in different scenarios, describing and finding DQ tools and services, and communicating the current status of quality of data in a standardized format among the stakeholders. In addition, the framework supports the players of that community to join efforts on the collaborative gathering and developing of the necessary components for the DQ assessment and management in different contexts. The framework is also the foundation of a Task Group on Data Quality, under the auspices of the Biodiversity Information Standards (TDWG) and the Global Biodiversity Information Facility (GBIF) and is being used to help collect user\'s needs on data quality on agrobiodiversity and on species distributed modeling, initially. In future work, we plan to use the framework to engage the BI community to formalize and share DQ profiles related to a number of other data usages, to recommend methods, guidelines, protocols, metadata schemas and controlled vocabulary for supporting data fitness for use assessment and management in distributed system and data environments. In addition, we plan to build a platform based on the framework to serve as a common backbone for registering and retrieving DQ concepts, such as DQ profiles, methods, tools and reports. / A crescente disponibilização de dados digitalizados sobre a biodiversidade em todo o mundo, fornecidos por um crescente número de fontes, e o aumento da utilização desses dados para uma variedade de propósitos, tem gerado preocupações relacionadas a \"adequação ao uso\" desses dados e ao impacto da qualidade de dados (QD) sobre resultados de análises, relatórios e tomada de decisões. Uma abordagem consistente para avaliar e gerenciar a QD é atualmente crítica para usuários de dados sobre a biodiversidade. No entanto, atingir esse objetivo tem sido particularmente desafiador devido à idiossincrasia inerente ao conceito de qualidade. A avaliação e a gestão da QD não podem ser adequadamente realizadas sem definir claramente o significado de qualidade de acordo com o ponto de vista do usuário dos dados. Esta tese apresenta um arcabouço conceitual formal para apoiar a comunidade de Informática para Biodiversidade (IB) a descrever consistentemente o significado de \"adequação ao uso\" de dados. Princípios relacionados à adequação ao uso são usados para estabelecer uma base formal e comum para a definição colaborativa de necessidades, soluções e relatórios de QD úteis para a avaliação e gestão de QD. Baseado no estudo do domínio de QD e sua contextualização no domínio de IB, que envolveu discussões com especialistas em QD e IB em um processo iterativo, foi projetado e formalizado um arcabouço conceitual abrangente. Ele define oito conceitos fundamentais e vinte e um conceitos derivados organizados em três classes: Necessidades de QD, Soluções de QD e Relatório de QD. Os conceitos de cada classe descrevem, respectivamente, o significado de QD em um dado contexto, métodos e ferramentas que podem servir como soluções para atender necessidades de QD, e relatórios que apresentam o estado atual da qualidade de um recurso de dado. A formalização do arcabouço foi apresentada usando notação de mapas conceituais e notação de teoria dos conjuntos. Para a validação do arcabouço, nós apresentamos uma prova de conceito baseada em um estudo de caso conduzido no Museu de Zoologia Comparativa da Universidade de Harvard. As ferramentas FP-Akka Kurator e BDQ Toolkit foram usadas no estudo de caso para realizar medidas, validações e melhorias da QD em um conjunto de dados da Coleção de Insetos Hasbrouck da Universidade do Estado do Arizona. Os resultados ilustram como o arcabouço permite a usuários de dados avaliarem e gerenciarem a QD de conjunto de dados e registros isolados usando as abordagens de controle de qualidade a garantia de qualidade. A prova de conceito demonstrou que o arcabouço é adequadamente formalizado e flexível, e suficientemente completo para definir necessidades, soluções e relatórios de QD no domínio da IB. O arcabouço é capaz de formalizar o pensamento humano em componentes bem definidos para fazer possível compartilhar e reutilizar definições de QD em diferentes cenários, descrever e encontrar ferramentas de QD e comunicar o estado atual da qualidade dos dados em um formato padronizado entre as partes interessadas da comunidade de IB. Além disso, o arcabouço apoia atores da comunidade de IB a unirem esforços na identificação e desenvolvimento colaborativo de componentes necessários para a avaliação e gestão da QD. O arcabouço é também o fundamento de um Grupos de Trabalho em Qualidade de Dados, sob os auspícios do Biodiversity Information Standard (TDWG) e do Biodiversity Information Facility (GBIF) e está sendo utilizado para coletar as necessidades de qualidade de dados de usuários de dados de agrobiodiversidade e de modelagem de distribuição de espécies, inicialmente. Em trabalhos futuros, planejamos usar o arcabouço apresentado para engajar a comunidade de IB para formalizar e compartilhar perfis de QD relacionados a inúmeros outros usos de dados, recomendar métodos, diretrizes, protocolos, esquemas de metadados e vocabulários controlados para apoiar a avaliação e gestão da adequação ao uso de dados em ambiente de sistemas e dados distribuídos. Além disso, nós planejamos construir uma plataforma baseada no arcabouço para servir como uma central integrada comum para o registro e recuperação de conceitos de QD, tais como perfis, métodos, ferramentas e relatórios de QD.
29

CORREÇÃO DE DADOS AGROMETEOROLÓGICOS UTILIZANDO MÉTODOS ESTATÍSTICOS

Baba, Ricardo Kazuo 31 July 2012 (has links)
Made available in DSpace on 2017-07-21T14:19:32Z (GMT). No. of bitstreams: 1 Ricardo Baba.pdf: 3642224 bytes, checksum: 81e8e78f554cdf870e6f9a554b71f87a (MD5) Previous issue date: 2012-07-31 / Climatic data are more and more important to predict climate phenomena or to evaluate historical data that serve as support for decision making especially for agriculture. Ensuring the quality of these data is crucial. These data are collected by the meteorological stations, during this process some data gaps and data inconsistent may be generated. Identify suspicious or inconsistent data is very important to ensure data quality. This paper presents an approach that uses statistical and geostatistical techniques to identify incorrect and suspicious data and estimate new values to fill gaps and errors. In this research, a spatial database was used to implement these techniques (statistical and geostatistical) and to test and evaluate the weather data. To evaluate these techniques we used data from stations located in Paraná State to evaluate the temperature variable. To check the results of the estimated data, we used the mean absolute error (MAE) and the root mean square error (RMSE). As a result, the uses of these techniques have proved to be suitable to identify basic errors and historical errors. The temporal validation showed a poor performance by overestimating the amount of incorrect data. Regarding the estimation techniques applied Kriging, Inverse of Distance Weighted and Linear Regression, all showed similar performance in the error analysis. / A análise de dados climáticos serve de suporte na previsão de fenômenos relacionados, na avaliação de seus dados históricos e para a tomada de decisões, em especial na área da agricultura. Garantir a sua qualidade é fundamental. O processo de coleta desses dados, através das estações meteorológicas, pode apresentar problemas, onde dados inconsistentes podem ser geridos ou obtidos. A identificação de dados inconsistentes ou suspeitos é de fundamental importância na garantia de qualidade dos dados. Este trabalho apresenta uma abordagem para solução do problema, utilizando técnicas estatísticas e geoestatísticas na identificação de dados inconsistentes e na estimativa de dados a serem corrigidos ou preenchidos. A implementação destas técnicas em um banco de dados espacial apresentou-se como um facilitador na identificação e no preenchimento desses dados. Para avaliação destas técnicas utilizou-se de dados das estações localizadas no Estado do Paraná, para análise da variável temperatura. Para avaliar os resultados, foram utilizados os erros médio e quadrático. Como resultado, destaca-se que as técnicas de identificação de erros mostraram-se adequadas na consistência de erros básicos e históricos. A validação espacial apresentou baixo desempenho por superestimar a quantidade de dados incorretos. Quanto as técnicas utilizadas na estimativa dos dados, Krigagem, Inverso da Distância e Regressão Linear, todas apresentaram desempenho semelhantes com relação à análise dos erros.
30

A conceptual framework on biodiversity data quality. / Um framework conceitual em qualidade de dados de biodiversidade.

Allan Koch Veiga 28 November 2016 (has links)
The increasing availability of digitized biodiversity data worldwide, provided by an increasing number of sources, and the growing use of those data for a variety of purposes have raised concerns related to the \"fitness for use\" of such data and the impact of data quality (DQ) on outcomes of analyses, reports and decisions making. A consistent approach to assess and manage DQ is currently critical for biodiversity data users. However, achieving this goal has been particularly challenging because of the idiosyncrasies inherent to the concept of quality. DQ assessment and management cannot be suitably carried out if we have not clearly established the meaning of quality according to the data user\'s standpoint. This thesis presents a formal conceptual framework to support the Biodiversity Informatics (BI) community to consistently describe the meaning of data \"fitness for use\". Principles behind data fitness for use are used to establish a formal and common ground for the collaborative definition of DQ needs, solutions and reports useful for DQ assessment and management. Based on the study of the DQ domain and its contextualization in the BI domain, which involved discussions with experts in DQ and BI in an iterative process, a comprehensive framework was designed and formalized. The framework defines eight fundamental concepts and 21 derived concepts, organized into three classes: DQ Needs, DQ Solutions and DQ Report. The concepts of each class describe, respectively, the meaning of DQ in a given context, the methods and tools that can serve as solutions for meeting DQ needs, and reports that present the current status of quality of a data resource. The formalization of the framework was presented using conceptual maps notation and sets theory notation. In order to validate the framework, we present a proof of concept based on a case study conducted at the Museum of Comparative Zoology of Harvard University. The tools FP-Akka Kurator and the BDQ Toolkit were used in the case study to perform DQ measures, validations and improvements in a dataset of the Arizona State University Hasbrouck Insect Collection. The results illustrate how the framework enables data users to assess and manage DQ of datasets and single records using quality control and quality assurance approaches. The proof of concept has also shown that the framework is adequately formalized and flexible, and sufficiently complete for defining DQ needs, solutions and reports in the BI domain. The framework is able of formalizing human thinking into well-defined components to make it possible sharing and reusing definitions of DQ in different scenarios, describing and finding DQ tools and services, and communicating the current status of quality of data in a standardized format among the stakeholders. In addition, the framework supports the players of that community to join efforts on the collaborative gathering and developing of the necessary components for the DQ assessment and management in different contexts. The framework is also the foundation of a Task Group on Data Quality, under the auspices of the Biodiversity Information Standards (TDWG) and the Global Biodiversity Information Facility (GBIF) and is being used to help collect user\'s needs on data quality on agrobiodiversity and on species distributed modeling, initially. In future work, we plan to use the framework to engage the BI community to formalize and share DQ profiles related to a number of other data usages, to recommend methods, guidelines, protocols, metadata schemas and controlled vocabulary for supporting data fitness for use assessment and management in distributed system and data environments. In addition, we plan to build a platform based on the framework to serve as a common backbone for registering and retrieving DQ concepts, such as DQ profiles, methods, tools and reports. / A crescente disponibilização de dados digitalizados sobre a biodiversidade em todo o mundo, fornecidos por um crescente número de fontes, e o aumento da utilização desses dados para uma variedade de propósitos, tem gerado preocupações relacionadas a \"adequação ao uso\" desses dados e ao impacto da qualidade de dados (QD) sobre resultados de análises, relatórios e tomada de decisões. Uma abordagem consistente para avaliar e gerenciar a QD é atualmente crítica para usuários de dados sobre a biodiversidade. No entanto, atingir esse objetivo tem sido particularmente desafiador devido à idiossincrasia inerente ao conceito de qualidade. A avaliação e a gestão da QD não podem ser adequadamente realizadas sem definir claramente o significado de qualidade de acordo com o ponto de vista do usuário dos dados. Esta tese apresenta um arcabouço conceitual formal para apoiar a comunidade de Informática para Biodiversidade (IB) a descrever consistentemente o significado de \"adequação ao uso\" de dados. Princípios relacionados à adequação ao uso são usados para estabelecer uma base formal e comum para a definição colaborativa de necessidades, soluções e relatórios de QD úteis para a avaliação e gestão de QD. Baseado no estudo do domínio de QD e sua contextualização no domínio de IB, que envolveu discussões com especialistas em QD e IB em um processo iterativo, foi projetado e formalizado um arcabouço conceitual abrangente. Ele define oito conceitos fundamentais e vinte e um conceitos derivados organizados em três classes: Necessidades de QD, Soluções de QD e Relatório de QD. Os conceitos de cada classe descrevem, respectivamente, o significado de QD em um dado contexto, métodos e ferramentas que podem servir como soluções para atender necessidades de QD, e relatórios que apresentam o estado atual da qualidade de um recurso de dado. A formalização do arcabouço foi apresentada usando notação de mapas conceituais e notação de teoria dos conjuntos. Para a validação do arcabouço, nós apresentamos uma prova de conceito baseada em um estudo de caso conduzido no Museu de Zoologia Comparativa da Universidade de Harvard. As ferramentas FP-Akka Kurator e BDQ Toolkit foram usadas no estudo de caso para realizar medidas, validações e melhorias da QD em um conjunto de dados da Coleção de Insetos Hasbrouck da Universidade do Estado do Arizona. Os resultados ilustram como o arcabouço permite a usuários de dados avaliarem e gerenciarem a QD de conjunto de dados e registros isolados usando as abordagens de controle de qualidade a garantia de qualidade. A prova de conceito demonstrou que o arcabouço é adequadamente formalizado e flexível, e suficientemente completo para definir necessidades, soluções e relatórios de QD no domínio da IB. O arcabouço é capaz de formalizar o pensamento humano em componentes bem definidos para fazer possível compartilhar e reutilizar definições de QD em diferentes cenários, descrever e encontrar ferramentas de QD e comunicar o estado atual da qualidade dos dados em um formato padronizado entre as partes interessadas da comunidade de IB. Além disso, o arcabouço apoia atores da comunidade de IB a unirem esforços na identificação e desenvolvimento colaborativo de componentes necessários para a avaliação e gestão da QD. O arcabouço é também o fundamento de um Grupos de Trabalho em Qualidade de Dados, sob os auspícios do Biodiversity Information Standard (TDWG) e do Biodiversity Information Facility (GBIF) e está sendo utilizado para coletar as necessidades de qualidade de dados de usuários de dados de agrobiodiversidade e de modelagem de distribuição de espécies, inicialmente. Em trabalhos futuros, planejamos usar o arcabouço apresentado para engajar a comunidade de IB para formalizar e compartilhar perfis de QD relacionados a inúmeros outros usos de dados, recomendar métodos, diretrizes, protocolos, esquemas de metadados e vocabulários controlados para apoiar a avaliação e gestão da adequação ao uso de dados em ambiente de sistemas e dados distribuídos. Além disso, nós planejamos construir uma plataforma baseada no arcabouço para servir como uma central integrada comum para o registro e recuperação de conceitos de QD, tais como perfis, métodos, ferramentas e relatórios de QD.

Page generated in 0.0726 seconds