• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 148
  • 34
  • 33
  • 26
  • 12
  • 10
  • 9
  • 4
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 328
  • 328
  • 75
  • 59
  • 48
  • 34
  • 33
  • 32
  • 30
  • 30
  • 30
  • 29
  • 28
  • 28
  • 27
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Metodologia de avaliação de qualidade de dados no contexto do linked data / Data quality assessment methodology in the context of linked data

Melo, Jessica Oliveira de Souza Ferreira [UNESP] 09 May 2017 (has links)
Submitted by JESSICA OLIVEIRA DE SOUZA null (osz.jessica@gmail.com) on 2017-06-09T12:04:24Z No. of bitstreams: 1 Dissertação-Jessica-Melo.pdf: 5257476 bytes, checksum: 21d6468b47635a4df09d971c6c0bb581 (MD5) / Approved for entry into archive by LUIZA DE MENEZES ROMANETTO (luizamenezes@reitoria.unesp.br) on 2017-06-12T12:21:39Z (GMT) No. of bitstreams: 1 melo_josf_me_mar.pdf: 5257476 bytes, checksum: 21d6468b47635a4df09d971c6c0bb581 (MD5) / Made available in DSpace on 2017-06-12T12:21:39Z (GMT). No. of bitstreams: 1 melo_josf_me_mar.pdf: 5257476 bytes, checksum: 21d6468b47635a4df09d971c6c0bb581 (MD5) Previous issue date: 2017-05-09 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / A Web Semântica sugere a utilização de padrões e tecnologias que atribuem estrutura e semântica aos dados, de modo que agentes computacionais possam fazer um processamento inteligente, automático, para cumprir tarefas específicas. Neste contexto, foi criado o projeto Linked Open Data (LOD), que consiste em uma iniciativa para promover a publicação de dados linkados (Linked Data). Com o evidente crescimento dos dados publicados como Linked Data, a qualidade tornou-se essencial para que tais conjuntos de dados (datasets) atendam os objetivos básicos da Web Semântica. Isso porque problemas de qualidade nos datasets publicados constituem em um empecilho não somente para a sua utilização, mas também para aplicações que fazem uso de tais dados. Considerando que os dados disponibilizados como Linked Data possibilitam um ambiente favorável para aplicações inteligentes, problemas de qualidade podem também dificultar ou impedir a integração dos dados provenientes de diferentes datasets. A literatura aplica diversas dimensões de qualidade no contexto do Linked Data, porém indaga-se a aplicabilidade de tais dimensões para avaliação de qualidade de dados linkados. Deste modo, esta pesquisa tem como objetivo propor uma metodologia para avaliação de qualidade nos datasets de Linked Data, bem como estabelecer um modelo do que pode ser considerado qualidade de dados no contexto da Web Semântica e do Linked Data. Para isso adotou-se uma abordagem exploratória e descritiva a fim de estabelecer problemas, dimensões e requisitos de qualidade e métodos quantitativos na metodologia de avaliação a fim de realizar a atribuição de índices de qualidade. O trabalho resultou na definição de sete dimensões de qualidade aplicáveis ao domínio do Linked Data e 14 fórmulas diferentes para a quantificação da qualidade de datasets sobre publicações científicas. Por fim realizou-se uma prova de conceito na qual a metodologia de avaliação de qualidade proposta foi aplicada em um dataset promovido pelo LOD. Conclui-se, a partir dos resultados da prova de conceito, que a metodologia proposta consiste em um meio viável para quantificação dos problemas de qualidade em datasets de Linked Data, e que apesar dos diversos requisitos para a publicação deste tipo de dados podem existir outros datasets que não atendam determinados requisitos de qualidade, e por sua vez, não deveriam estar inclusos no diagrama do projeto LOD. / The Semantic Web suggests the use of patterns and technologies that assign structure and semantics to the data, so that computational agents can perform intelligent, automatic processing to accomplish specific tasks. In this context, the Linked Open Data (LOD) project was created, which consists of an initiative to promote the publication of Linked Data. With the evident growth of data published as Linked Data, quality has become essential for such datasets to meet the basic goals of the Semantic Web. This is because quality problems in published datasets are a hindrance not only to their use but also to applications that make use of such data. Considering that data made available as Linked Data enables a favorable environment for intelligent applications, quality problems can also hinder or prevent the integration of data coming from different datasets. The literature applies several quality dimensions in the context of Linked Data, however, the applicability of such dimensions for quality evaluation of linked data is investigated. Thus, this research aims to propose a methodology for quality evaluation in Linked Data datasets, as well as to establish a model of what can be considered data quality in the Semantic Web and Linked Data context. For this, an exploratory and descriptive approach was adopted in order to establish problems, dimensions and quality requirements and quantitative methods in the evaluation methodology in order to perform the assignment of quality indexes. This work resulted in the definition of seven quality dimensions applicable to the Linked Data domain and 14 different formulas for the quantification of the quality of datasets on scientific publications. Finally, a proof of concept was developed in which the proposed quality assessment methodology was applied in a dataset promoted by the LOD. It is concluded from the proof of concept results that the proposed methodology consists of a viable means for quantification of quality problems in Linked Data datasets and that despite the diverse requirements for the publication of this type of data there may be other datasets that do not meet certain quality requirements, and in turn, should not be included in the LOD project diagram.
122

Um modelo de qualidade para caracterização e seleção de bancos de dados de biologia molecular / A quality model for characterizing and selecting molecular biology databases

Lichtnow, Daniel January 2012 (has links)
O número de banco de dados de biologia molecular presentes na Web vem aumentando significativamente nos últimos anos. A dificuldade de localizar estes bancos de dados na Web incentivou a criação de uma série de catálogos. Mesmo com estes catálogos, persiste o desafio de selecionar aqueles bancos de dados que possuem maior qualidade. Normalmente, a seleção é feita por usuários, que nem sempre possuem o conhecimento necessário e enfrentam problemas pela ausência de uma descrição mais rica dos bancos de dados nestes catálogos. Esta ausência de uma descrição mais rica dos bancos de dados gerou iniciativas recentes que visam identificar metadados relevantes para descrição dos bancos de dados de biologia molecular. No entanto, até o momento, como utilizar estes metadados na seleção dos bancos de dados presentes em um catálogo, relacionando estes às dimensões de qualidade de dados, é um tema pouco explorado. Da mesma forma, o uso de Web metrics, utilizadas na seleção de páginas Web, vem sendo quase ignorado na determinação da qualidade de bancos de dados de biologia molecular. Tendo em vista este cenário, nesta tese foi desenvolvido um modelo de qualidade que visa auxiliar na seleção de bancos de dados de biologia molecular presentes em catálogos na Web a partir da avaliação global de um banco de dados por meio de metadados e Web metrics. A definição deste modelo envolve adoção de metadados propostos em outros trabalhos, a proposição de novos metadados e a análise das dimensões de qualidade de dados. Experimentos são realizados de forma a avaliar a utilidade de alguns dos metadados e Web metrics na determinação da qualidade global de um banco de dados. A representação dos metadados, dimensões de qualidade, indicadores de qualidade e métricas usando recursos de Web Semântica é também discutida. O principal cenário de aplicação da abordagem é relacionado à necessidade que um usuário tem de escolher o melhor banco de dados para buscar informações relevantes para o seu trabalho dentre os existentes em um catálogo. Outro cenário está relacionado a sistemas que integram dados de fontes distintas e que necessitam, em muitos casos, reduzir o número de bancos de dados candidatos a um processo de integração. / The number of molecular biology databases has increased in the last years. The difficulty of identifying these databases on the Web is the motivation to create database catalogs. However, even using these catalogs, the challenge is how to identify the best databases within these sets of identified databases. In general, the selection process is done by users, who sometimes have little knowledge about databases related to a specific domain and will have difficulties to select the best databases. These difficulties are related to the absence of information about databases in these catalogs. This absence of information has generated some recent initiatives aiming to identify relevant metadata for describing molecular biology databases. However, at the present moment, how to use these metadata for selecting databases from a catalog, taking into account data quality dimensions, is underexplored. In a similar way, Web metrics used for selecting Web pages is almost ignored in the molecular biology databases evaluation process. In this scenario, this thesis defines a quality model, based on some identified data quality dimensions, aiming to help selecting a database from molecular biology database catalogs. This selection process is done by considering database metadata and Web metrics. The definition of this model involves the adoption of metadata from related works, the definition of new metadata and the analysis of data quality dimensions. A set of experiments evaluates the usefulness of metadata and Web metrics for evaluating the overall quality of databases. How to represent database metadata, quality dimensions, quality indicators and quality metrics using Semantic Web resources is also discussed. One application scenario relates to users who need to choose the best databases available in a catalog. Another application scenario is related to database integration systems in which it is necessary to determinate the overall quality of a database for reducing the number of databases to be integrated.
123

Data Quality Bench-Marking for High Resolution Bragg Data

Wolf, Hilke 15 December 2014 (has links)
No description available.
124

Vieses em estudos epidemiológicos: reflexão sobre o papel do monitoramento na condução de ensaios clínicos aleatorizados / Bias in epidemiologic studies: considerations on the role of clinical monitoring in randomized clinical trials.

Tatiana Midori Miyaoka 20 October 2015 (has links)
Introdução: As práticas clínicas baseadas em evidências utilizam resultados de estudos bem desenhados e bem conduzidos que, compilados em revisões sistemáticas, auxiliam os profissionais da saúde e orientam-os de modo sintético e atualizado no manejo dos tratamentos. Em um estudo bem conduzido, os dados coletados apresentarão boa qualidade se obtidos a partir de protocolos bem definidos que incluem as orientações para o acompanhamento dos pacientes e ações padronizadas pelos profissionais envolvidos. O monitoramento do estudo permite acompanhar e controlar a execução das ações definidas no protocolo de tal forma que os resultados finais não apresentem vieses de seleção, de desempenho (performance), de detecção, de atrito (attrition) ou de relato. Entre os instrumentos que avaliam a qualidade do relato de ensaios clínicos, nenhum deles destaca a avaliação de ações de monitoramento que, constitui, segundo nosso ponto de vista, um elemento importante para assegurar a qualidade dos dados. Objetivo: Apresentar uma reflexão sobre vieses em ensaios clínicos aleatorizados e sobre o papel do monitoramento do estudo no controle e prevenção destes. Métodos: Estudo metodológico que se propôs a avaliar a qualidade de ensaios clínicos aleatorizados incluídos em uma revisão sistemática escolhida ad hoc que tratou do uso de estatinas na prevenção primária de doença cardiovascular. Análise de vieses dos estudos originais incluídos na revisão sistemática utilizando a ferramenta para avaliação de risco de viés em ensaios clínicos aleatorizados descrita no Cochrane Handbook for Systematic Reviews of Interventions (Manual Cochrane para Revisões Sistemáticas de Intervenção), versão 5.1.0. Foram identificadas e descritas em detalhes as ações do monitoramento que poderiam colaborar na minimização ou possível eliminação dos vieses. Foi realizada uma busca nos artigos originais para verificar se existia a descrição das ações relacionadas ao monitoramento. Resultados: Considerando o critério para possibilidade de ocorrência de cada um dos sete tipos de viés, os estudos BONE, CARDS, METEOR e MRC/BHF apresentaram a maior porcentagem (85,7 por cento ) de baixo risco de ocorrência de vieses, indicando possivelmente boa qualidade metodológica. Em contrapartida, em quatro estudos esta porcentagem foi menor que 50 por cento (estudos ASPEN, CERDIA, HYRIM e KAPS), indicando menor qualidade metodológica. Todos os estudos foram classificados como risco incerto para outras fontes de vieses por apresentarem patrocínio por indústria farmacêutica representando, sob nossa avaliação, conflito de interesse. Observou-se que o estudo AFCAPS/TexCAPS indicou que uma empresa que organiza pesquisas foi contratada pelo patrocinador para manejo administrativo e clínico e também dos dados. Porém, não foram descritos maiores detalhes sobre o monitoramento. Neste estudo, observou-se risco incerto para a geração de sequência aleatória, ocultação da alocação e outros vieses. Os demais potenciais vieses foram classificados como baixo risco. Conclusões: No presente trabalho, verificou-se que mesmo um ensaio clínico bem desenhado, relatado e avaliado como baixo risco para a ocorrência de vieses também está sujeito a ocorrência destes durante a sua condução. Vê-se como necessária a inclusão de um item específico sobre viés de conflito de interesse nos instrumentos de avaliação de qualidade metodológica de estudos. Reforça-se o papel do monitoramento para evitar ou minimizar erros sistemáticos, garantindo que o estudo seja realizado conforme o que foi inicialmente proposto. / Background: The clinical practices based on evidences use results obtained from well designed and conducted studies that compiled in systematic reviews assist and guide health professionals to manage patient treatments. In a well conducted study, data collected will have good quality if obtained from protocols that include guidance for patients follow-up and standardized procedures for personnel involved in the study. The study monitoring allows follow-up and control regarding the execution of tasks required by protocol in order to avoid selection bias, performance bias, detection bias, attrition bias or report bias in study results. The available tools to evaluate the quality of reporting of randomized clinical trials do not describe the monitoring actions that we believe are very important for data quality assurance. Objective: To reflect about bias occurrence in randomized clinical trials and the role of study monitoring in its control and prevention. Methods: Methodological study that evaluated the quality of randomized clinical trials included in a systematic review chosen ad hoc regarding the statin use for the primary prevention of cardiovascular disease. Analysis of the original studies using the Cochrane Collaboration´s tool for assessing risk of bias in randomized clinical trials described in Cochrane Handbook for Systematic Reviews of Interventions, version 5.1.0. The monitoring actions that could avoid or minimize bias occurrence were identified and described in details. A search for actions related to monitoring was also performed in the original articles. Results: Considering the criteria for the possibility of occurence of each of the seven bias types, the studies BONE, CARDS, METEOR and MRC/BHF presented a higher percentage (85.7 per cent ) of low risk for bias, possibly indicating a good methodologic quality. However, this percentage was less than 50 per cent in four studies (ASPEN, CERDIA, HYRIM e KAPS), indicating a poor methodologic quality. All studies were classified as unclear risk for other bias considering that they were sponsored by pharmaceutical industries representing, according to our evaluation, conflict of interest. It was observed that AFCAPS/TexCAPS study indicated that a company responsible for research organization was contracted by the sponsor for data, administrative and clinical management. However, further information about monitoring was not described. In this particular study, random sequence generation, allocation concealment and other bias were classified as unclear risk. The remaining potential biases were classified as low risk. Conclusion: At the present work, it was verified that even clinical trials that are well designed, reported and with low risk for bias might have problems during the study conduction. We understand as necessary the inclusion of a specific item about the bias of conflict of interest in the tools for evaluation of methodology of studies.We emphasize the role of monitoring to avoid or minimize systematic bias, ensuring that the study is performed according to what was initially proposed.
125

Um modelo de qualidade para caracterização e seleção de bancos de dados de biologia molecular / A quality model for characterizing and selecting molecular biology databases

Lichtnow, Daniel January 2012 (has links)
O número de banco de dados de biologia molecular presentes na Web vem aumentando significativamente nos últimos anos. A dificuldade de localizar estes bancos de dados na Web incentivou a criação de uma série de catálogos. Mesmo com estes catálogos, persiste o desafio de selecionar aqueles bancos de dados que possuem maior qualidade. Normalmente, a seleção é feita por usuários, que nem sempre possuem o conhecimento necessário e enfrentam problemas pela ausência de uma descrição mais rica dos bancos de dados nestes catálogos. Esta ausência de uma descrição mais rica dos bancos de dados gerou iniciativas recentes que visam identificar metadados relevantes para descrição dos bancos de dados de biologia molecular. No entanto, até o momento, como utilizar estes metadados na seleção dos bancos de dados presentes em um catálogo, relacionando estes às dimensões de qualidade de dados, é um tema pouco explorado. Da mesma forma, o uso de Web metrics, utilizadas na seleção de páginas Web, vem sendo quase ignorado na determinação da qualidade de bancos de dados de biologia molecular. Tendo em vista este cenário, nesta tese foi desenvolvido um modelo de qualidade que visa auxiliar na seleção de bancos de dados de biologia molecular presentes em catálogos na Web a partir da avaliação global de um banco de dados por meio de metadados e Web metrics. A definição deste modelo envolve adoção de metadados propostos em outros trabalhos, a proposição de novos metadados e a análise das dimensões de qualidade de dados. Experimentos são realizados de forma a avaliar a utilidade de alguns dos metadados e Web metrics na determinação da qualidade global de um banco de dados. A representação dos metadados, dimensões de qualidade, indicadores de qualidade e métricas usando recursos de Web Semântica é também discutida. O principal cenário de aplicação da abordagem é relacionado à necessidade que um usuário tem de escolher o melhor banco de dados para buscar informações relevantes para o seu trabalho dentre os existentes em um catálogo. Outro cenário está relacionado a sistemas que integram dados de fontes distintas e que necessitam, em muitos casos, reduzir o número de bancos de dados candidatos a um processo de integração. / The number of molecular biology databases has increased in the last years. The difficulty of identifying these databases on the Web is the motivation to create database catalogs. However, even using these catalogs, the challenge is how to identify the best databases within these sets of identified databases. In general, the selection process is done by users, who sometimes have little knowledge about databases related to a specific domain and will have difficulties to select the best databases. These difficulties are related to the absence of information about databases in these catalogs. This absence of information has generated some recent initiatives aiming to identify relevant metadata for describing molecular biology databases. However, at the present moment, how to use these metadata for selecting databases from a catalog, taking into account data quality dimensions, is underexplored. In a similar way, Web metrics used for selecting Web pages is almost ignored in the molecular biology databases evaluation process. In this scenario, this thesis defines a quality model, based on some identified data quality dimensions, aiming to help selecting a database from molecular biology database catalogs. This selection process is done by considering database metadata and Web metrics. The definition of this model involves the adoption of metadata from related works, the definition of new metadata and the analysis of data quality dimensions. A set of experiments evaluates the usefulness of metadata and Web metrics for evaluating the overall quality of databases. How to represent database metadata, quality dimensions, quality indicators and quality metrics using Semantic Web resources is also discussed. One application scenario relates to users who need to choose the best databases available in a catalog. Another application scenario is related to database integration systems in which it is necessary to determinate the overall quality of a database for reducing the number of databases to be integrated.
126

Avaliação da qualidade do dado espacial digital de acordo com parâmetros estabelecidos por usuários. / Digital spatial data quality evaluation based on users parameters.

João Luiz Salisso Filho 02 May 2013 (has links)
Informações espaciais estão cada vez mais disseminadas no cotidiano do cidadão comum, de empresas e de instituições governamentais. Aplicações como o Google Earth, Bing Maps, aplicativos de localização por GPS, entre outros apresentam a informação espacial como uma commodity. Cada vez mais empresas públicas e privadas incorporam o dado espacial em seu processo decisório, tornando ainda mais crítico a questão da qualidade deste tipo de dado. Dada a natureza multidisciplinar e, principalmente, o volume de informações disponibilizadas para os usuários, faz-se necessário apresentar um método de avaliação de dados apoiado por processos computacionais, que permita ao usuário avaliar a verdadeira adequação que tais dados têm frente ao uso pretendido. Nesta Dissertação de Mestrado propõe-se uma metodologia estruturada de avaliação de dados espaciais apoiada por computador. A metodologia utilizada, baseada em normas apresentadas pela International Standards Organization (ISO), permite ao usuário de dados espaciais avaliar sua qualidade comparando a qualidade do dado de acordo com os parâmetros estabelecidos pelo próprio usuário. Também permite ao usuário comparar a qualidade apresentada pelo dado espacial com a informação de qualidade provida pelo produtor do dado. Desta forma, o método apresentado, ajuda o usuário a determinar a real adequação do dado espacial ao seu uso pretendido. / Spatial information is increasingly widespread in everyday life of ordinary people, businesses and government institutions. Applications like Google Earth, Bing Maps, GPS location applications, among others present spatial data as a commodity. More and more public and private companies incorporate the usage of spatial data into their decision process, increasing the importance of spatial quality issues. Given the multidisciplinary nature and, especially, the volume of information available to all users, it is necessary to introduce a data quality evaluation method supported by computational processes, enabling the end user to evaluate the real fitness for use that such data have for an intended use. This dissertation aims to present a structure methodology for spatial data evaluation supported by computational process. The methodology, based on standards provided by the International Standards Organization (ISO), allows users of spatial information evaluating the quality of spatial data comparing the quality of information against users own quality parameters. It will also allow the user to compare the quality presented by the given spatial data with quality information provided by the data producer. Thus, the presented method will support the end user in determining the real fitness for use for the spatial data.
127

Metodologia para controle de qualidade de cartas topográficas digitais / Quality control methodology of digital topographic maps

Cesar Inui 19 December 2006 (has links)
Hoje, existem muitas empresas de Cartografia que utilizam sistemas CAD para produção de cartas topográficas digitais.Este trabalho tem como proposta a identificação e classificação de erros de atributo gráfico em mapeamento digital, especialmente dados construídos em CAD (Computer Aided Design). Se os dados serão utilizados posteriormente num Sistema de Informações Geográficas, os dados espaciais deverão ser coletados de tal maneira que facilitem a inserção de topologia após a transferência dos dados. Como objetivo secundário, o trabalho propõe um melhor controle de qualidade, demonstrando seqüência lógica de tarefas para revisão e correção de problemas em dados espaciais / There are many Cartography corporations wich use CAD systems to built digital Topographic maps.This research intend to identify and classify errors of graphic attribute in digital mapping, specially digital spactial data built in CAD (Computer Aided Design). If these data will be applied in a Geographic Information System, they must be designed in a way that could easily perform spatial relationships (topology) after the data transfer.As a secondary objective, there is a suggestion of a better data quality control, showing a logical sequence of tasks to check up and correct problems in spatial data
128

Data Quality in Data Warehouses: a Case Study

Bringle, Per January 1999 (has links)
Companies today experience problems with poor data quality in their systems. Because of the enormous amount of data in companies, the data has to be of good quality if companies want to take advantage of it. Since the purpose with a data warehouse is to gather information from several databases for decision support, it is absolutely vital that data is of good quality. There exists several ways of determining or classifying data quality in databases. In this work the data quality management in a large Swedish company's data warehouse is examined, through a case study, using a framework specialized for data warehouses. The quality of data is examined from syntactic, semantic and pragmatic point of view. The results of the examination is then compared with a similar case study previously conducted in order to find any differences and similarities.
129

Svårigheter och begränsningar vid utveckling av dashboards som stöd vid beslutsfattande

Rekic, Nermin January 2013 (has links)
Behovet av beslutsstödsystem ökar ständigt bland företagen världen över. För att ett beslutsstödsystem skall vara användbart och generera en nytta till ett företag, så finns det krav på att den information som visualiseras skall uppnå en viss datakvalitet. Således är syftet med detta arbete att undersöka vilka problem som uppstår vid utveckling av dashboards i strävan efter att uppnå en hög datakvalitet. I strävan efter att identifiera vilka problem och svårigheter som uppstår vid utveckling av dashboards för beslutsstöd så utfördes intervjuer med sex olika utvecklare av dashboards från olika företag i Sverige. Fokus under dessa intervjuer fanns på åtta olika aspekter som tillsammans genererar god datakvalitet. Denna studie har visat att samtliga utvecklare var överens om att datakvalitet är en mycket viktig aspekt när det kommer till dashboards och beslutsstödsystem och det framkom en variation av problem som kan uppstå i strävan efter att uppnå detta. Den här studien ger en god insyn i de problem som existerar inom detta område idag. / The need for decision support systems is constantly increasing among companies worldwide as well as the need for it to be useful and generate a benefit to a company. There is also a requirement that the information being visualized reaches a certain data quality. Thus, the aim of this research is to investigate the issues that arise during the development of dashboards sincerely with the interest of achieving high data quality. Since the aim of this study is to identify the issues and difficulties that arise during the development of dashboards for decision support, six interviews were conducted with different dashboard developers from various Swedish companies. During the interviews the focus was being put on eight different aspects that together generate good data quality The most relevant discovery made during this study was that the developers agreed on the fact that data quality is a highly relevant aspect when it comes to dashboards and decision support systems. Furthermore, there also emerged a variety of problems that arise with the interest of achieving high data quality. This study gives an insight to the issues that exist in the field today.
130

Understanding, evaluating and enhancing electronic medical record adoption in a primary care setting

Bowen, Michael 27 March 2013 (has links)
Full service family physicians in British Columbia (BC) are claiming financial incentives in return for providing enhanced care for patients with chronic diseases. These same physicians are also being actively encouraged to adopt electronic medical record systems (EMRs) with an expectation that their adoption will, among other things, aid in improved chronic disease management (CDM). Indeed, both incentives and clinical information systems have been demonstrated in the literature to be crucial components in effective CDM programs. However, within BC little evidence is available that demonstrates whether EMR adoption is in fact associated with improved provision of CDM services. Furthermore, it is not well understood how the CDM incentive program affects a family practice’s adoption of CDM-related EMR functionality. Through a mixed methods study the relationship between EMR adoption and CDM incentives in a small family practice is explored. Additionally, an audit and feedback intervention is used to test the hypothesis that both incentive use and EMR adoption can simultaneously be improved. Results of the study suggest that the presence of an EMR may not guarantee improvements in delivery of incentivized CDM services; that the incentive program has limits in its ability to promote adoption of CDM-related EMR features; and, that a program of audit and feedback may promote improvements in aspects of EMR adoption and incentive utilization. / Graduate / 0723 / 0769

Page generated in 0.1174 seconds