• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2
  • 2
  • 1
  • Tagged with
  • 5
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Sekundärnutzung deutscher Medikationsdaten in internationalen Studien unter Wahrung der semantischen Bedeutung

Reinecke, Ines 17 January 2024 (has links)
Elektronisch verfügbare Daten aus der Gesundheitsversorgung, sogenannte Real-World Data (RWD), gewinnen zunehmend an Bedeutung für die Forschung, insbesondere in der Pharmakovigilanz und der Arzneimittelsicherheit. Die Schaffung von kollaborativen Forschungsnetzwerken, wie beispielsweise Observational Health Data Sciences and Informatics (OHDSI) oder European Health Data and Evidence Network (EHDEN) stoßen auf positive Resonanz, um die Potenziale von RWD zu nutzen und die Reproduzierbarkeit und Verlässlichkeit von Forschungsergebnissen retrospektiver Beobachtungsstudien zu verbessern. Eine Beteiligung deutscher Universitätskliniken mit RWD der stationären Versorgung fehlt bisher, vor allem weil die qualitativen Eigenschaften der Medikationsdaten aktuell eine Hürde darstellen. In dieser Arbeit wird daher untersucht, wie die Sekundärnutzung von Medikationsdaten der klinischen Versorgung in retrospektiven Beobachtungsstudien in internationalen Forschungsgemeinschaften am Beispiel von OHDSI unter Wahrung der semantischen Bedeutung ermöglicht werden kann. Initial wird ein Scoping Review durchgeführt, um zu ermitteln, wo die Schwerpunkte der Nutzung des Datenmodells Observational Medical Outcomes Partnership (OMOP) derzeit liegen. Es werden die Anforderungen an die Daten in OMOP seitens der Forschungsgemeinschaft OHDSI ermittelt und mit dem IST-Zustand der Medikationsverordnungen am Beispiel des Universitätsklinikum Carl Gustav Carus Dresden (UKD) abgeglichen. So werden die Inhibitoren identifiziert, welche im Widerspruch zu den Anforderungen stehen. Korrektive Maßnahmen zur Reduktion der Inhibitoren werden konzipiert, umgesetzt und anschließend quantitativ und qualitativ bewertet. Zudem untersucht die Arbeit, wie eine notwendige Transparenz möglicher, verbleibender Limitierungen gewährleistet werden kann. Das durchgeführte Scoping Review zeigt eine über die vergangenen Jahre stetig zunehmende Bedeutung des Datenmodells OMOP für die Durchführung von Studien unter Verwendung von Daten aus mehreren Ländern. In Deutschland fokussiert sich die Forschung im Kontext OMOP bislang auf die Betrachtung von Trends, des Datentransfers, Mappings und der Entwicklung von Konzepten. Eine aktive Beteiligung an der Durchführung von Studien mit medizinischen Fragestellungen unter Nutzung von OMOP findet aktuell nicht statt. Zur Verwendung von Medikationsverordnungen in OMOP müssen die Daten strukturiert und unter Verwendung von internationalen Terminologien wie ATC und RxNorm vorliegen. Allerdings zeigt eine Analyse über mehrere Standorte in Deutschland, dass Medikationsverordnungen überwiegend unstrukturiert und ohne belastbare Zuordnung standardisierter, internationaler Klassifikationen dokumentiert werden. Dieses Ergebnis bestätigt sich auch bei der Untersuchung der Medikationsverordnungen des UKD der Jahre 2016 bis 2020. Die in dieser Arbeit entwickelten und durchgeführten Maßnahmen wurden abgeleitet aus der Teilnahme an einem Pilotprojekt der European Medicines Agency (EMA) und fokussieren auf der Verbesserung der Datenstruktur sowie der Überführung der Medikationsverordnungen nach RxNorm. So konnte der Grad der Klassifizierung der Medikationsverordnungen des UKD unter Verwendung der Standard-Terminologie RxNorm von initial 0% auf 66,39% erhöht werden. Des Weiteren wird durch eine interaktive Visualisierung der Datenstruktur und des Grades der Überführbarkeit von ATC Codes nach RxNorm eine Transparenz der Ergebnisse geschaffen. Die Beantwortung aller in dieser Arbeit gestellten Forschungsfragen schafft die Voraussetzung, um zukünftig an retrospektiven Beobachtungsstudien der OHDSI Forschungsgemeinschaft teilzunehmen zu können. Die semantische Bedeutung der Medikationsverordnungen, auch unter Verwendung internationaler Terminologien wie RxNorm, bleibt dabei gewahrt. Zusätzliche Transparenz kann Forschenden und Versorgenden helfen, die Datenqualität im Sinne der Strukturiertheit der Medikationsverordnungen am UKD in Zukunft bereits zum Zeitpunkt der Entstehung zu verbessern.:Zusammenfassung V Abstract VII Symbole und Abkürzungen XV 1 Einleitung 1 1.1 Motivation 1 1.2 Offene Herausforderungen 5 1.3 Ziele und Fragestellungen der Arbeit 7 1.4 Struktur der Arbeit 8 2 Hintergrund 9 2.1 Datenintegrationszentrum 9 2.2 Medizininformatik Initiative Kerndatensatz 10 2.3 OMOP Common Data Model 12 2.4 ATHENA und Standardisierte Vokabulare 14 2.5 OHDSI ETL Werkzeuge 14 2.6 OHDSI Data Quality Dashboard 15 2.7 Relevante Terminologien 17 2.7.1 Die Anatomisch-Therapeutisch-Chemische (ATC) Klassifikation 17 2.7.2 RxNorm 19 3 Materialien und Methoden 21 3.1 Material 21 3.1.1 Verwendete Daten 21 3.1.2 Datentransfer 25 3.1.3 Infrastruktur 27 3.2 Literaturrecherche 28 3.2.1 Identifikation von Publikationen 29 3.2.2 Einschluss und Ausschluss von Publikationen 29 3.2.3 Kategorisierung von Publikationen 30 3.3 Anforderungsanalyse 31 3.3.1 Anforderungen seitens des Datenmodell OMOP 32 3.3.2 Analyse Studienprotokolle von OHDSI Studien 32 3.4 Identifikation von Inhibitoren 35 3.4.1 Stichprobenanalyse von Routinedaten an MIRACUM Standorten 35 3.4.2 Systematische Analyse der Medikationsdaten am UKD 36 3.5 Maßnahmen zur Reduktion der Inhibitoren 37 3.5.1 Maßnahmen am Beispiel einer EMA Studie 38 3.5.2 Maßnahmen - Datenstruktur 40 3.5.3 Maßnahmen - Terminologie 44 3.6 Bewertung der Maßnahmen 49 3.7 Schaffung von Transparenz 52 4 Ergebnisse 55 4.1 Ergebnisse Literaturrecherche 55 4.1.1 Allgemeine Übersicht 56 4.1.2 Fachliche Themen 57 4.1.3 Zeitliche Entwicklung 60 4.1.4 Geografische Verteilung 61 4.1.5 Überblick der Publikationen deutscher Universitäten 63 4.1.6 Zusammenfassung der Ergebnisse der Literaturrecherche 68 4.2 Soll Zustand gemäß Anforderungsanalyse 68 4.2.1 Anforderungen seitens OMOP Datenmodell 69 4.2.2 Anforderungen OHDSI Netzwerkstudien 71 4.2.3 Zusammenfassung der Ergebnisse der Anforderungsanalyse 73 4.3 Identifizierte Inhibitoren 73 4.3.1 Ergebnisse der Stichprobenanalyse 73 4.3.2 Ergebnisse der systematischen Analyse 75 4.3.3 Zusammenfassung der identifizierten Inhibitoren 76 4.4 Ergebnisse der Reduktionsmaßnahmen 76 4.4.1 Ergebnisse der Maßnahmen am Beispiel einer EMA Studie 77 4.4.2 Ergebnisse der Maßnahmen - Datenstruktur 79 4.4.3 Ergebnisse der Maßnahmen - Terminologie 88 4.4.4 Zusammenfassung der Ergebnisse der Maßnahmen 95 4.5 Ergebnisse der Bewertung 95 4.5.1 Ergebnisse der qualitativen Bewertung 95 4.5.2 Ergebnisse der quantitativen Bewertung 97 4.5.3 Zusammenfassung der Ergebnisse der Bewertung 99 4.6 Ergebnisse zur Transparenz 100 4.6.1 Transparenz Datenstruktur 101 4.6.2 Transparenz Terminologie 102 4.6.3 Zusammenfassung der Ergebnisse zur Transparenz 104 5 Diskussion 105 5.1 Allgemein 105 5.2 Stärken 110 5.3 Limitierungen 114 5.4 Ausblick 116 Literaturverzeichnis 138 Abbildungsverzeichnis 140 Tabellenverzeichnis 142 A Anhang: Quellcode Readme 143 B Anhang: drug-exposure Tabelle - Wiki Dokumentation 149 C Anhang: Studienprotokoll EMA Studie 151 D Anhang: Medikationsverordnungen ATC Codes Strukturiertheit 163 E Anhang: ATC-GM Vokabular 181 F Screenshots DQD Dashboard 183 Erklärung zur Eröffnung des Promotionsverfahrens 185 Bestätigung über Einhaltung der aktuellen gesetzlichen Vorgaben 189
2

Harmonisierung und Verknüpfung klinischer Daten mit GKV-Routinedaten zur Förderung sektorenübergreifender Forschung

Henke, Elisa 20 March 2025 (has links)
Um Einblicke in das reale Versorgungsgeschehen von Patient:innen im Gesundheitswesen zu erlangen, gewinnt die Nutzung von Sekundärdaten für die Forschung immer mehr an Bedeutung. Sekundärdaten repräsentieren Daten, welche über ihren ursprünglichen Verwendungszweck hinaus verwendet werden. Zur Förderung der Sekundärdatenforschung wurde in Deutschland die Medizininformatik-Initiative (MII) gegründet, um digitale Infrastrukturen für die Integration und Harmonisierung von Sekundärdaten bereitzustellen. Die Bestrebungen der MII sind aktuell auf Patient:innendaten deutscher Universitätskliniken beschränkt, wodurch die Datenintegration auf klinische Daten von Patient:innen während des Krankenhausaufenthaltes limitiert ist. Um einen umfassenderen Überblick über die Krankheitshistorie von Patient:innen zu erhalten, ist die Hinzunahme ambulanter Daten in Form von Routinedaten der gesetzlichen Krankenversicherung (GKV) als weitere Datenquelle sinnvoll. Eine Verknüpfung von klinischen Daten mit GKV-Routinedaten hat das Potential, wissenschaftliche Forschungsfragen zu beantworten, welche mit nur einer Datenquelle allein nicht zu beantworten wären. Dennoch birgt eine Verknüpfung aufgrund der Heterogenität klinischer Daten und GKV-Routinedaten auch Herausforderungen mit sich. Der Fokus dieser Arbeit lag daher auf einer Harmonisierung und anschließenden Verknüpfung klinischer Daten mit GKV-Routinedaten in dem in den letzten Jahren in der Sekundärdatenforschung etablierten Datenmodell Observational Medical Outcomes Partnership (OMOP) Common Data Model (CDM). Um zu ermitteln, welche Prozessschritte für die Harmonisierung klinischer Daten und GKV-Routinedaten in OMOP CDM zu berücksichtigen waren, wurde zunächst eine Literaturrecherche durchgeführt. Für jede eingeschlossene Publikation lag der Fokus auf der Extraktion genutzter Prozessschritte und deren zeitlichen Reihenfolge. Anschließend wurden die Ergebnisse verglichen, um einen generischen Datenharmonisierungsprozess abzuleiten. Die Ergebnisse zeigten, dass neun Prozessschritte für die Harmonisierung klinischer Daten und GKV-Routinedaten in OMOP CDM zu durchlaufen waren. Für die vorliegende Arbeit wurde ein zusätzlicher Prozessschritt für den Vergleich klinischer Daten mit GKV-Routinedaten hinzugefügt. Darüber hinaus zeigte die Arbeit die praktische Anwendung der zehn Prozessschritte am Beispiel der Harmonisierung deutscher klinischer Daten und GKV-Routinedaten auf. Fokus lag hierbei mit den Prozessschritten der Datensatzspezifikation (1), Datenprofilierung (2) und Vokabularidentifikation (3) auf der Erlangung eines Verständnisses für die Quelldaten. Darauf folgte die Analyse der Abdeckung von Vokabularen aus den Quelldaten in OMOP CDM (4) sowie ein Vergleich klinischer Daten mit GKV-Routinedaten (5). Die OMOP-konforme Transformation der Quelldaten war Bestandteil der Prozessschritte des semantischen Mappings (6) und des strukturellen Mappings (7). Im Kontext des semantischen Mappings wurde gezeigt, wie fehlende deutsche Vokabulare aufbereitet wurden, um diese in OMOP CDM zu verwenden. Die technische Integration der Daten erfolgte durch die Implementierung zwei verschiedener, wiederverwendbarer Extract-Transform-Load (ETL)-Prozesse für klinische Daten und GKV-Routinedaten (8). Nachfolgende qualitative (9) und quantitative (10) Datenqualitätsanalysen schlossen die Datenharmonisierung ab. Nach der separaten Harmonisierung klinischer Daten und GKV-Routinedaten in OMOP CDM wurde die Verknüpfung beider Datensätze beschrieben. Die Verknüpfung beruhte auf der Nutzung der Krankenversichertennummer (KVNR) als direkten Identifikator. Durch das Vorliegen harmonisierter klinischer Daten und GKV-Routinedaten war die Verknüpfung durch eine Zusammenführung von Tabelleninhalten aus zwei OMOP CDM Datenbanken realisierbar. Zusammenfassend leisten die Ergebnisse der vorliegenden Arbeit einen wichtigen Beitrag für die Förderung sektorenübergreifender Sekundärdatenforschung. Durch die Verwendung von OMOP CDM konnte die semantische und syntaktische Interoperabilität klinischer Daten und GKV-Routinedaten hergestellt werden. Der in diesem Zusammenhang konzeptionierte generische Datenharmonisierungsprozess kann im Sinne eines Leitfadens auch andere Wissenschaftler:innen bei der Harmonisierung von Quelldaten in OMOP CDM unterstützen. Durch die Verknüpfung beider Datensätze steht ein umfassenderer Überblick über die Krankheitshistorie von Patient:innen zur Verfügung, welcher durch die alleinige Nutzung klinischer Daten oder GKV-Routinedaten nicht gegeben ist.:Inhaltsverzeichnis Zusammenfassung V Abstract VIII Abkürzungsverzeichnis XVII 1 Einleitung 1 1.1 Kontext der Arbeit 1 1.2 Offene Herausforderungen 4 1.3 Ziel und Forschungsfragen 5 1.4 Aufbau der Arbeit 6 2 Grundlagen 7 2.1 Medizininformatik-Initiative 7 2.1.1 Kerndatensatz der Medizininformatik-Initiative 8 2.1.2 Fast Healthcare Interoperability Resources 11 2.2 Routinedaten der Gesetzlichen Krankenversicherungen 13 2.3 Observational Medical Outcomes Partnership CDM 15 2.3.1 Standardisiertes Datenmodell 16 2.3.2 Standardisierte Vokabulare 19 2.3.3 OHDSI Tools 24 2.4 Extract-Transform-Load-Prozess 26 2.5 Zusammenfassung 27 3 Konzeptdesign zur Datenharmonisierung in OMOP CDM 29 3.1 Methodik 29 3.1.1 Identifikation von Publikationen 30 3.1.2 Ausschluss von Publikationen 31 3.1.3 Datenextraktion 32 3.1.4 Ableitung einer generischen Reihenfolge der Prozessschritte 33 3.2 Ergebnisse 34 3.2.1 Literatursichtung 34 3.2.2 Prozessschritte 36 3.2.3 Häufigkeitsverteilung 37 3.2.4 Reihenfolge der Prozessschritte 39 3.2.5 Generischer Datenharmonisierungsprozess 44 3.2.6 Konzept 46 3.3 Zusammenfassung 47 4 Praktische Anwendung des generischen Datenharmonisierungsprozesses 49 4.1 Datensatzspezifikation 49 4.2 Datenprofilierung 51 4.3 Vokabularidentifikation 53 4.4 Abdeckungsgradanalyse der Vokabulare 55 4.5 Vergleich klinischer Daten mit GKV-Routinedaten 56 4.6 Semantisches Mapping 58 4.6.1 Mapping von Nicht-Standard-Konzepten auf Standard-Konzepte 59 4.6.2 Zusammenstellung der Vokabulare 63 4.6.3 Mapping von Vokabularen auf Standard-Konzepte 64 4.6.4 Erstellung neuer 2-Milliarden-Konzepte 66 4.6.5 Evaluation 68 4.7 Strukturelles Mapping 70 4.8 ETL-Prozess 72 4.9 Qualitative Datenqualitätsanalyse 75 4.10 Quantitative Datenqualitätsanalyse 77 4.11 Zusammenfassung 80 5 Ergebnisse der Datenharmonisierung klinischer Daten in OMOP CDM 83 5.1 Datensatzspezifikation 83 5.2 Datenprofilierung 87 5.3 Vokabularidentifikation 90 5.4 Abdeckungsgradanalyse der Vokabulare 93 5.5 Semantisches Mapping 96 5.5.1 Mapping von Nicht-Standard-Konzepten auf Standard-Konzepte 96 5.5.2 Zusammenstellung der Vokabulare 98 5.5.3 Mapping von Vokabularen auf Standard-Konzepte 99 5.5.4 Erstellung neuer 2-Milliarden-Konzepte 100 5.5.5 Evaluation 101 5.6 Strukturelles Mapping 105 5.7 ETL-Prozess 108 5.8 Qualitative Datenqualitätsanalyse 110 5.9 Quantitative Datenqualitätsanalyse 113 5.10 Zusammenfassung 114 6 Ergebnisse der Datenharmonisierung von GKV-Routinedaten in OMOP CDM 117 6.1 Datensatzspezifikation 117 6.2 Datenprofilierung 125 6.3 Vokabularidentifikation 128 6.4 Abdeckungsgradanalyse der Vokabulare 133 6.5 Vergleich klinischer Daten mit GKV-Routinedaten 135 6.6 Semantisches Mapping 139 6.6.1 Mapping von Nicht-Standard-Konzepten auf Standard-Konzepte 139 6.6.2 Zusammenstellung der Vokabulare 140 6.6.3 Mapping von Vokabularen auf Standard-Konzepte 141 6.6.4 Erstellung neuer 2-Milliarden-Konzepte 143 6.6.5 Evaluation 144 6.7 Strukturelles Mapping 151 6.8 ETL-Prozess 154 6.9 Qualitative Datenqualitätsanalyse 157 6.10 Quantitative Datenqualitätsanalyse 159 6.11 Zusammenfassung 161 7 Verknüpfung klinischer Daten mit GKV-Routinedaten in OMOP CDM 163 7.1 Methodik 163 7.2 Ergebnisse 165 7.3 Zusammenfassung 168 8 Diskussion und Ausblick 169 8.1 Beantwortung der Forschungsfragen 169 8.2 Stärken der Ergebnisse 173 8.3 Limitierungen der Ergebnisse 179 8.4 Ausblick 182 Abbildungsverzeichnis XXI Tabellenverzeichnis XXVII Iconverzeichnis XXIX Literaturverzeichnis XXXIII Erklärung zur Eröffnung des Promotionsverfahrens XLVII Bestätigung über Einhaltung der aktuellen gesetzlichen Vorgaben LI
3

An interoperable electronic medical record-based platform for personalized predictive analytics

Abedtash, Hamed 31 May 2017 (has links)
Indiana University-Purdue University Indianapolis (IUPUI) / Precision medicine refers to the delivering of customized treatment to patients based on their individual characteristics, and aims to reduce adverse events, improve diagnostic methods, and enhance the efficacy of therapies. Among efforts to achieve the goals of precision medicine, researchers have used observational data for developing predictive modeling to best predict health outcomes according to patients’ variables. Although numerous predictive models have been reported in the literature, not all models present high prediction power, and as the result, not all models may reach clinical settings to help healthcare professionals make clinical decisions at the point-of-care. The lack of generalizability stems from the fact that no comprehensive medical data repository exists that has the information of all patients in the target population. Even if the patients’ records were available from other sources, the datasets may need further processing prior to data analysis due to differences in the structure of databases and the coding systems used to record concepts. This project intends to fill the gap by introducing an interoperable solution that receives patient electronic health records via Health Level Seven (HL7) messaging standard from other data sources, transforms the records to observational medical outcomes partnership (OMOP) common data model (CDM) for population health research, and applies predictive models on patient data to make predictions about health outcomes. This project comprises of three studies. The first study introduces CCD-TOOMOP parser, and evaluates OMOP CDM to accommodate patient data transferred by HL7 consolidated continuity of care documents (CCDs). The second study explores how to adopt predictive model markup language (PMML) for standardizing dissemination of OMOP-based predictive models. Finally, the third study introduces Personalized Health Risk Scoring Tool (PHRST), a pilot, interoperable OMOP-based model scoring tool that processes the embedded models and generates risk scores in a real-time manner. The final product addresses objectives of precision medicine, and has the potentials to not only be employed at the point-of-care to deliver individualized treatment to patients, but also can contribute to health outcome research by easing collecting clinical outcomes across diverse medical centers independent of system specifications.
4

OMOP CDM Can Facilitate Data-Driven Studies for Cancer Prediction: A Systematic Review

Ahmadi, Najia, Peng, Yuan, Wolfien, Markus, Zoch, Michéle, Sedlmayr, Martin 22 January 2024 (has links)
The current generation of sequencing technologies has led to significant advances in identifying novel disease-associated mutations and generated large amounts of data in a highthroughput manner. Such data in conjunction with clinical routine data are proven to be highly useful in deriving population-level and patient-level predictions, especially in the field of cancer precision medicine. However, data harmonization across multiple national and international clinical sites is an essential step for the assessment of events and outcomes associated with patients, which is currently not adequately addressed. The Observational Medical Outcomes Partnership (OMOP) Common Data Model (CDM) is an internationally established research data repository introduced by the Observational Health Data Science and Informatics (OHDSI) community to overcome this issue. To address the needs of cancer research, the genomic vocabulary extension was introduced in 2020 to support the standardization of subsequent data analysis. In this review, we evaluate the current potential of the OMOP CDM to be applicable in cancer prediction and how comprehensively the genomic vocabulary extension of the OMOP can serve current needs of AI-based predictions. For this, we systematically screened the literature for articles that use the OMOP CDM in predictive analyses in cancer and investigated the underlying predictive models/tools. Interestingly, we found 248 articles, of which most use the OMOP for harmonizing their data, but only 5 make use of predictive algorithms on OMOP-based data and fulfill our criteria. The studies present multicentric investigations, in which the OMOP played an essential role in discovering and optimizing machine learning (ML)-based models. Ultimately, the use of the OMOP CDM leads to standardized data-driven studies for multiple clinical sites and enables a more solid basis utilizing, e.g., ML models that can be reused and combined in early prediction, diagnosis, and improvement of personalized cancer care and biomarker discovery.
5

An Extract-Transform-Load Process Design for the Incremental Loading of German Real-World Data Based on FHIR and OMOP CDM: Algorithm Development and Validation

Henke, Elisa, Peng, Yuan, Reinecke, Ines, Zoch, Michéle, Sedlmayr, Martin, Bathelt, Franziska 24 January 2025 (has links)
Background: In the Medical Informatics in Research and Care in University Medicine (MIRACUM) consortium, an IT-based clinical trial recruitment support system was developed based on the Observational Medical Outcomes Partnership (OMOP) Common Data Model (CDM). Currently, OMOP CDM is populated with German Fast Healthcare Interoperability Resources (FHIR) using an Extract-Transform-Load (ETL) process, which was designed as a bulk load. However, the computational effort that comes with an everyday full load is not efficient for daily recruitment. Objective: The aim of this study is to extend our existing ETL process with the option of incremental loading to efficiently support daily updated data. Methods: Based on our existing bulk ETL process, we performed an analysis to determine the requirements of incremental loading. Furthermore, a literature review was conducted to identify adaptable approaches. Based on this, we implemented three methods to integrate incremental loading into our ETL process. Lastly, a test suite was defined to evaluate the incremental loading for data correctness and performance compared to bulk loading. Results: The resulting ETL process supports bulk and incremental loading. Performance tests show that the incremental load took 87.5% less execution time than the bulk load (2.12 min compared to 17.07 min) related to changes of 1 day, while no data differences occurred in OMOP CDM. Conclusions: Since incremental loading is more efficient than a daily bulk load and both loading options result in the same amount of data, we recommend using bulk load for an initial load and switching to incremental load for daily updates. The resulting incremental ETL logic can be applied internationally since it is not restricted to German FHIR profiles.

Page generated in 0.0223 seconds