• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 13
  • 11
  • 3
  • Tagged with
  • 24
  • 21
  • 21
  • 20
  • 10
  • 10
  • 10
  • 6
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Multimodales zerebrales Monitoring bei schweren Schädel-Hirn-Trauma

Kiening, Karl Ludwig 06 January 2004 (has links)
Die vorliegende Arbeit setzt sich mit der klinischen Anwendung von zwei neuen Monitoringparametern - Hirngewebe-PO2 in der weißen Substanz (PtiO2), und online intrakranielle Compliance (cICC) - im Rahmen des multimodalen zerebralen Monitorings bei Patienten mit schwerem Schädel-Hirn-Trauma auseinander. Bezüglich des PtiO2 konnte erstmalig eine Hypoxiegrenze von 8,5 mmHg durch vergleichende Messungen mit der jugular-venösen Oxymetrie ermittelt werden. Ferner konnte gezeigt werden, dass, bei intakter zerebraler Autoregulation, der PtiO2 bei einem zerebralen Perfusionsdruck (CPP) >60 mmHg über dem pathologischen Grenzwert liegt. Eine forcierte bzw. moderate Hyperventilation hingegen, induziert, trotz adäquatem CPP, eine Reduktion des PtiO2, die im individuellen Fall zur Unterschreitung des hypoxischen Grenzwerts führt. Das PtiO2-Verfahren ist somit v.a. dann indiziert, wenn eine Hyperventilationstherapie zur Kontrolle eines pathologisch erhöhten intrakraniellen Drucks (ICP) eingesetzt werden muss. PtiO2-Messwerte bedürfen aber einer kritischen Interpretation, sofern der PtiO2-Katheter in der Nähe einer Kontusion lokalisiert ist. Hier ist der PtiO2, als Ausdruck des perikontusionell reduzierten zerebralen Blutflusses, signifikant erniedrigt und somit nicht repräsentativ für die globale zerebrale Oxygenierung. Für die cICC konnte ebenfalls ein pathologischer Grenzwert angegeben werden (0,5 ml/mmHg). Die Dateninterpretation ist aber, durch die offensichtliche Abnahme der intrakraniellen Compliance mit zunehmendem Lebensalter, erschwert. Ferner bleibt die cICC bzgl. ihrer Datenqualität weit hinter etablierten Parametern zurück, so dass ihre routinemäßige Anwendung zum jetzigen Zeitpunkt nicht zu empfehlen ist. Basierend auf unseren Untersuchungen hat sich das PtiO2-Verfahren international als Langzeitmonitoring der zerebralen Oxygenierung etablieren können. Die cICC hingegen bedarf umfangreicher Systemänderungen, um eine frühe Risikoabschätzung bezüglich eines drohenden ICP-Anstiegs suffizient zu ermöglichen. / The aim of our clinical and experimental studies was to evaluate two new monitoring parameters -brain tissue PO2 (PtiO2) of cerebral white matter, and online intracranial compliance (cICC) - in patients with severe traumatic brain injury by using a computerized multimodal cerebral monitoring system. By comparing PtiO2 with jugular vein oxygen saturation, we were able to establish the hypoxic PtiO2-threshold of 8.5 mmHg. Moreover, we demonstrated that in case of an intact cerebral autoregulation, PtiO2 was well above the hypoxic threshold as long as cerebral perfusion pressure (CPP) stayed above 60 mmHg. However, forced or moderate hyperventilation carried an individual risk of a PtiO2 reduction below the hypoxic threshold despite an adequate CPP. PtiO2 monitoring is therefore particularly indicated, if hyperventilation therapy is necessary for control of pathologically increased intracranial pressure (ICP). However, PtiO2-values needed critical interpretation, if catheters were placed close to contusions. In these situations, PtiO2 has been shown to be significantly reduced, presumably due to low peri-contusional blood flow. Thus, such PtiO2 measurements cannot be taken as representatives of global cerebral oxygenation. In cICC monitoring, a pathological threshold was accomplished (0.5 ml/mmHg). Due to a stepwise cICC reduction with increasing age, cICC data interpretation was aggravated, and cICC data quality was significantly reduced in comparison to other established monitoring parameters. Hence, a routine use of this device is currently not advisable. Based on ours results, the PtiO2-methode has been established internationally as an ideal tool for long-term monitoring of cerebral oxygenation. On the contrary, the cICC system needs extensive alterations in order to anticipate sufficiently pathological ICP rises.
12

Efficient use of a protein structure annotation database

Rother, Kristian 14 August 2007 (has links)
Im Rahmen dieser Arbeit wird eine Vielzahl von Daten zur Struktur und Funktion von Proteinen gesammelt. Anschließend wird in strukturellen Daten die atomare Packungsdichte untersucht. Untersuchungen an Strukturen benötigen oftmals maßgeschneiderte Datensätze von Proteinen. Kriterien für die Auswahl einzelner Proteine sind z.B. Eigenschaften der Sequenzen, die Faltung oder die Auflösung einer Struktur. Solche Datensätze mit den im Netz verfügbaren Mitteln herzustellen ist mühselig, da die notwendigen Daten über viele Datenbanken verteilt liegen. Um diese Aufgabe zu vereinfachen, wurde Columba, eine integrierte Datenbank zur Annotation von Proteinstrukturen, geschaffen. Columba integriert insgesamt sechzehn Datenbanken, darunter u.a. die PDB, KEGG, Swiss-Prot, CATH, SCOP, die Gene Ontology und ENZYME. Von den in Columba enthaltenen Strukturen der PDB sind zwei Drittel durch viele andere Datenbanken annotiert. Zum verbliebenen Drittel gibt es nur wenige zusätzliche Angaben, teils da die entsprechenden Strukturen erst seit kurzem in der PDB sind, teils da es gar keine richtigen Proteine sind. Die Datenbank kann über eine Web-Oberfläche unter www.columba-db.de spezifisch für einzelne Quelldatenbanken durchsucht werden. Ein Benutzer kann sich auf diese Weise schnell einen Datensatz von Strukturen aus der PDB zusammenstellen, welche den gewählten Anforderungen entsprechen. Es wurden Regeln aufgestellt, mit denen Datensätze effizient erstellt werden können. Diese Regeln wurden angewandt, um Datensätze zur Analyse der Packungsdichte von Proteinen zu erstellen. Die Packungsanalyse quantifiziert den Raum zwischen Atomen, und kann Regionen finden, in welchen eine hohe lokale Beweglichkeit vorliegt oder welche Fehler in der Struktur beinhalten. In einem Referenzdatensatz wurde so eine große Zahl von atomgroßen Höhlungen dicht unterhalb der Proteinoberfläche gefunden. In Transmembrandomänen treten diese Höhlungen besonders häufig in Kanal- und Transportproteinen auf, welche Konformationsänderungen vollführen. In proteingebundenen Liganden und Coenzymen wurde eine zu den Referenzdaten ähnliche Packungsdichte beobachtet. Mit diesen Ergebnissen konnten mehrere Widersprüche in der Fachliteratur ausgeräumt werden. / In this work, a multitude of data on structure and function of proteins is compiled and subsequently applied to the analysis of atomic packing. Structural analyses often require specific protein datasets, based on certain properties of the proteins, such as sequence features, protein folds, or resolution. Compiling such sets using current web resources is tedious because the necessary data are spread over many different databases. To facilitate this task, Columba, an integrated database containing annotation of protein structures was created. Columba integrates sixteen databases, including PDB, KEGG, Swiss-Prot, CATH, SCOP, the Gene Ontology, and ENZYME. The data in Columba revealed that two thirds of the structures in the PDB database are annotated by many other databases. The remaining third is poorly annotated, partially because the according structures have only recently been published, and partially because they are non-protein structures. The Columba database can be searched by a data source-specific web interface at www.columba-db.de. Users can thus quickly select PDB entries of proteins that match the desired criteria. Rules for creating datasets of proteins efficiently have been derived. These rules were applied to create datasets for analyzing the packing of proteins. Packing analysis measures how much space there is between atoms. This indicates regions where a high local mobility of the structure is required, and errors in the structure. In a reference dataset, a high number of atom-sized cavities was found in a region near the protein surface. In a transmembrane protein dataset, these cavities frequently locate in channels and transporters that undergo conformational changes. A dataset of ligands and coenzymes bound to proteins was packed as least as tightly as the reference data. By these results, several contradictions in the literature have been resolved.
13

Datenqualität in Sensordatenströmen / Data Quality in Sensor Data Streams

Klein, Anja 23 March 2010 (has links) (PDF)
Die stetige Entwicklung intelligenter Sensorsysteme erlaubt die Automatisierung und Verbesserung komplexer Prozess- und Geschäftsentscheidungen in vielfältigen Anwendungsszenarien. Sensoren können zum Beispiel zur Bestimmung optimaler Wartungstermine oder zur Steuerung von Produktionslinien genutzt werden. Ein grundlegendes Problem bereitet dabei die Sensordatenqualität, die durch Umwelteinflüsse und Sensorausfälle beschränkt wird. Ziel der vorliegenden Arbeit ist die Entwicklung eines Datenqualitätsmodells, das Anwendungen und Datenkonsumenten Qualitätsinformationen für eine umfassende Bewertung unsicherer Sensordaten zur Verfügung stellt. Neben Datenstrukturen zur effizienten Datenqualitätsverwaltung in Datenströmen und Datenbanken wird eine umfassende Datenqualitätsalgebra zur Berechnung der Qualität von Datenverarbeitungsergebnissen vorgestellt. Darüber hinaus werden Methoden zur Datenqualitätsverbesserung entwickelt, die speziell auf die Anforderungen der Sensordatenverarbeitung angepasst sind. Die Arbeit wird durch Ansätze zur nutzerfreundlichen Datenqualitätsanfrage und -visualisierung vervollständigt.
14

Managing and Consuming Completeness Information for RDF Data Sources

Darari, Fariz 04 July 2017 (has links) (PDF)
The ever increasing amount of Semantic Web data gives rise to the question: How complete is the data? Though generally data on the Semantic Web is incomplete, many parts of data are indeed complete, such as the children of Barack Obama and the crew of Apollo 11. This thesis aims to study how to manage and consume completeness information about Semantic Web data. In particular, we first discuss how completeness information can guarantee the completeness of query answering. Next, we propose optimization techniques of completeness reasoning and conduct experimental evaluations to show the feasibility of our approaches. We also provide a technique to check the soundness of queries with negation via reduction to query completeness checking. We further enrich completeness information with timestamps, enabling query answers to be checked up to when they are complete. We then introduce two demonstrators, i.e., CORNER and COOL-WD, to show how our completeness framework can be realized. Finally, we investigate an automated method to generate completeness statements from text on the Web via relation cardinality extraction.
15

Managing and Consuming Completeness Information for RDF Data Sources

Darari, Fariz 20 June 2017 (has links)
The ever increasing amount of Semantic Web data gives rise to the question: How complete is the data? Though generally data on the Semantic Web is incomplete, many parts of data are indeed complete, such as the children of Barack Obama and the crew of Apollo 11. This thesis aims to study how to manage and consume completeness information about Semantic Web data. In particular, we first discuss how completeness information can guarantee the completeness of query answering. Next, we propose optimization techniques of completeness reasoning and conduct experimental evaluations to show the feasibility of our approaches. We also provide a technique to check the soundness of queries with negation via reduction to query completeness checking. We further enrich completeness information with timestamps, enabling query answers to be checked up to when they are complete. We then introduce two demonstrators, i.e., CORNER and COOL-WD, to show how our completeness framework can be realized. Finally, we investigate an automated method to generate completeness statements from text on the Web via relation cardinality extraction.
16

Datenqualität in Sensordatenströmen

Klein, Anja 19 June 2009 (has links)
Die stetige Entwicklung intelligenter Sensorsysteme erlaubt die Automatisierung und Verbesserung komplexer Prozess- und Geschäftsentscheidungen in vielfältigen Anwendungsszenarien. Sensoren können zum Beispiel zur Bestimmung optimaler Wartungstermine oder zur Steuerung von Produktionslinien genutzt werden. Ein grundlegendes Problem bereitet dabei die Sensordatenqualität, die durch Umwelteinflüsse und Sensorausfälle beschränkt wird. Ziel der vorliegenden Arbeit ist die Entwicklung eines Datenqualitätsmodells, das Anwendungen und Datenkonsumenten Qualitätsinformationen für eine umfassende Bewertung unsicherer Sensordaten zur Verfügung stellt. Neben Datenstrukturen zur effizienten Datenqualitätsverwaltung in Datenströmen und Datenbanken wird eine umfassende Datenqualitätsalgebra zur Berechnung der Qualität von Datenverarbeitungsergebnissen vorgestellt. Darüber hinaus werden Methoden zur Datenqualitätsverbesserung entwickelt, die speziell auf die Anforderungen der Sensordatenverarbeitung angepasst sind. Die Arbeit wird durch Ansätze zur nutzerfreundlichen Datenqualitätsanfrage und -visualisierung vervollständigt.
17

Representing Data Quality in Sensor Data Streaming Environments

Lehner, Wolfgang, Klein, Anja 20 May 2022 (has links)
Sensors in smart-item environments capture data about product conditions and usage to support business decisions as well as production automation processes. A challenging issue in this application area is the restricted quality of sensor data due to limited sensor precision and sensor failures. Moreover, data stream processing to meet resource constraints in streaming environments introduces additional noise and decreases the data quality. In order to avoid wrong business decisions due to dirty data, quality characteristics have to be captured, processed, and provided to the respective business task. However, the issue of how to efficiently provide applications with information about data quality is still an open research problem. In this article, we address this problem by presenting a flexible model for the propagation and processing of data quality. The comprehensive analysis of common data stream processing operators and their impact on data quality allows a fruitful data evaluation and diminishes incorrect business decisions. Further, we propose the data quality model control to adapt the data quality granularity to the data stream interestingness.
18

Calibration of the Liquid Argon Calorimeter and Search for Stopped Long-Lived Particles

Morgenstern, Stefanie 06 May 2021 (has links)
This thesis dives into the three main aspects of today's experimental high energy physics: detector operation and data preparation, reconstruction and identification of physics objects, and physics analysis.The symbiosis of these is the key to reach a better understanding of the underlying principles of nature. Data from proton-proton collisions at a centre-of-mass energy of 13 TeV collected by the ATLAS detector during 2015-2018 are used. In the context of detector operation and data preparation, the data quality assessment for the Liquid Argon calorimeter of the ATLAS experiment is improved by an adaptive monitoring of noisy channels and mini noise bursts allowing an assessment of their impact on the measured data at an early stage. Besides data integrity, a precise energy calibration of electrons, positrons and photons is essential for many physics analyses and requires an excellent understanding of the detector. Corrections of detector non-uniformities originating from gaps in between the Liquid Argon calorimeter modules and non-nominal high voltage settings are derived and successfully recover the homogeneity in the energy measurement. A further enhancement is reached by introducing the azimuthal position of the electromagnetic cluster in the calibration algorithm. Additionally, a novel approach to exploit tracking information in the historically purely calorimeter-based energy calibration for electrons and positrons is presented. Considering the track momentum results in an about 30% better energy resolution for low-pT electrons and positrons. The described optimisation of the energy calibration is especially beneficial for precision measurements which are one way to test and challenge our current knowledge of the Standard Model of particle physics. Another path is the hunt for new particles, here presented by a search for stopped long-lived particles suggested by many theoretical models. This analysis targets gluinos which are sufficiently long-lived to form quasi-stable states and come to rest in the detector. Their eventual decay results in large energy deposits in the calorimeters. The special nature of the expected signature requires the exploration of non-standard datasets and reconstruction methods. Further, non-collision backgrounds are dominant for this search which are investigated in detail. In the context of simplified supersymmetric models an expected signal sensitivity of more than 3σ for gluinos with a mass up to 1.2 TeV and a lifetime of 100 μs is achieved.
19

Data Quality Knowledge in Sport Informatics: A Scoping Review

Kremser, Wolfgang 14 October 2022 (has links)
As sport informatics research produces more and more digital data, effective data quality management becomes a necessity. This systematic scoping review investigates how data quality is currently understood in the field. Results show the lack of a common data quality model. Combining data quality approaches from related fields such as Ambient Assisted Living and eHealth could be the first step toward a data quality model for sport informatics. / Da in der Sportinformatikforschung immer mehr digitale Daten erzeugt werden, wird ein effektives Datenqualitätsmanagement zu einer Notwendigkeit. In dieser systematischen Übersichtsarbeit wird untersucht, wie Datenqualität derzeit in diesem Bereich verstanden wird. Die Ergebnisse zeigen das Fehlen eines gemeinsamen Datenqualitätsmodells. Die Kombination von Datenqualitätsansätzen aus verwandten Bereichen wie Ambient Assisted Living und eHealth könnte der erste Schritt zu einem Datenqualitätsmodell für die Sportinformatik sein.
20

Tagungsband zum 20. Interuniversitären Doktorandenseminar Wirtschaftsinformatik

25 January 2017 (has links) (PDF)
Das Interuniversitäre Doktorandenseminar Wirtschaftsinformatik ist eine regelmäßige Veranstaltung, in deren Rahmen Doktoranden der Universitäten Chemnitz, Dresden, Freiberg, Halle, Ilmenau, Jena und Leipzig ihr Promotionsprojekt präsentieren und sich den kritischen Fragen der anwesenden Professoren und Doktoranden aller beteiligten Universitäten stellen. Auf diese Weise erhalten die Promovierenden wertvolles Feedback zu Vorgehen, Methodik und inhaltlichen Aspekten ihrer Arbeit, welches sie für ihre Promotion nutzen können. Darüber hinaus bietet das Interuniversitäre Doktorandenseminar Wirtschaftsinformatik eine Plattform für eine fachliche Auseinandersetzung mit aktuellen Themen und sich ankündigenden Trends in der Forschung der Wirtschaftsinformatik. Zudem wird ein akademischer Diskurs über die Grenzen der jeweils eigenen Schwerpunkte der Professur hinaus ermöglicht. Das nunmehr 20. Jubiläum des Doktorandenseminars fand in Chemnitz statt. Der daraus entstandene Tagungsband enthält fünf ausgewählte Beiträge zu den Themenfeldern Service Engineering, Cloud-Computing, Geschäftsprozessmanagement, Requirements Engineering, Analytics und Datenqualität und zeigt damit anschaulich die Aktualität und Relevanz, aber auch die thematische Breite der gegenwärtigen Forschung im Bereich Wirtschaftsinformatik. / The inter-university PhD seminar Business Information Systems (“Interuniversitäres Doktorandenseminar Wirtschaftsinformatik”) is an annual one-day event which is organized by the Business Information Systems chairs of the universities of Chemnitz, Dresden, Freiberg, Halle, Ilmenau, Jena and Leipzig. It serves as a platform for PhD students to present their PhD topic and the current status of the thesis. Therefore, the seminar is a good opportunity to gain further knowledge and inspiration based on the feedback and questions of the participating professors and students. The 20th Interuniversitäre Doktorandenseminar Wirtschaftsinformatik took place in Chemnitz in October 2016. The resulting proceedings include five selected articles within the following topic areas: service engineering, cloud computing, business process management, requirements engineering, analytics und data quality. They illustrate the relevance as well as the broad range of topics in current business information systems research. In case of questions and comments, please use the contact details at the end of the articles.

Page generated in 0.0635 seconds