• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 4
  • 1
  • 1
  • Tagged with
  • 6
  • 5
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Analysis of integrated transcriptomics and metabolomics data : a systems biology approach

Daub, Carsten Oliver January 2004 (has links)
Moderne Hochdurchsatzmethoden erlauben die Messung einer Vielzahl von komplementären Daten und implizieren die Existenz von regulativen Netzwerken auf einem systembiologischen Niveau. Ein üblicher Ansatz zur Rekonstruktion solcher Netzwerke stellt die Clusteranalyse dar, die auf einem Ähnlichkeitsmaß beruht.<br /> Wir verwenden das informationstheoretische Konzept der wechselseitigen Information, das ursprünglich für diskrete Daten definiert ist, als Ähnlichkeitsmaß und schlagen eine Erweiterung eines für gewöhnlich für die Anwendung auf kontinuierliche biologische Daten verwendeten Algorithmus vor. Wir vergleichen unseren Ansatz mit bereits existierenden Algorithmen. Wir entwickeln ein geschwindigkeitsoptimiertes Computerprogramm für die Anwendung der wechselseitigen Information auf große Datensätze. Weiterhin konstruieren und implementieren wir einen web-basierten Dienst fuer die Analyse von integrierten Daten, die durch unterschiedliche Messmethoden gemessen wurden. Die Anwendung auf biologische Daten zeigt biologisch relevante Gruppierungen, und rekonstruierte Signalnetzwerke zeigen Übereinstimmungen mit physiologischen Erkenntnissen. / Recent high-throughput technologies enable the acquisition of a variety of complementary data and imply regulatory networks on the systems biology level. A common approach to the reconstruction of such networks is the cluster analysis which is based on a similarity measure.<br /> We use the information theoretic concept of the mutual information, that has been originally defined for discrete data, as a measure of similarity and propose an extension to a commonly applied algorithm for its calculation from continuous biological data. We compare our approach to previously existing algorithms. We develop a performance optimised software package for the application of the mutual information to large-scale datasets. Furthermore, we design and implement a web-based service for the analysis of integrated data measured with different technologies. Application to biological data reveals biologically relevant groupings and reconstructed signalling networks show agreements with physiological findings.
2

Schedulability Tests for Real-Time Uni- and Multiprocessor Systems / Planbarkeitstests für Ein- und Mehrprozessor-Echtzeitsysteme unter besonderer Berücksichtigung des partitionierten Ansatzes

Müller, Dirk 07 April 2014 (has links) (PDF)
This work makes significant contributions in the field of sufficient schedulability tests for rate-monotonic scheduling (RMS) and their application to partitioned RMS. Goal is the maximization of possible utilization in worst or average case under a given number of processors. This scenario is more realistic than the dual case of minimizing the number of necessary processors for a given task set since the hardware is normally fixed. Sufficient schedulability tests are useful for quick estimates of task set schedulability in automatic system-synthesis tools and in online scheduling where exact schedulability tests are too slow. Especially, the approach of Accelerated Simply Periodic Task Sets (ASPTSs) and the concept of circular period similarity are cornerstones of improvements in the success ratio of such schedulability tests. To the best of the author's knowledge, this is the first application of circular statistics in real-time scheduling. Finally, the thesis discusses the use of sharp total utilization thresholds for partitioned EDF. A constant-time admission control is enabled with a controlled residual risk. / Diese Arbeit liefert entscheidende Beiträge im Bereich der hinreichenden Planbarkeitstests für ratenmonotones Scheduling (RMS) und deren Anwendung auf partitioniertes RMS. Ziel ist die Maximierung der möglichen Last im Worst Case und im Average Case bei einer gegebenen Zahl von Prozessoren. Dieses Szenario ist realistischer als der duale Fall der Minimierung der Anzahl der notwendigen Prozessoren für eine gegebene Taskmenge, da die Hardware normalerweise fixiert ist. Hinreichende Planbarkeitstests sind für schnelle Schätzungen der Planbarkeit von Taskmengen in automatischen Werkzeugen zur Systemsynthese und im Online-Scheduling sinnvoll, wo exakte Einplanungstests zu langsam sind. Insbesondere der Ansatz der beschleunigten einfach-periodischen Taskmengen und das Konzept der zirkulären Periodenähnlichkeit sind Eckpfeiler für Verbesserungen in der Erfolgsrate solcher Einplanungstests. Nach bestem Wissen ist das die erste Anwendung zirkulärer Statistik im Echtzeit-Scheduling. Schließlich diskutiert die Arbeit plötzliche Phasenübergänge der Gesamtlast für partitioniertes EDF. Eine Zugangskontrolle konstanter Zeitkomplexität mit einem kontrollierten Restrisiko wird ermöglicht.
3

Feature-based Comparison and Generation of Time Series

Kegel, Lars, Hahmann, Martin, Lehner, Wolfgang 17 August 2022 (has links)
For more than three decades, researchers have been developping generation methods for the weather, energy, and economic domain. These methods provide generated datasets for reasons like system evaluation and data availability. However, despite the variety of approaches, there is no comparative and cross-domain assessment of generation methods and their expressiveness. We present a similarity measure that analyzes generation methods regarding general time series features. By this means, users can compare generation methods and validate whether a generated dataset is considered similar to a given dataset. Moreover, we propose a feature-based generation method that evolves cross-domain time series datasets. This method outperforms other generation methods regarding the feature-based similarity.
4

Schedulability Tests for Real-Time Uni- and Multiprocessor Systems: Focusing on Partitioned Approaches

Müller, Dirk 19 February 2014 (has links)
This work makes significant contributions in the field of sufficient schedulability tests for rate-monotonic scheduling (RMS) and their application to partitioned RMS. Goal is the maximization of possible utilization in worst or average case under a given number of processors. This scenario is more realistic than the dual case of minimizing the number of necessary processors for a given task set since the hardware is normally fixed. Sufficient schedulability tests are useful for quick estimates of task set schedulability in automatic system-synthesis tools and in online scheduling where exact schedulability tests are too slow. Especially, the approach of Accelerated Simply Periodic Task Sets (ASPTSs) and the concept of circular period similarity are cornerstones of improvements in the success ratio of such schedulability tests. To the best of the author's knowledge, this is the first application of circular statistics in real-time scheduling. Finally, the thesis discusses the use of sharp total utilization thresholds for partitioned EDF. A constant-time admission control is enabled with a controlled residual risk. / Diese Arbeit liefert entscheidende Beiträge im Bereich der hinreichenden Planbarkeitstests für ratenmonotones Scheduling (RMS) und deren Anwendung auf partitioniertes RMS. Ziel ist die Maximierung der möglichen Last im Worst Case und im Average Case bei einer gegebenen Zahl von Prozessoren. Dieses Szenario ist realistischer als der duale Fall der Minimierung der Anzahl der notwendigen Prozessoren für eine gegebene Taskmenge, da die Hardware normalerweise fixiert ist. Hinreichende Planbarkeitstests sind für schnelle Schätzungen der Planbarkeit von Taskmengen in automatischen Werkzeugen zur Systemsynthese und im Online-Scheduling sinnvoll, wo exakte Einplanungstests zu langsam sind. Insbesondere der Ansatz der beschleunigten einfach-periodischen Taskmengen und das Konzept der zirkulären Periodenähnlichkeit sind Eckpfeiler für Verbesserungen in der Erfolgsrate solcher Einplanungstests. Nach bestem Wissen ist das die erste Anwendung zirkulärer Statistik im Echtzeit-Scheduling. Schließlich diskutiert die Arbeit plötzliche Phasenübergänge der Gesamtlast für partitioniertes EDF. Eine Zugangskontrolle konstanter Zeitkomplexität mit einem kontrollierten Restrisiko wird ermöglicht.
5

Evolution von Distanzmaßen für chirurgische Prozesse

Schumann, Sandra 14 May 2014 (has links) (PDF)
Der Operationssaal ist ein hochkomplexes System mit dem Ziel patientenindividuelle Therapien zum Erfolg zu führen. Schwerpunkt dieser Arbeit ist der Arbeitsablauf des Chirurgen. Ein chirurgischer Prozess beinhaltet die durchgeführten Arbeitsschritte des Operateurs während eines Eingriffffs. Der protokollierte chirurgische Prozess ist Ausgangspunkt der Untersuchungen. Es wurde eine Methodik entwickelt, die mit statistischen und standardisierten Verfahren Unterschiede zwischen dem Ablauf verschiedener chirurgischer Prozesse messen kann. Dazu wurden die vier Distanzmaße Jaccard, Levenshtein, Adjazenz und Graphmatching auf chirurgische Prozesse angewandt. Eine Evaluation anhand von Daten einer Trainingsstudie zur Untersuchung laparoskopischer Instrumente in der minimalinvasiven Chirurgie bildet die Grundlage zur Bestimmung von Levenshteindistanz und Adjazenzdistanz als die Maße, die optimal geeignet sind Unterschiede zwischen chirurgen Prozessen zu messen. Die Retrospektivität der Distanzanalyse wird aufgehoben indem folgende Hypothese untersucht wird: Es gibt einen Zusammenhang zwischen der Distanz zur Laufzeit eines chirurgischen Eingriffs mit der Distanz nach kompletten Ablauf des Eingriffs. Die Hypothese konnte bestätigt werden. Der Zusammenhang zwischen Prozessablauf und Qualität des Prozessergebnisses wird mit folgender Hypothese untersucht: Je größer die Distanz eines chirurgischen Prozesses zum Best Practice, desto schlechter ist das Prozessergebnis. In der Chirurgie ist der Best Practice der chirurgische Prozess, der als die beste Prozedur angesehen wird, um das angestrebte Therapieziel zu erreichen. Auch diese Hypothese konnte bestätigt werden. Die Anwendung der Distanzmaße in der klinischen Praxis erfolgte beispielhaft an Eingriffffen aus der Neurochirurgie (zervikale Diskektomie) und der HNO (Neck Dissection). Insgesamt wurde mit der in dieser Arbeit dargelegten grundlegenden Methodik der Distanzmaße bei der Analyse chirurgischer Prozesse ein Grundstein für vielfältige weitere Untersuchungen gelegt.
6

Evolution von Distanzmaßen für chirurgische Prozesse

Schumann, Sandra 19 March 2014 (has links)
Der Operationssaal ist ein hochkomplexes System mit dem Ziel patientenindividuelle Therapien zum Erfolg zu führen. Schwerpunkt dieser Arbeit ist der Arbeitsablauf des Chirurgen. Ein chirurgischer Prozess beinhaltet die durchgeführten Arbeitsschritte des Operateurs während eines Eingriffffs. Der protokollierte chirurgische Prozess ist Ausgangspunkt der Untersuchungen. Es wurde eine Methodik entwickelt, die mit statistischen und standardisierten Verfahren Unterschiede zwischen dem Ablauf verschiedener chirurgischer Prozesse messen kann. Dazu wurden die vier Distanzmaße Jaccard, Levenshtein, Adjazenz und Graphmatching auf chirurgische Prozesse angewandt. Eine Evaluation anhand von Daten einer Trainingsstudie zur Untersuchung laparoskopischer Instrumente in der minimalinvasiven Chirurgie bildet die Grundlage zur Bestimmung von Levenshteindistanz und Adjazenzdistanz als die Maße, die optimal geeignet sind Unterschiede zwischen chirurgen Prozessen zu messen. Die Retrospektivität der Distanzanalyse wird aufgehoben indem folgende Hypothese untersucht wird: Es gibt einen Zusammenhang zwischen der Distanz zur Laufzeit eines chirurgischen Eingriffs mit der Distanz nach kompletten Ablauf des Eingriffs. Die Hypothese konnte bestätigt werden. Der Zusammenhang zwischen Prozessablauf und Qualität des Prozessergebnisses wird mit folgender Hypothese untersucht: Je größer die Distanz eines chirurgischen Prozesses zum Best Practice, desto schlechter ist das Prozessergebnis. In der Chirurgie ist der Best Practice der chirurgische Prozess, der als die beste Prozedur angesehen wird, um das angestrebte Therapieziel zu erreichen. Auch diese Hypothese konnte bestätigt werden. Die Anwendung der Distanzmaße in der klinischen Praxis erfolgte beispielhaft an Eingriffffen aus der Neurochirurgie (zervikale Diskektomie) und der HNO (Neck Dissection). Insgesamt wurde mit der in dieser Arbeit dargelegten grundlegenden Methodik der Distanzmaße bei der Analyse chirurgischer Prozesse ein Grundstein für vielfältige weitere Untersuchungen gelegt.

Page generated in 0.0698 seconds