• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 105
  • 72
  • 22
  • 8
  • Tagged with
  • 207
  • 134
  • 109
  • 98
  • 78
  • 76
  • 76
  • 37
  • 27
  • 22
  • 21
  • 21
  • 20
  • 17
  • 15
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
131

Praxisbezogene Erfahrungen bei der Auswertung und Analyse von Radar-Daten der Sentinel-Satelliten unter besonderer Berücksichtigung der Monitoring-Aufgaben im Alt- und Nachbergbau

Müterthies, A., Pakzad, K., Yang, C., Teuwsen, S., Janzen, A., Goerke-Mallet, P., Melchers, C. 16 July 2019 (has links)
Mit dem Europäischen Erdbeobachtungsprogramm 'Copernicus' und seinen Sentinel-Satelliten sowie den beteiligten Missionen steht ein leistungsfähiges Monitoringinstrument zur Verfügung. Das Programm, dessen Umfang fortlaufend erweitert wird, ist auf eine langfristige Nutzung ausgerichtet. Die Daten der satellitengestützten Sensoren besitzen eine hohe zeitliche und räumliche Auflösung und sind kostenfrei verfügbar. Für die Überwachung von Bodenbewegungen und Bodenwassergehalten können die Radar- Daten der beiden Sentinel 1-Satelliten genutzt werden. Die Multispektralsensoren der Sentinel 2-Satelliten stellen Daten zum Zustand der Vegetation und der Landbedeckung zur Verfügung. Die grundsätzliche Eignung der Daten zum Monitoring (nach-) bergbaulich induzierter Prozesse ist vielfältig nachgewiesen worden. Der vorliegende Beitrag befasst sich mit der Umsetzung der theoretischen Erkenntnisse in die Praxis und unternimmt den Versuch, die Transparenz des gesamten Prozesses zu verbessern. Der komplexe Prozess der Datengenerierung, ihrer Auswertung und Bereitstellung für die Aufgaben in der Praxis bedarf weiterer Erläuterungen. Die Leistungsfähigkeit eines Monitorings auf der Basis von Sentinel-Daten ist ansonsten nur bedingt zu beurteilen. Insbesondere die vielfältigen Interaktionen zwischen meteorologischen, geogenen und anthropogenen Prozessen sind hinsichtlich Ihrer Auswirkung auf die Nutzbarkeit für Aufgaben des (Nach)bergbaumonitorings zu analysieren. Im Rahmen verschiedener Forschungsvorhaben wird daher untersucht, wie hoch die Aussagekraft der Radardaten der Sentinel-Satelliten für die Beurteilung von Prozessen am Boden aktuell ist. Für diese Analyse ist die enge Verknüpfung des Weltraumsegmentes mit der In-Situ-Kompetenz von besonderer Bedeutung.
132

Impedanzspektroskopie an Zellschichten: Bayes’sche Datenanalyse und Modellvergleiche von experimentellen Messungen zur Charakterisierung der endothelialen Schrankenfunktion

Zimmermann, Franziska 09 July 2024 (has links)
Das Endothel stellt die entscheidende Barriere zwischen dem Intra- und Extravasalraum dar und ist damit essentiell für physiologische und pathophysiologische Vorgänge wie die Selektivität der Blut-Hirn-Schranke oder die Bildung von Ödemen. Die maßgebliche Kenngröße zur Beschreibung der Durchlässigkeit dieser Barriere ist die Permeabilität. Eine Methode zur Quantifizierung der endothelialen Schrankenfunktion ist die Impedanzspektroskopie. Hierbei wird an einem isolierten Zellmonolayer, der auf einen Filter kultiviert wurde, eine Wechselspannung angelegt und der resultierende komplexe Widerstand – die Impedanz Z(f) – für verschiedene Messfrequenzen f bestimmt. Kenngrößen sind der frequenzabhängige Verlauf von Betrag |Z| und Phase Ph der komplexen Impedanz. Zur Charakterisierung dieser Zellschicht wird oft der Transendotheliale Widerstand TER verwendet. Die Bestimmung dieses Wertes erfolgt über das Aufstellen von physikalischen Ersatzschaltbildern als mathematisches Modell, das den Messaufbau möglichst gut beschreibt und anschließender Optimierung der Modellparameter, sodass ein bestmöglicher Fit zwischen den Modellwerten und den Messdaten resultiert. Kommerziell verfügbare Impedanzmessgeräte ermöglichen die experimentell einfache Bestimmung von |Z| und Ph sowie oft eine direkte Analyse dieser Messwerte mittels voreingestellter mathematischer Modelle. Diese sind allerdings nicht erweiterbar oder austauschbar. Die resultierenden Parameter werden mitunter ohne Fehler angegeben, dieser soll dann über Mehrfachmessungen bestimmt werden. Zudem ist kein quantitativer Modellvergleich möglich. Diese Arbeit hatte daher das Ziel, die Vorteile der praktischen experimentellen Anwendung eines kommerziellen Messgerätes zu nutzen, aber die Analyse der Messdaten in den genannten Punkten zu erweitern und zu verbessern. Hierfür wurden beruhend auf der Bayes’schen Datenanalyse zwei verschiedene Algorithmen in python zur Auswertung impedanzspektroskopischer Daten implementiert. Bei der Bayes’schen Datenanalyse handelt es sich um einen logisch konsistenten Weg der Parameterbestimmung für eine bestimmte Modellannahme unter Berücksichtigung der gegebenen Daten und deren Fehler. Es resultieren als Ergebnis die Posterior als Wahrscheinlichkeitsverteilungen der Parameter. Aus diesen können Mittelwerte und Standardabweichungen berechnet werden. Vorwissen über die Modellparameter kann in Prioren für die Auswertung einbezogen werden. Bei der Analyse können im Gegensatz zu den kommerziellen Geräten sowohl |Z| als auch Ph berücksichtigt werden. Außerdem ermöglicht die Bestimmung der Evidenz einen quantitativen Modellvergleich, sodass valide Aussagen getroffen werden können, welches der untersuchten Modelle die gemessenen Daten am besten beschreibt. Die experimentellen Messungen wurden mit dem CellZscope (nanoAnalytics, Münster) durchgeführt. Dieses ermöglicht Messungen in einem Frequenzbereich von 1 - 100 kHz von auf Filtern kultivierten Zellmonolayern in sogenannten Wells auch unter Zugabe von Stimulatoren. Bei den zwei implementierten Algorithmen handelt es sich um das Markov-Chain-Monte-Carlo (MCMC) - Verfahren und um das MultiNested (MN) - Sampling. Das MCMC-Verfahren wurde vollständig selbstständig umgesetzt, der MN-Algorithmus beruht auf einer frei zugänglichen Bibliothek und wurde entsprechend angepasst. Diese zwei Algorithmen wurden zunächst ausführlich mit selbstgenerierten Testdaten validiert. Beide lieferten nahezu identische Ergebnisse der Parameterschätzung in hervorragender Übereinstimmung mit den gewählten Simulationsparametern. Die Einbeziehung der Ph verbesserte diese weiter und führte zusätzlich zu geringeren Parameterunsicherheiten. Als weitere Verbesserung wurde außerdem ein Verfahren zum Abschätzen der Messungenauigkeiten und deren Korrelationen aus den Messdaten etabliert, da diese bei dem CellZscope nicht angegeben werden. Für den MN-Algorithmus konnte der Jeffreys-Prior implementiert werden. Dies ermöglichte auch die korrekte Analyse mathematisch komplexer, höherparametriger Modelle. Nach dieser ausführlichen Validierung der Algorithmen hinsichtlich der Parameterschätzung, der Bestimmung der Messunsicherheiten und des Modellvergleiches erfolgte die Anwendung auf experimentelle Messungen. Bei diesen wurden Endothelzellen der menschlichen Nabelschnurvene (HUVEC) mit Thrombin in verschiedenen Konzentrationen und Triton X-100 stimuliert. Thrombin führt bei Endothelzellen u.a. zu Zellretraktion und Ausbildung ontrazellulärer Gaps mit Steigerung der Makromolekülpermeabilität. Triton X-100, ein nicht-ionisches Detergenz, zerstört die Lipidschicht der Zellmembranen. Vergleichend wurden zu den Messungen an Wells mit Medium und zellbedecktem Filter auch Messungen an Wells nur mit Medium sowie mit Medium und zellfreiem Filter durchgeführt. Es wurden basierend auf einer ausführlichen Literaturrecherche verschiedene Modelle untersucht, deren gemeinsames Merkmal ein konstantes Phasenelement (CPE) für die Elektroden-Elektrolyt-Grenzfläche und eine Reihenschaltung mehrerer RC-Glieder (Parallelschaltung eines Widerstandes R und eines Kondensators C) ist. Als das geeignetste Modell resultierte für alle diese drei Konditionen eine Reihenschaltung eines CPE mit mehreren RC-Gliedern, aber ohne weitere Elemente. Für die Wells mit nur Medium und die mit zellbedecktem Filter wurde die Anzahl nRC der RC-Glieder mit jeweils nRC = 4, für die Wells mit zellfreiem Filter mit nRC = 3 bestimmt. Dies zeigte, dass die in der Literatur oft verwendete Beschreibung des Mediums mit einem ohmschen Widerstand unzureichend ist. Auffallend war, dass bei allen Konditionen ein RC-Glied eine sehr niedrige Kapazität in der Größenordnung einiger nF aufwies. Für den Filter resultierte ein in der Kapazität charakteristisches RC-Glied, dennoch ergaben sich insgesamt weniger RC-Glieder als für die Messungen nur mit Medium. Bei den Messungen mit zellbedecktem Filter konnte der aus der Literatur bekannte konzentrationsabhängige Anstieg des TER dargestellt werden. Der Modellvergleich legte nahe, dass die Integrität des Zellmonolayers bei hohen Thrombinkonzentrationen nicht vollständig zerstört wird, da weiterhin ein Modell, das auch ein zellspezifisches RC-Glied enthält, die höchste Modellwahrscheinlichkeit aufwies. Für die Stimulation mit Triton X-100 ergab sich dagegen eine höhere Wahrscheinlichkeit für ein Modell, das einen Filter ohne Zellschicht beschreibt. Somit scheint hier der Monolayer nicht mehr intakt zu sein. Zur genaueren Untersuchung der biophysikalischen Bedeutung einzelner Modellparameter wurden außerdem erste zellfreie Messungen an Wells mit deionisiertem Wasser und Natriumchloridlösungen unterschiedlicher Konzentration durchgeführt und mit Berechnungen aus der Literatur verglichen. Hierbei konnte die bei allen Wells bestimmte sehr niedrige Kapazität auf den Aufbau des Wells zurückgeführt werden. Für die anderen RC-Glieder des Mediums und des Filters ergaben sich Hinweise, dass diese auf der Ausbildung dünner ionischer Schichten beruhen. Zusammenfassend haben sich die implementierten Algorithmen der Bayes’schen Datenanalyse als hervorragend geeignet für die Auswertung impedanzspektroskopischer Messungen dargestellt. Durch die ausführliche Validierung mit Testdaten liegt ein hohes Maß an Reliabilität der Ergebnisse vor. Die Parameterschätzung der Messung an Zellmonolayern gelang auch für sehr komplexe Modelle und über die Evidenz kann ein quantitativer Modellvergleich erfolgen. Die Modellparameter wurden auch hinsichtlich ihrer biophysikalischen Bedeutung untersucht. Die Technik ist somit der direkten Analyse des CellZscope vorzuziehen und kann auch zur verbesserten Planung zukünftiger Experimente (experimental design) verwendet werden. Außerdem ist eine Anwendung neuer Modelle, beispielsweise zur Quantifizierung der Fläche des noch intakten Monolayers bei starker Thrombinstimulation oder die Beschreibung komplexerer Setups wie Co-Kulturen verschiedener Zellarten möglich.
133

Informationsgewinnung mittels Bindungsanalysen von Serumantikörpern an Peptidbibliotheken / ein Ansatz zur serologischen Antikörper-Diagnostik, der ohne bekannte Antigene auskommt

Bruni, Nicole 23 February 2009 (has links)
Ein charakteristisches Merkmal des humoralen Immunsystems ist die Produktion vieler verschiedener Antikörper. Geläufige diagnostische Tests für den Nachweis von Krankheit-spezifischen Serumantikörpern nutzen Antigene zum Nachweis der Krankheit via Antikörperbindung. Derartige diagnostische Tests setzen jedoch die Kenntnis von Krankheit-spezifischen Antigenen voraus. Die vorliegende Arbeit berücksichtigt die unterschiedlichen Bindungsreaktivitäten ganzer Antikörperrepertoires verschiedener Gruppen von Individuen. Dazu werden die Serumantikörperbindungen gegenüber Zufallsbibliotheken gemessen. Die Moleküle dieser beliebigen Bibliotheken müssen keine Verwandtschaft zu den Antigenen der Krankheit haben. Mit modernen Herstellungsverfahren von Peptidarrays auf Glasträgern können mit einmal synthetisierten Peptiden hunderte von Träger-Replikas produziert werden. Die Suche nach hochaffinen Bindern zur Diagnose von Krankheiten mit unbekannten Antigenen oder mit Kreuzreaktivitäten zwischen gesunden und kranken Individuen könnte überflüssig werden. Gestützt auf die beschriebenen Voraussetzungen zeigt die vorliegende Arbeit, dass die Messung von Serumantikörper-Bindungen gegenüber Peptidbibliotheken mit zufälligen Sequenzen die Unterscheidung zwischen Gruppen von gesunden und kranken Individuen für unterschiedliche Krankheiten ermöglicht. Eine unerwartet kleine Anzahl von Peptiden ist ausreichend für eine zuverlässige Vorhersage der untersuchten Gruppen. Der unvoreingenommene Ansatz ermöglicht eine ebenso gute Unterscheidung von gesund und krank, wie sie auch mit voreingenommenen Bibliotheken gezeigt worden sind. Wir vermuten, dass der vorliegende Ansatz ein wichtiger Schritt in Richtung zuverlässiger Diagnose darstellt, insbesondere für Krankheiten mit noch unbekannten Antigenen. Ausserdem bietet die hohe Spezifizität der Detektone und deren kleinen Mitgliederzahl eine Grundlage für die gleichzeitige Diagnose von verschiedenen Krankheiten auf einem einzigen Peptid-Mikroarray. / A characteristic trait of the humoral immune system is the production of lots of different antibodies. Commonly used diagnostic tests for the detection of disease-specific serum-antibodies successfully exploit these antibody reactivities against disease eliciting antigens. Such diagnostic tests do however need the knowledge of disease specific antigen as a prerequisite. The presented work looks at the binding reactivities of whole antibody repertoires of different groups of individuals. Therefore the binding of serum-antibodies are measured against arbitrary probe molecule libraries. The arbitrary molecules of such libraries do not need to be related to the antigens of the disease to be diagnosed. Modern synthesis and printing processes of peptides on glass chips arrays allow the production of hundreds or peptide-chip replicas with small amounts of uniquely synthesized peptides. The search for high-affinity binders for the diagnosis of diseases with no known antigens might become redundant. Based on the described premises the presented work demonstrates the differentiation of different diseases by means of antibody serum reactivity differences towards arbitrary peptide libraries between healthy and diseased individuals. The number of peptides necessary for reliable prediction of the investigated groups of individuals are unanticipated small. The unbiased approach of the library design works as well as it possibly could with intended libraries, like whole-proteome arrays, used in recent other works. We presume our approach to be an important step forward towards reliable diagnosis, in particular for diseases caused by yet unknown antigens. Furthermore, the high specificity of the detectons and their smallness in size might provide a basis for simultaneous diagnosis of various diseases on a single peptide microarray.
134

Investigation of LIBS and Raman data analysis methods in the context of in-situ planetary exploration

Rammelkamp, Kristin 05 December 2019 (has links)
Die in dieser Arbeit vorgestellten Studien untersuchen verschiedene Ansätze für die Analyse von spektroskopischen Daten für die Erforschung anderer Himmelskörper. Der Fokus lag hierbei auf der laserinduzierten Plasmaspektroskopie (LIBS, engl. laser-induced breakdown spectroscopy), aber auch Daten der Raman-Spektroskopie wurden analysiert. Das erste extraterrestrisch eingesetzte LIBS Instrument, ChemCam, auf dem Mars Science Laboratory (MSL) der NASA untersucht die Marsoberfläche seit 2012 und weitere Missionen mit LIBS und Raman Instrumenten zum Mars sind geplant. Neben analytischen Ansätzen wurden statistische Methoden, die als multivariate Datenanalysen (MVA) bekannt sind, verwendet und evaluiert. In dieser Arbeit werden insgesamt vier Studien vorgestellt. In der ersten Studie wurde die Normalisierung von LIBS Daten mit Plasmaparametern, also der Plasmatemperatur und der Elektronendichte, untersucht. In der zweiten Studie wurden LIBS Messungen unter Vakuumbedingungen im Hinblick auf den Ionisierungsgrad des Plasmas untersucht. In der dritten Studie wurden MVA Methoden wie die Hauptkomponentenanalyse (PCA) und die partielle Regression kleinster Quadrate (PLS-R) zur Identifizierung und Quantifizierung von Halogenen mittels molekularer Emissionen angewandt. Die Ergebnisse sind vielversprechend, da es möglich war z.B. Chlor in einem ausgewählten Konzentrationsbereich zu quantifizieren. In der letzten Studie wurden LIBS-Daten mit komplementären Raman-Daten von Mars relevanten Salzen in einem low-level Datenfusionsansatz kombiniert. Es wurden MVA Methoden angewandt und auch Konzepte der high-level Datenfusion implementiert. Mit der low-level LIBS und Raman Datenfusion konnten im Vergleich zu den einzelnen Techniken mehr Salze richtig identifiziert werden. Der Gewinn durch die low-level Datenfusion ist jedoch vergleichsweise gering und für konkrete Missionen müssen individuelle und angepasste Strategien für die gemeinsame Analyse von LIBS und Raman-Daten gefunden werden. / The studies presented in this thesis investigate different data analysis approaches for mainly laser-induced breakdown spectroscopy (LIBS) and also Raman data in the context of planetary in-situ exploration. Most studies were motivated by Mars exploration due to the first extraterrestrially employed LIBS instrument ChemCam on NASA's Mars Science Laboratory (MSL) and further planned LIBS and Raman instruments on upcoming missions to Mars. Next to analytical approaches, statistical methods known as multivariate data analysis (MVA) were applied and evaluated. In this thesis, four studies are presented in which LIBS and Raman data analysis strategies are evaluated. In the first study, LIBS data normalization with plasma parameters, namely the plasma temperature and the electron density, was studied. In the second study, LIBS measurements in vacuum conditions were investigated with a focus on the degree of ionization of the LIBS plasma. In the third study, the capability of MVA methods such as principal component analysis (PCA) and partial least squares regression (PLS-R) for the identification and quantification of halogens by means of molecular emissions was tested. The outcomes are promising, as it was possible to distinguish apatites and to quantify chlorine in a particular concentration range. In the fourth and last study, LIBS data was combined with complementary Raman data in a low-level data fusion approach using MVA methods. Also, concepts of high-level data fusion were implemented. Low-level LIBS and Raman data fusion can improve identification capabilities in comparison to the single datasets. However, the improvement is comparatively small regarding the higher amount of information in the low-level fused data and dedicated strategies for the joint analysis of LIBS and Raman data have to be found for particular scientific objectives.
135

Score-Based Approaches to Heterogeneity in Psychological Models

Arnold, Manuel 30 May 2022 (has links)
Statistische Modelle menschlicher Kognition und Verhaltens stützen sich häufig auf aggregierte Daten und vernachlässigen dadurch oft Heterogenität in Form von Unterschieden zwischen Personen oder Gruppen. Die Nichtberücksichtigung vorliegender Heterogenität kann zu verzerrten Parameterschätzungen und zu falsch positiven oder falsch negativen Tests führen. Häufig kann Heterogenität mithilfe von Kovariaten erkannt und vorhergesagt werden. Allerdings erweist sich die Identifizierung von Prädiktoren von Heterogenität oft als schwierige Aufgabe. Zur Lösung dieses Problems schlage ich zwei neue Ansätze vor, um individuelle und gruppenspezifische Unterschiede mithilfe von Kovariaten vorherzusagen. Die vorliegende kumulative Dissertation setzt sich aus drei Projekten zusammen. Projekt 1 widmet sich dem Verfahren IPC-Regression (Individual Parameter Contribution), welches die Exploration von Parameterheterogenität in Strukturgleichungsmodellen (SEM) mittels Kovariaten erlaubt. Unter anderem evaluiere ich IPC-Regression für dynamische Panel-Modelle, schlage eine alternative Schätzmethode vor und leite IPCs für allgemeine Maximum-Likelihood-Schätzer her. Projekt 2 veranschaulicht, wie IPC-Regression in der Praxis eingesetzt werden kann. Dazu führe ich schrittweise in die Implementierung von IPC-Regression im ipcr-Paket für die statistische Programmiersprache R ein. Schließlich werden in Projekt 3 SEM-Trees weiterentwickelt. SEM-Trees sind eine modellbasierte rekursive Partitionierungsmethode zur Identifizierung von Kovariaten, die Gruppenunterschiede in SEM-Parametern vorhersagen. Die bisher verwendeten SEM-Trees sind sehr rechenaufwendig. In Projekt 3 kombiniere ich SEM-Trees mit unterschiedlichen Score-basierten Tests. Die daraus resultierenden Score-Guided-SEM-Tees lassen sich deutlich schneller als herkömmlichen SEM-Trees berechnen und zeigen bessere statistische Eigenschaften. / Statistical models of human cognition and behavior often rely on aggregated data and may fail to consider heterogeneity, that is, differences across individuals or groups. If overlooked, heterogeneity can bias parameter estimates and may lead to false-positive or false-negative findings. Often, heterogeneity can be detected and predicted with the help of covariates. However, identifying predictors of heterogeneity can be a challenging task. To solve this issue, I propose two novel approaches for detecting and predicting individual and group differences with covariates. This cumulative dissertation is composed of three projects. Project 1 advances the individual parameter contribution (IPC) regression framework, which allows studying heterogeneity in structural equation model (SEM) parameters by means of covariates. I evaluate the use of IPC regression for dynamic panel models, propose an alternative estimation technique, and derive IPCs for general maximum likelihood estimators. Project 2 illustrates how IPC regression can be used in practice. To this end, I provide a step-by-step introduction to the IPC regression implementation in the ipcr package for the R system for statistical computing. Finally, Project 3 progresses the SEM tree framework. SEM trees are a model-based recursive partitioning method for finding covariates that predict group differences in SEM parameters. Unfortunately, the original SEM tree implementation is computationally demanding. As a solution to this problem, I combine SEM trees with a family of score-based tests. The resulting score-guided SEM trees compute quickly, solving the runtime issues of the original SEM trees, and show favorable statistical properties.
136

Deep graphs / represent and analyze heterogeneous complex systems across scales

Traxl, Dominik 17 May 2017 (has links)
Netzwerk Theorie hat sich als besonders zweckdienlich in der Darstellung von Systemen herausgestellt. Jedoch fehlen in der Netzwerkdarstellung von Systemen noch immer essentielle Bausteine um diese generell zur Datenanalyse heranzuziehen zu können. Allen voran fehlt es an einer expliziten Assoziation von Informationen mit den Knoten und Kanten eines Netzwerks und einer schlüssigen Darstellung von Gruppen von Knoten und deren Relationen auf verschiedenen Skalen. Das Hauptaugenmerk dieser Dissertation ist der Einbindung dieser Bausteine in eine verallgemeinerte Rahmenstruktur gewidmet. Diese Rahmenstruktur - Deep Graphs - ist in der Lage als Bindeglied zwischen einer vereinheitlichten und generalisierten Netzwerkdarstellung von Systemen und den Methoden der Statistik und des maschinellen Lernens zu fungieren (Software: https://github.com/deepgraph/deepgraph). Anwendungen meiner Rahmenstruktur werden dargestellt. Ich konstruiere einen Regenfall Deep Graph und analysiere raumzeitliche Extrem-Regenfallcluster. Auf Grundlage dieses Graphs liefere ich einen statistischen Beleg, dass die Größenverteilung dieser Cluster einem exponentiell gedämpften Potenzgesetz folgt. Mit Hilfe eines generativen Sturm-Modells zeige ich, dass die exponentielle Dämpfung der beobachteten Größenverteilung durch das Vorhandensein von Landmasse auf unserem Planeten zustande kommen könnte. Dann verknüpfe ich zwei hochauflösende Satelliten-Produkte um raumzeitliche Cluster von Feuer-betroffenen Gebieten im brasilianischen Amazonas zu identifizieren und deren Brandeigenschaften zu charakterisieren. Zuletzt untersuche ich den Einfluss von weißem Rauschen und der globalen Kopplungsstärke auf die maximale Synchronisierbarkeit von Oszillatoren-Netzwerken für eine Vielzahl von Oszillatoren-Modellen, welche durch ein breites Spektrum an Netzwerktopologien gekoppelt sind. Ich finde ein allgemeingültiges sigmoidales Skalierungsverhalten, und validiere dieses mit einem geeignetem Regressionsmodell. / Network theory has proven to be a powerful instrument in the representation of complex systems. Yet, even in its latest and most general form (i.e., multilayer networks), it is still lacking essential qualities to serve as a general data analysis framework. These include, most importantly, an explicit association of information with the nodes and edges of a network, and a conclusive representation of groups of nodes and their respective interrelations on different scales. The implementation of these qualities into a generalized framework is the primary contribution of this dissertation. By doing so, I show how my framework - deep graphs - is capable of acting as a go-between, joining a unified and generalized network representation of systems with the tools and methods developed in statistics and machine learning. A software package accompanies this dissertation, see https://github.com/deepgraph/deepgraph. A number of applications of my framework are demonstrated. I construct a rainfall deep graph and conduct an analysis of spatio-temporal extreme rainfall clusters. Based on the constructed deep graph, I provide statistical evidence that the size distribution of these clusters is best approximated by an exponentially truncated powerlaw. By means of a generative storm-track model, I argue that the exponential truncation of the observed distribution could be caused by the presence of land masses. Then, I combine two high-resolution satellite products to identify spatio-temporal clusters of fire-affected areas in the Brazilian Amazon and characterize their land use specific burning conditions. Finally, I investigate the effects of white noise and global coupling strength on the maximum degree of synchronization for a variety of oscillator models coupled according to a broad spectrum of network topologies. I find a general sigmoidal scaling and validate it with a suitable regression model.
137

Cuneiform / A Functional Language for Large-Scale Data Analysis

Brandt, Jörgen 29 January 2021 (has links)
In der Bioinformatik und der Next-Generation Sequenzierung benötigen wir oft große und komplexe Verarbeitungsabläufe um Daten zu analysieren. Die Werkzeuge und Bibliotheken, die hierin die Verarbeitungsschritte bilden, stammen aus unterschiedlichen Quellen und exponieren unterschiedliche Schnittstellen, was ihre Integration in Datenanalyseplattformen erschwert. Hinzu kommt, dass diese Verarbeitungsabläufe meist große Datenmengen prozessieren weshalb Forscher erwarten, dass unabhängige Verarbeitungsschritte parallel laufen. Der Stand der Technik im Feld der wissenschaftlichen Datenverarbeitung für Bioinformatik und Next-Generation Sequenzierung sind wissenschaftliche Workflowsysteme. Ein wissenschaftliches Workflowsystem erlaubt es Forschern Verarbeitungsabläufe als Workflow auszudrücken. Solch ein Workflow erfasst die Datenabhängigkeiten in einem Verarbeitungsablauf, integriert externe Software und erlaubt es unabhängige Verarbeitungsschritte zu erkennen, um sie parallel auszuführen. In dieser Arbeit präsentieren wir Cuneiform, eine Workflowsprache, und ihre verteilte Ausführungsumgebung. Für Cuneiform's Design nehmen wir die Perspektive der Programmiersprachentheorie ein. Wir lassen Methoden der funktionalen Programmierung einfließen um Komposition und Datenabhängigkeiten auszudrücken. Wir nutzen operationelle Semantiken um zu definieren, wann ein Workflow wohlgeformt und konsistent ist und um Reduktion zu erklären. Für das Design der verteilten Ausführungsumgebung nehmen wir die Perspektive der verteilten Systeme ein. Wir nutzen Petri Netze um die Kommunikationsstruktur der im System beteiligten Agenten zu erklären. / Bioinformatics and next-generation sequencing data analyses often form large and complex pipelines. The tools and libraries making up the processing steps in these pipelines come from different sources and have different interfaces which hampers integrating them into data analysis frameworks. Also, these pipelines process large data sets. Thus, users need to parallelize independent processing steps. The state of the art in large-scale scientific data analysis for bioinformatics and next-generation sequencing are scientific workflow systems. A scientific workflow system allows researchers to describe a data analysis pipeline as a scientific workflow which integrates external software, defines the data dependencies forming a data analysis pipeline, and parallelizes independent processing steps. Scientific workflow systems consist of a workflow language providing a user interface, and an execution environment. The workflow language determines how users express workflows, reuse and compose workflow fragments, integrate external software, how the scientific workflow system identifies independent processing steps, and how we derive optimizations from a workflow's structure. The execution environment schedules and runs data processing operations. In this thesis we present Cuneiform, a workflow language, and its distributed execution environment. For Cuneiform's design we take the perspective of programming languages. We adopt methods from functional programming towards composition and expressing data dependencies. We apply operational semantics and type systems to define well-formedness, consistency, and reduction of Cuneiform workflows. For the design of the distributed execution environment we take the perspective of distributed systems. We apply Petri nets to define the communication patterns among the distributed execution environment's agents.
138

Weiterentwicklung virtueller Inbetriebnahme-Modelle: Zustandsüberwachung und Ausbringungsprädiktion auf Basis eines prozessaktuellen virtuellen Maschinenzwillings

Kramer-Pohlkötter, Fabian 17 December 2024 (has links)
Im heutigen Produktionsumfeld erhöhen steigender Wettbewerbsdruck sowie Kundenanforderungen die Notwendigkeit, Terminpläne genau einzuhalten, speziell in der Phase vor dem Start der Produktion (SOP). Aus diesem Grund werden automatisierte Produktionssysteme in verschiedensten Industrien mittels virtueller Inbetriebnahme umfassend getestet, um Fehler bereits vor der realen Inbetriebnahme zu erkennen und somit Verzögerungen während der realen Inbetriebnahme zu vermeiden. Die Inbetriebnahmezeit kann dadurch um bis zu 30 % verkürzt werden. Grundlage der virtuellen Inbetriebnahme ist das virtuelle Inbetriebnahme-Modell. Während der realen Inbetriebnahme werden Geometrien, Schaltpläne und speicherprogrammierbare Steuerungen (SPS) durch Optimierungen verändert. Diese Änderungen fließen aber meist nicht in die Simulation ein, sodass nach erfolgter Inbetriebnahme die Simulation nicht mehr der realen Anlage entspricht. Infolgedessen bleibt das mögliche Potential des virtuellen Modells in der Betriebsphase von Anlagen ungenutzt. Das Ziel der vorliegenden Dissertation ist es, eine Vorgehensweise zu erarbeiten, mit der das virtuelle Inbetriebnahme-Modell zu einem prozessaktuellen virtuellen Maschinenzwilling weiterentwickelt werden kann. Dieser soll während der Betriebsphase dazu dienen, zukünftige Maschinenzustände nachzubilden und somit z. B. Ausbringungsreduktionen vorherzusagen. Dazu wird eine Methode entwickelt, die es ermöglicht, Alterungsphänomene von Teilprozessen im Maschinenzwilling zu simulieren, deren Auswirkungen darzustellen und daraus Erkenntnisse für Produktion und Instandhaltung abzuleiten. Die Kombination von realen und simulierten Erkenntnissen erzeugt einen hybriden Vorhersageansatz als Werkzeug für die Instandhaltung. Anschließend wird die Vorgehensweise zur Weiterentwicklung sowie die Methode zur Simulation von Alterungseffekten an einem realen Anwendungsfall demonstriert und validiert. Dabei handelt es sich um einen Engpassprozess in der Produktion der neuesten Generation von Elektromotoren der BMW AG. Unvorhergesehene Ausbringungsverringerungen werden auf diese Weise minimiert und die Effektivität der Gesamtanlage bleibt erhalten. Die Produktion bleibt damit in der Lage, ihre Produkte zur richtigen Zeit, in der richtigen Qualität und Quantität, und dem richtigen Preis an den Kunden auszuliefern. / In today’s production environment, increased competition, and growing customer demands have made it ever more important to meet schedules, especially in the phase before the start of production (SOP). For this reason, automated production systems in various industries are thoroughly tested by using virtual commissioning in order to detect and eliminate errors at an early stage – before the real commissioning on site. This helps to avoid delays and can reduce commissioning times by up to 30 %. The basis of the virtual commissioning is the virtual model. During real commissioning, geometries, electrical plans (E-plans) and programmable logic controllers (PLC) are optimized and modified. However, these changes usually remain unconsidered as not being updated in the simulation, resulting in a model that no longer reflects the real plant. As a consequence, the virtual model is no longer used in the production phase. The aim and objective of this dissertation is to create a general procedure that allows the further development of the virtual commissioning model into a process-actual virtual machine twin. This virtual machine twin will serve during production to emulate future machine states in order to predict for example output reductions. To this end, a method-ology will be defined to simulate aging effects of critical processes and to determine the impact on the overall process. The results are used to derive recommendations for production and maintenance. The combination of real and simulated outcomes establishes a so-called 'Hybrid Predictive Maintenance System'. Ultimately, the general procedure for the further development and the methodology for simulating aging effects will be demonstrated and validated on a critical process in the electric engines production of BMW AG. As a result, unexpected downtimes are minimized, and the overall equipment effectiveness (OEE) is ensured. This enables the production to deliver products at the right time, in the right quality and quantity, and at the right price.
139

Functional data analysis with applications in finance

Benko, Michal 26 January 2007 (has links)
An vielen verschiedenen Stellen der angewandten Statistik sind die zu untersuchenden Objekte abhängig von stetigen Parametern. Typische Beispiele in Finanzmarktapplikationen sind implizierte Volatilitäten, risikoneutrale Dichten oder Zinskurven. Aufgrund der Marktkonventionen sowie weiteren technisch bedingten Gründen sind diese Objekte nur an diskreten Punkten, wie zum Beispiel an Ausübungspreise und Maturitäten, für die ein Geschäft in einem bestimmten Zeitraum abgeschlossen wurde, beobachtbar. Ein funktionaler Datensatz ist dann vorhanden, wenn diese Funktionen für verschiedene Zeitpunkte (z.B. Tage) oder verschiedene zugrundeliegende Aktiva gesammelt werden. Das erste Thema, das in dieser Dissertation betrachtet wird, behandelt die nichtparametrischen Methoden der Schätzung dieser Objekte (wie z.B. implizierte Volatilitäten) aus den beobachteten Daten. Neben den bekannten Glättungsmethoden wird eine Prozedur für die Glättung der implizierten Volatilitäten vorgeschlagen, die auf einer Kombination von nichtparametrischer Glättung und den Ergebnissen der arbitragefreien Theorie basiert. Der zweite Teil der Dissertation ist der funktionalen Datenanalyse (FDA), speziell im Zusammenhang mit den Problemen, der empirischen Finanzmarktanalyse gewidmet. Der theoretische Teil der Arbeit konzentriert sich auf die funktionale Hauptkomponentenanalyse -- das funktionale Ebenbild der bekannten Dimensionsreduktionstechnik. Ein umfangreicher überblick der existierenden Methoden wird gegeben, eine Schätzmethode, die von der Lösung des dualen Problems motiviert ist und die Zwei-Stichproben-Inferenz basierend auf der funktionalen Hauptkomponentenanalyse werden behandelt. Die FDA-Techniken sind auf die Analyse der implizierten Volatilitäten- und Zinskurvendynamik angewandt worden. Darüber hinaus, wird die Implementation der FDA-Techniken zusammen mit einer FDA-Bibliothek für die statistische Software Xplore behandelt. / In many different fields of applied statistics an object of interest is depending on some continuous parameter. Typical examples in finance are implied volatility functions, yield curves or risk-neutral densities. Due to the different market conventions and further technical reasons, these objects are observable only on a discrete grid, e.g. for a grid of strikes and maturities for which the trade has been settled at a given time-point. By collecting these functions for several time points (e.g. days) or for different underlyings, a bunch (sample) of functions is obtained - a functional data set. The first topic considered in this thesis concerns the strategies of recovering the functional objects (e.g. implied volatilities function) from the observed data based on the nonparametric smoothing methods. Besides the standard smoothing methods, a procedure based on a combination of nonparametric smoothing and the no-arbitrage-theory results is proposed for implied volatility smoothing. The second part of the thesis is devoted to the functional data analysis (FDA) and its connection to the problems present in the empirical analysis of the financial markets. The theoretical part of the thesis focuses on the functional principal components analysis -- functional counterpart of the well known multivariate dimension-reduction-technique. A comprehensive overview of the existing methods is given, an estimation method based on the dual problem as well as the two-sample inference based on the functional principal component analysis are discussed. The FDA techniques are applied to the analysis of the implied volatility and yield curve dynamics. In addition, the implementation of the FDA techniques together with a FDA library for the statistical environment XploRe are presented.
140

Phenomenology of the Higgs and Flavour Physics in the Standard Model and Beyond

Alasfar, Lina 14 October 2022 (has links)
In dieser Arbeit werden einige zukünftige Aspekte der Higgs-Messungen ein Jahrzehnt nach seiner Entdeckung untersucht, wobei der Schwerpunkt auf dem Potenzial für zukünftige Läufe des Large Hadron Collider (LHC) liegt. Insbesondere sollen anspruchsvolle Kopplungen des Higgs, wie seine Selbstkopplung und die Wechselwirkung mit leichten Quarks, untersucht werden. Der erste Teil gibt einen Überblick über die Higgs-Physik innerhalb der effektiven Feldtheorie des Standardmodells (SMEFT). Der zweite Teil befasst sich mit der Single-Higgs-Produktion, beginnend mit einer Zweischleifenberechnung der Gluonenfusionskomponente von Zh, um deren theoretische Unsicherheiten zu reduzieren. Dann wird das Potenzial für die Einschränkung der trilinearen Higgs-Selbstkopplung aus Einzel-Higgs-Raten erneut untersucht, indem ebenso schwach eingeschränkte Vier-Schwer-Quark-Operatoren einbezogen werden, die bei der nächsthöheren Ordnung in die Einzel-Higgs-Raten eingehen. Diese Operatoren korrelieren in hohem Maße mit der trilinearen Selbstkopplung, was sich auf die Anpassungen auswirkt, die für diese Kopplung anhand von Einzel-Higgs-Daten vorgenommen wurden. Der dritte Teil konzentriert sich auf die Higgs-Paarproduktion, einen wesentlichen Prozess zur Messung der Higgs-Selbstkopplung, und setzt eine multivariate Analyse ein, um ihr Potenzial zur Untersuchung der leichten Yukawa-Kopplungen zu untersuchen; dadurch wird die Empfindlichkeit der Higgs-Paarproduktion für die leichten Quark-Yukawa-Wechselwirkungen erforscht. Schließlich werden im vierten Teil einige Modelle vorgestellt, die darauf abzielen, die jüngsten Flavour-Anomalien im Lichte einer globalen SMEFT-Bayesian-Analyse zu erklären, die Flavour- und elektroschwache Präzisionsmessungen kombiniert. / This thesis investigates some future aspects of Higgs measurements a decade after its discovery, focusing on the potential for future runs of the Large Hadron Collider (LHC). In particular, it aims to probe challenging couplings of the Higgs like its self-coupling and interaction with light quarks. The first part provides an overview of Higgs physics within the Standard Model Effective Field theory (SMEFT). The second part is about single-Higgs production, starting with a two-loop calculation of the gluon fusion component of Zh to reduce its theoretical uncertainties. Then, the potential for constraining the Higgs trilinear self-coupling from single Higgs rates is revisited; by including equally weaklyconstrained four-heavy-quark operators entering at the next-to-leading order in single Higgs rates. These operators highly correlate with the trilinear self-coupling, thus affecting the fits made on this coupling from single Higgs data. The third part focuses on the Higgs pair production, an essential process for measuring Higgs-self coupling, employing multivariate analysis to study its potential for probing light Yukawa couplings; thereby exploring the sensitivity of Higgs pair production for the light-quark Yukawa interactions. Finally, the fourth part showcases some models aiming to explain the recent flavour anomalies in the light of a global SMEFT Bayesian analysis combining flavour and electroweak precision measurements.

Page generated in 0.0645 seconds