• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3
  • 3
  • 2
  • Tagged with
  • 8
  • 8
  • 8
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Stochastische Charakteristiken von Lösungen parabolischer Randanfangswertprobleme mit zufälligen Koeffizienten

Hähnel, Holger 06 May 2010 (has links) (PDF)
Im Mittelpunkt dieser Arbeit steht die Untersuchung des stochastischen Verhaltens von Lösungen parabolischer Randanfangswertprobleme mit zufälligen Koeffizienten. Aufgaben dieser Art entstehen beispielsweise bei der mathematischen Modellierung von Wärmeleitprozessen in Materialien, deren Wärmeleitfähigkeit als zufällige Größe bzw. als zufällige Funktion angesehen werden kann. Die Modellierung dieser stochastischen Einflüsse erfolgt u. a. mit Hilfe von epsilon-korrelierten Funktionen. Um stochastische Charakteristiken wie Erwartungswert-, Korrelations- und Varianzfunktion der Lösung des Randanfangswertproblems näherungsweise zu ermitteln, werden die Ansätze der Finite-Elemente-Methode (FEM), der Fouriermethode sowie der Stochastischen Simulation gewählt. Die beiden erstgenannten Verfahren erfahren eine Kombination mit der Methode der Störungsrechnung, wodurch sich jeweils Entwicklungen der gesuchten Charakteristiken bis zur zweiten Ordnung bezüglich eines Störungsparameters ergeben. Konkrete Ergebnisse werden für einfache ein- und zweidimensionale Gebiete ermittelt. Die Anwendung der Störungsrechnung wird im Fall der FEM zudem analytisch gerechtfertigt. Die Methode der Stochastischen Simulation nutzt die Approximation der eingehenden zufälligen Funktion durch Moving-Average-Felder. Für die Auswertung der auftretenden Integrale bei Anwendung der FEM werden explizite Formeln angegeben. Für einige Beispiele im ein- und zweidimensionalen Fall erfolgt die numerische Umsetzung sowie die grafische Präsentation der Ergebnisse sowie deren Vergleich für die verschiedenen eingesetzten Methoden. / This work focuses on the stochastic behavior of solutions of parabolic initial value problems with random coefficients. This sort of tasks is a result of modeling heat conduction processes on material whose heat conductivity can be considered as a random value or a random function. Stochastic influences are modeled, among others, by epsilon correlated functions. In order to determine stochastic characteristics like expectation value function, correlation function, and variance function of the problems solution approximately, the finite element method (FEM), the Fourier method, and the Monte Carlo Simulation are chosen. The first two methods are combined with perturbation techniques. This leads to expansions of the characteristics up to the second order with respect to a perturbation parameter. Results are determined for cases of one and two dimensional domains. The applicability of perturbation methods is verified for the FEM-based solution. The Monte Carlo Simulation uses the approximation of random functions by moving average fields. Explicit formulas are given for the evaluation of integrals which appear by applying the FEM. The work ends with the presenting of numerical examples for the one and two dimensional case.
2

Approximation stochastischer Charakteristiken von Funktionalen schwach korrelierter Prozesse / Approximation of stochastic characteristics of functionals of weakly correlated random processes

Ilzig, Katrin 09 July 2010 (has links) (PDF)
In praktischen Aufgabenstellungen können zur Modellierung zufälliger Einflüsse, welche sich durch schwache Abhängigkeiten auszeichnen, schwach korrelierte zufällige Funktionen genutzt werden. Die nähere Untersuchung von Funktionalen schwach korrelierter zufälliger Funktionen ist durch die Gestalt der Lösungen von praktischen Fragestellungen motiviert. Die stochastischen Charakteristiken dieser Lösungen lassen sich im Allgemeinen nicht exakt bestimmen, so dass auf Approximationsverfahren zurückgegriffen werden muss. Diese stehen im Mittelpunkt der Dissertation. Zu Beginn werden Entwicklungen von Momenten und Kumulanten der betrachteten linearen Integralfunktionale schwach korrelierter Prozesse nach der Korrelationslänge des Prozesses hergeleitet und eine Vermutung über die exakte Darstellung der Kumulanten formuliert. Für Integralfunktionale von schwach korrelierten Simulationsprozessen, welche aus der Interpolation von Moving-Average-Prozessen entstehen, werden die definierten Charakteristiken hergeleitet. Außerdem steht die Approximation der unbekannten Dichtefunktion im Fokus der Arbeit. Es werden verschiedene Zugänge genutzt. Eine alternative Herleitung zur bereits in der Literatur untersuchten Gram-Charlier-Entwicklung wird in Form der Edgeworth-Entwicklung angegeben. Des Weiteren werden die Sattelpunkt-Approximation und die Maximum-Entropie-Methode untersucht und anhand von Simulationsergebnissen für Integralfunktionale von Simulationsprozessen miteinander verglichen. / In engineering applications stochastic influences which are characterized by weak dependencies can be modelled, among others, by weakly correlated random functions. The solutions of such problems shape up as integral functionals of weakly correlated random functions which motivates more detailed investigations. In general the exact calculation of stochastic characteristics of such integral functionals is impossible so that we have to be content with approximation methods this thesis focuses on. At the beginning expansions of moments and cumulants of linear integral functionals of weakly correlated random processes with respect to the correlation length are considered and an explicit formula of cumulants is conjectured. For integral functionals of weakly correlated random simulation processes, defined as interpolations of moving average processes, the required expansion coefficients are derived. Furthermore the approximation of the unknown probability density is requested. In the thesis there are different approaches used. First we state an alternative way to achieve the already known Gram Charlier approximation by means of Edgeworth expansion. Then we study two further methods, namely the saddlepoint approximation and the maximum entropy method and compare them on the basis of simulation results for integral functionals of simulation processes.
3

The Eukaryotic Chromatin Computer

Arnold, Christian 01 November 2016 (has links) (PDF)
Eukaryotic genomes are typically organized as chromatin, the complex of DNA and proteins that forms chromosomes within the cell\\\'s nucleus. Chromatin has pivotal roles for a multitude of functions, most of which are carried out by a complex system of covalent chemical modifications of histone proteins. The propagation of patterns of these histone post-translational modifications across cell divisions is particularly important for maintenance of the cell state in general and the transcriptional program in particular. The discovery of epigenetic inheritance phenomena - mitotically and/or meiotically heritable changes in gene function resulting from changes in a chromosome without alterations in the DNA sequence - was remarkable because it disproved the assumption that information is passed to daughter cells exclusively through DNA. However, DNA replication constitutes a dramatic disruption of the chromatin state that effectively amounts to partial erasure of stored information. To preserve its epigenetic state the cell reconstructs (at least part of) the histone post-translational modifications by means of processes that are still very poorly understood. A plausible hypothesis is that the different combinations of reader and writer domains in histone-modifying enzymes implement local rewriting rules that are capable of \\\"recomputing\\\" the desired parental patterns of histone post-translational modifications on the basis of the partial information contained in that half of the nucleosomes that predate replication. It is becoming increasingly clear that both information processing and computation are omnipresent and of fundamental importance in many fields of the natural sciences and the cell in particular. The latter is exemplified by the increasingly popular research areas that focus on computing with DNA and membranes. Recent work suggests that during evolution, chromatin has been converted into a powerful cellular memory device capable of storing and processing large amounts of information. Eukaryotic chromatin may therefore also act as a cellular computational device capable of performing actual computations in a biological context. A recent theoretical study indeed demonstrated that even relatively simple models of chromatin computation are computationally universal and hence conceptually more powerful than gene regulatory networks. In the first part of this thesis, I establish a deeper understanding of the computational capacities and limits of chromatin, which have remained largely unexplored. I analyze selected biological building blocks of the chromatin computer and compare it to system components of general purpose computers, particularly focusing on memory and the logical and arithmetical operations. I argue that it has a massively parallel architecture, a set of read-write rules that operate non-deterministically on chromatin, the capability of self-modification, and more generally striking analogies to amorphous computing. I therefore propose a cellular automata-like 1-D string as its computational paradigm on which sets of local rewriting rules are applied asynchronously with time-dependent probabilities. Its mode of operation is therefore conceptually similar to well-known concepts from the complex systems theory. Furthermore, the chromatin computer provides volatile memory with a massive information content that can be exploited by the cell. I estimate that its memory size lies in the realms of several hundred megabytes of writable information per cell, a value that I compare with DNA itself and cis-regulatory modules. I furthermore show that it has the potential to not only perform computations in a biological context but also in a strict informatics sense. At least theoretically it may therefore be used to calculate any computable function or algorithm more generally. Chromatin is therefore another representative of the growing number of non-standard computing examples. As an example for a biological challenge that may be solved by the \\\"chromatin computer\\\", I formulate epigenetic inheritance as a computational problem and develop a flexible stochastic simulation system for the study of recomputation-based epigenetic inheritance of individual histone post-translational modifications. The implementation uses Gillespie\\\'s stochastic simulation algorithm for exactly simulating the time evolution of the chemical master equation of the underlying stochastic process. Furthermore, it is efficient enough to use an evolutionary algorithm to find a system of enzymes that can stably maintain a particular chromatin state across multiple cell divisions. I find that it is easy to evolve such a system of enzymes even without explicit boundary elements separating differentially modified chromatin domains. However, the success of this task depends on several previously unanticipated factors such as the length of the initial state, the specific pattern that should be maintained, the time between replications, and various chemical parameters. All these factors also influence the accumulation of errors in the wake of cell divisions. Chromatin-regulatory processes and epigenetic (inheritance) mechanisms constitute an intricate and sensitive system, and any misregulation may contribute significantly to various diseases such as Alzheimer\\\'s disease. Intriguingly, the role of epigenetics and chromatin-based processes as well as non-coding RNAs in the etiology of Alzheimer\\\'s disease is increasingly being recognized. In the second part of this thesis, I explicitly and systematically address the two hypotheses that (i) a dysregulated chromatin computer plays important roles in Alzheimer\\\'s disease and (ii) Alzheimer\\\'s disease may be considered as an evolutionarily young disease. In summary, I found support for both hypotheses although for hypothesis 1, it is very difficult to establish causalities due to the complexity of the disease. However, I identify numerous chromatin-associated, differentially expressed loci for histone proteins, chromatin-modifying enzymes or integral parts thereof, non-coding RNAs with guiding functions for chromatin-modifying complexes, and proteins that directly or indirectly influence epigenetic stability (e.g., by altering cell cycle regulation and therefore potentially also the stability of epigenetic states). %Notably, we generally observed enrichment of probes located in non-coding regions, particularly antisense to known annotations (e.g., introns). For the identification of differentially expressed loci in Alzheimer\\\'s disease, I use a custom expression microarray that was constructed with a novel bioinformatics pipeline. Despite the emergence of more advanced high-throughput methods such as RNA-seq, microarrays still offer some advantages and will remain a useful and accurate tool for transcriptome profiling and expression studies. However, it is non-trivial to establish an appropriate probe design strategy for custom expression microarrays because alternative splicing and transcription from non-coding regions are much more pervasive than previously appreciated. To obtain an accurate and complete expression atlas of genomic loci of interest in the post-ENCODE era, this additional transcriptional complexity must be considered during microarray design and requires well-considered probe design strategies that are often neglected. This encompasses, for example, adequate preparation of a set of target sequences and accurate estimation of probe specificity. With the help of this pipeline, two custom-tailored microarrays have been constructed that include a comprehensive collection of non-coding RNAs. Additionally, a user-friendly web server has been set up that makes the developed pipeline publicly available for other researchers. / Eukaryotische Genome sind typischerweise in Form von Chromatin organisiert, dem Komplex aus DNA und Proteinen, aus dem die Chromosomen im Zellkern bestehen. Chromatin hat lebenswichtige Funktionen in einer Vielzahl von Prozessen, von denen die meisten durch ein komplexes System von kovalenten Modifikationen an Histon-Proteinen ablaufen. Muster dieser Modifikationen sind wichtige Informationsträger, deren Weitergabe über die Zellteilung hinaus an beide Tochterzellen besonders wichtig für die Aufrechterhaltung des Zellzustandes im Allgemeinen und des Transkriptionsprogrammes im Speziellen ist. Die Entdeckung von epigenetischen Vererbungsphänomenen - mitotisch und/oder meiotisch vererbbare Veränderungen von Genfunktionen, hervorgerufen durch Veränderungen an Chromosomen, die nicht auf Modifikationen der DNA-Sequenz zurückzuführen sind - war bemerkenswert, weil es die Hypothese widerlegt hat, dass Informationen an Tochterzellen ausschließlich durch DNA übertragen werden. Die Replikation der DNA erzeugt eine dramatische Störung des Chromatinzustandes, welche letztendlich ein partielles Löschen der gespeicherten Informationen zur Folge hat. Um den epigenetischen Zustand zu erhalten, muss die Zelle Teile der parentalen Muster der Histonmodifikationen durch Prozesse rekonstruieren, die noch immer sehr wenig verstanden sind. Eine plausible Hypothese postuliert, dass die verschiedenen Kombinationen der Lese- und Schreibdomänen innerhalb von Histon-modifizierenden Enzymen lokale Umschreibregeln implementieren, die letztendlich das parentale Modifikationsmuster der Histone neu errechnen. Dies geschieht auf Basis der partiellen Informationen, die in der Hälfte der vererbten Histone gespeichert sind. Es wird zunehmend klarer, dass sowohl Informationsverarbeitung als auch computerähnliche Berechnungen omnipräsent und in vielen Bereichen der Naturwissenschaften von fundamentaler Bedeutung sind, insbesondere in der Zelle. Dies wird exemplarisch durch die zunehmend populärer werdenden Forschungsbereiche belegt, die sich auf computerähnliche Berechnungen mithilfe von DNA und Membranen konzentrieren. Jüngste Forschungen suggerieren, dass sich Chromatin während der Evolution in eine mächtige zelluläre Speichereinheit entwickelt hat und in der Lage ist, eine große Menge an Informationen zu speichern und zu prozessieren. Eukaryotisches Chromatin könnte also als ein zellulärer Computer agieren, der in der Lage ist, computerähnliche Berechnungen in einem biologischen Kontext auszuführen. Eine theoretische Studie hat kürzlich demonstriert, dass bereits relativ simple Modelle eines Chromatincomputers berechnungsuniversell und damit mächtiger als reine genregulatorische Netzwerke sind. Im ersten Teil meiner Dissertation stelle ich ein tieferes Verständnis des Leistungsvermögens und der Beschränkungen des Chromatincomputers her, welche bisher größtenteils unerforscht waren. Ich analysiere ausgewählte Grundbestandteile des Chromatincomputers und vergleiche sie mit den Komponenten eines klassischen Computers, mit besonderem Fokus auf Speicher sowie logische und arithmetische Operationen. Ich argumentiere, dass Chromatin eine massiv parallele Architektur, eine Menge von Lese-Schreib-Regeln, die nicht-deterministisch auf Chromatin operieren, die Fähigkeit zur Selbstmodifikation, und allgemeine verblüffende Ähnlichkeiten mit amorphen Berechnungsmodellen besitzt. Ich schlage deswegen eine Zellularautomaten-ähnliche eindimensionale Kette als Berechnungsparadigma vor, auf dem lokale Lese-Schreib-Regeln auf asynchrone Weise mit zeitabhängigen Wahrscheinlichkeiten ausgeführt werden. Seine Wirkungsweise ist demzufolge konzeptionell ähnlich zu den wohlbekannten Theorien von komplexen Systemen. Zudem hat der Chromatincomputer volatilen Speicher mit einem massiven Informationsgehalt, der von der Zelle benutzt werden kann. Ich schätze ab, dass die Speicherkapazität im Bereich von mehreren Hundert Megabytes von schreibbarer Information pro Zelle liegt, was ich zudem mit DNA und cis-regulatorischen Modulen vergleiche. Ich zeige weiterhin, dass ein Chromatincomputer nicht nur Berechnungen in einem biologischen Kontext ausführen kann, sondern auch in einem strikt informatischen Sinn. Zumindest theoretisch kann er deswegen für jede berechenbare Funktion benutzt werden. Chromatin ist demzufolge ein weiteres Beispiel für die steigende Anzahl von unkonventionellen Berechnungsmodellen. Als Beispiel für eine biologische Herausforderung, die vom Chromatincomputer gelöst werden kann, formuliere ich die epigenetische Vererbung als rechnergestütztes Problem. Ich entwickle ein flexibles Simulationssystem zur Untersuchung der epigenetische Vererbung von individuellen Histonmodifikationen, welches auf der Neuberechnung der partiell verlorengegangenen Informationen der Histonmodifikationen beruht. Die Implementierung benutzt Gillespies stochastischen Simulationsalgorithmus, um die chemische Mastergleichung der zugrundeliegenden stochastischen Prozesse über die Zeit auf exakte Art und Weise zu modellieren. Der Algorithmus ist zudem effizient genug, um in einen evolutionären Algorithmus eingebettet zu werden. Diese Kombination erlaubt es ein System von Enzymen zu finden, dass einen bestimmten Chromatinstatus über mehrere Zellteilungen hinweg stabil vererben kann. Dabei habe ich festgestellt, dass es relativ einfach ist, ein solches System von Enzymen zu evolvieren, auch ohne explizite Einbindung von Randelementen zur Separierung differentiell modifizierter Chromatindomänen. Dennoch ängt der Erfolg dieser Aufgabe von mehreren bisher unbeachteten Faktoren ab, wie zum Beispiel der Länge der Domäne, dem bestimmten zu vererbenden Muster, der Zeit zwischen Replikationen sowie verschiedenen chemischen Parametern. Alle diese Faktoren beeinflussen die Anhäufung von Fehlern als Folge von Zellteilungen. Chromatin-regulatorische Prozesse und epigenetische Vererbungsmechanismen stellen ein komplexes und sensitives System dar und jede Fehlregulation kann bedeutend zu verschiedenen Krankheiten, wie zum Beispiel der Alzheimerschen Krankheit, beitragen. In der Ätiologie der Alzheimerschen Krankheit wird die Bedeutung von epigenetischen und Chromatin-basierten Prozessen sowie nicht-kodierenden RNAs zunehmend erkannt. Im zweiten Teil der Dissertation adressiere ich explizit und auf systematische Art und Weise die zwei Hypothesen, dass (i) ein fehlregulierter Chromatincomputer eine wichtige Rolle in der Alzheimerschen Krankheit spielt und (ii) die Alzheimersche Krankheit eine evolutionär junge Krankheit darstellt. Zusammenfassend finde ich Belege für beide Hypothesen, obwohl es für erstere schwierig ist, aufgrund der Komplexität der Krankheit Kausalitäten zu etablieren. Dennoch identifiziere ich zahlreiche differentiell exprimierte, Chromatin-assoziierte Bereiche, wie zum Beispiel Histone, Chromatin-modifizierende Enzyme oder deren integrale Bestandteile, nicht-kodierende RNAs mit Führungsfunktionen für Chromatin-modifizierende Komplexe oder Proteine, die direkt oder indirekt epigenetische Stabilität durch veränderte Zellzyklus-Regulation beeinflussen. Zur Identifikation von differentiell exprimierten Bereichen in der Alzheimerschen Krankheit benutze ich einen maßgeschneiderten Expressions-Microarray, der mit Hilfe einer neuartigen Bioinformatik-Pipeline erstellt wurde. Trotz des Aufkommens von weiter fortgeschrittenen Hochdurchsatzmethoden, wie zum Beispiel RNA-seq, haben Microarrays immer noch einige Vorteile und werden ein nützliches und akkurates Werkzeug für Expressionsstudien und Transkriptom-Profiling bleiben. Es ist jedoch nicht trivial eine geeignete Strategie für das Sondendesign von maßgeschneiderten Expressions-Microarrays zu finden, weil alternatives Spleißen und Transkription von nicht-kodierenden Bereichen viel verbreiteter sind als ursprünglich angenommen. Um ein akkurates und vollständiges Bild der Expression von genomischen Bereichen in der Zeit nach dem ENCODE-Projekt zu bekommen, muss diese zusätzliche transkriptionelle Komplexität schon während des Designs eines Microarrays berücksichtigt werden und erfordert daher wohlüberlegte und oft ignorierte Strategien für das Sondendesign. Dies umfasst zum Beispiel eine adäquate Vorbereitung der Zielsequenzen und eine genaue Abschätzung der Sondenspezifität. Mit Hilfe der Pipeline wurden zwei maßgeschneiderte Expressions-Microarrays produziert, die beide eine umfangreiche Sammlung von nicht-kodierenden RNAs beinhalten. Zusätzlich wurde ein nutzerfreundlicher Webserver programmiert, der die entwickelte Pipeline für jeden öffentlich zur Verfügung stellt.
4

Stochastic simulation and analysis of biochemical networks

Pahle, Jürgen 27 June 2008 (has links)
Stochastische Effekte können einen großen Einfluss auf die Funktionsweise von biochemischen Netzwerken haben. Vor allem Signalwege, z.B. Calciumsignaltransduktion, sind anfällig gegenüber zufälligen Schwankungen. Daher stellt sich die wichtige Frage, wie dadurch der Informationstransfer in diesen Systemen beeinträchtigt wird. Zunächst werden eine Reihe von stochastischen Simulationsmethoden diskutiert und systematisch klassifiziert. Dies dient als methodische Grundlage der ganzen Dissertation. Der Schwerpunkt liegt hier auf approximativen und hybriden Ansätzen, einschließlich der Hybridmethode des Softwaresystems Copasi, deren Implementierung Teil dieser Arbeit war. Die Dynamik biochemischer Systeme zeigt in den meisten Fällen einen Übergang von stochastischem zu deterministischem Verhalten mit steigender Partikelzahl. Dieser Übergang wird für Calciumsignaltransduktion und andere Systeme untersucht. Es zeigt sich, dass das Auftreten stochastischer Effekte stark von der Sensitivität des Systems abhängt. Ein Maß dafür ist die Divergenz. Systeme mit hoher Divergenz zeigen noch mit hohen Teilchenzahlen stochastische Effekte und umgekehrt. Schließlich wird der Einfluss von zufälligen Fluktuationen auf die Leistungsfähigkeit von Signalpfaden erforscht. Dazu werden simulierte sowie experimentell gemessene Calcium-Zeitreihen stochastisch an die Aktivierung eines Zielenzyms gekoppelt. Das Schätzen des informationstheoretischen Maßes Transferentropie unter unterschiedlichen zellulären Bedingungen dient zur Abschätzung des Informationstransfers. Dieser nimmt mit steigender Partikelzahl zu, ist jedoch sehr abhängig von der momentanen Dynamik (z.B. spikende, burstende oder irreguläre Oszillationen). Die hier entwickelten Methoden, wie der Gebrauch der Divergenz als Indikator für den stoch./det. Übergang oder die stochastische Kopplung und informationstheoretische Analyse mittels Transferentropie, sind wertvolle Werkzeuge für die Analyse von biochemischen Systemen. / Stochastic effects in biochemical networks can affect the functioning of these systems significantly. Signaling pathways, such as calcium signal transduction, are particularly prone to random fluctuations. Thus, an important question is how this influences the information transfer in these pathways. First, a comprehensive overview and systematic classification of stochastic simulation methods is given as methodical basis for the thesis. Here, the focus is on approximate and hybrid approaches. Also, the hybrid solver in the software system Copasi is described whose implementation was part of this PhD work. Then, in most cases, the dynamic behavior of biochemical systems shows a transition from stochastic to deterministic behavior with increasing particle numbers. This transition is studied in calcium signaling as well as other test systems. It turns out that the onset of stochastic effects is very dependent on the sensitivity of the specific system quantified by its divergence. Systems with high divergence show stochastic effects even with high particle numbers and vice versa. Finally, the influence of noise on the performance of signaling pathways is investigated. Simulated and experimentally measured calcium time series are stochastically coupled to an intracellular target enzyme activation process. Then, the information transfer under different cellular conditions is estimated with the information-theoretic quantity transfer entropy. The amount of information that can be transferred increases with rising particle numbers. However, this increase is very dependent on the current dynamical mode of the system, such as spiking, bursting or irregular oscillations. The methods developed in this thesis, such as the use of the divergence as an indicator for the transition from stochastic to deterministic behavior or the stochastic coupling and information-theoretic analysis using transfer entropy, are valuable tools for the analysis of biochemical systems.
5

Stochastische Charakteristiken von Lösungen parabolischer Randanfangswertprobleme mit zufälligen Koeffizienten

Hähnel, Holger 28 April 2010 (has links)
Im Mittelpunkt dieser Arbeit steht die Untersuchung des stochastischen Verhaltens von Lösungen parabolischer Randanfangswertprobleme mit zufälligen Koeffizienten. Aufgaben dieser Art entstehen beispielsweise bei der mathematischen Modellierung von Wärmeleitprozessen in Materialien, deren Wärmeleitfähigkeit als zufällige Größe bzw. als zufällige Funktion angesehen werden kann. Die Modellierung dieser stochastischen Einflüsse erfolgt u. a. mit Hilfe von epsilon-korrelierten Funktionen. Um stochastische Charakteristiken wie Erwartungswert-, Korrelations- und Varianzfunktion der Lösung des Randanfangswertproblems näherungsweise zu ermitteln, werden die Ansätze der Finite-Elemente-Methode (FEM), der Fouriermethode sowie der Stochastischen Simulation gewählt. Die beiden erstgenannten Verfahren erfahren eine Kombination mit der Methode der Störungsrechnung, wodurch sich jeweils Entwicklungen der gesuchten Charakteristiken bis zur zweiten Ordnung bezüglich eines Störungsparameters ergeben. Konkrete Ergebnisse werden für einfache ein- und zweidimensionale Gebiete ermittelt. Die Anwendung der Störungsrechnung wird im Fall der FEM zudem analytisch gerechtfertigt. Die Methode der Stochastischen Simulation nutzt die Approximation der eingehenden zufälligen Funktion durch Moving-Average-Felder. Für die Auswertung der auftretenden Integrale bei Anwendung der FEM werden explizite Formeln angegeben. Für einige Beispiele im ein- und zweidimensionalen Fall erfolgt die numerische Umsetzung sowie die grafische Präsentation der Ergebnisse sowie deren Vergleich für die verschiedenen eingesetzten Methoden. / This work focuses on the stochastic behavior of solutions of parabolic initial value problems with random coefficients. This sort of tasks is a result of modeling heat conduction processes on material whose heat conductivity can be considered as a random value or a random function. Stochastic influences are modeled, among others, by epsilon correlated functions. In order to determine stochastic characteristics like expectation value function, correlation function, and variance function of the problems solution approximately, the finite element method (FEM), the Fourier method, and the Monte Carlo Simulation are chosen. The first two methods are combined with perturbation techniques. This leads to expansions of the characteristics up to the second order with respect to a perturbation parameter. Results are determined for cases of one and two dimensional domains. The applicability of perturbation methods is verified for the FEM-based solution. The Monte Carlo Simulation uses the approximation of random functions by moving average fields. Explicit formulas are given for the evaluation of integrals which appear by applying the FEM. The work ends with the presenting of numerical examples for the one and two dimensional case.
6

Approximation stochastischer Charakteristiken von Funktionalen schwach korrelierter Prozesse

Ilzig, Katrin 02 June 2010 (has links)
In praktischen Aufgabenstellungen können zur Modellierung zufälliger Einflüsse, welche sich durch schwache Abhängigkeiten auszeichnen, schwach korrelierte zufällige Funktionen genutzt werden. Die nähere Untersuchung von Funktionalen schwach korrelierter zufälliger Funktionen ist durch die Gestalt der Lösungen von praktischen Fragestellungen motiviert. Die stochastischen Charakteristiken dieser Lösungen lassen sich im Allgemeinen nicht exakt bestimmen, so dass auf Approximationsverfahren zurückgegriffen werden muss. Diese stehen im Mittelpunkt der Dissertation. Zu Beginn werden Entwicklungen von Momenten und Kumulanten der betrachteten linearen Integralfunktionale schwach korrelierter Prozesse nach der Korrelationslänge des Prozesses hergeleitet und eine Vermutung über die exakte Darstellung der Kumulanten formuliert. Für Integralfunktionale von schwach korrelierten Simulationsprozessen, welche aus der Interpolation von Moving-Average-Prozessen entstehen, werden die definierten Charakteristiken hergeleitet. Außerdem steht die Approximation der unbekannten Dichtefunktion im Fokus der Arbeit. Es werden verschiedene Zugänge genutzt. Eine alternative Herleitung zur bereits in der Literatur untersuchten Gram-Charlier-Entwicklung wird in Form der Edgeworth-Entwicklung angegeben. Des Weiteren werden die Sattelpunkt-Approximation und die Maximum-Entropie-Methode untersucht und anhand von Simulationsergebnissen für Integralfunktionale von Simulationsprozessen miteinander verglichen. / In engineering applications stochastic influences which are characterized by weak dependencies can be modelled, among others, by weakly correlated random functions. The solutions of such problems shape up as integral functionals of weakly correlated random functions which motivates more detailed investigations. In general the exact calculation of stochastic characteristics of such integral functionals is impossible so that we have to be content with approximation methods this thesis focuses on. At the beginning expansions of moments and cumulants of linear integral functionals of weakly correlated random processes with respect to the correlation length are considered and an explicit formula of cumulants is conjectured. For integral functionals of weakly correlated random simulation processes, defined as interpolations of moving average processes, the required expansion coefficients are derived. Furthermore the approximation of the unknown probability density is requested. In the thesis there are different approaches used. First we state an alternative way to achieve the already known Gram Charlier approximation by means of Edgeworth expansion. Then we study two further methods, namely the saddlepoint approximation and the maximum entropy method and compare them on the basis of simulation results for integral functionals of simulation processes.
7

The Eukaryotic Chromatin Computer: Components, Mode of Action, Properties, Tasks, Computational Power, and Disease Relevance

Arnold, Christian 14 February 2014 (has links)
Eukaryotic genomes are typically organized as chromatin, the complex of DNA and proteins that forms chromosomes within the cell\\\''s nucleus. Chromatin has pivotal roles for a multitude of functions, most of which are carried out by a complex system of covalent chemical modifications of histone proteins. The propagation of patterns of these histone post-translational modifications across cell divisions is particularly important for maintenance of the cell state in general and the transcriptional program in particular. The discovery of epigenetic inheritance phenomena - mitotically and/or meiotically heritable changes in gene function resulting from changes in a chromosome without alterations in the DNA sequence - was remarkable because it disproved the assumption that information is passed to daughter cells exclusively through DNA. However, DNA replication constitutes a dramatic disruption of the chromatin state that effectively amounts to partial erasure of stored information. To preserve its epigenetic state the cell reconstructs (at least part of) the histone post-translational modifications by means of processes that are still very poorly understood. A plausible hypothesis is that the different combinations of reader and writer domains in histone-modifying enzymes implement local rewriting rules that are capable of \\\"recomputing\\\" the desired parental patterns of histone post-translational modifications on the basis of the partial information contained in that half of the nucleosomes that predate replication. It is becoming increasingly clear that both information processing and computation are omnipresent and of fundamental importance in many fields of the natural sciences and the cell in particular. The latter is exemplified by the increasingly popular research areas that focus on computing with DNA and membranes. Recent work suggests that during evolution, chromatin has been converted into a powerful cellular memory device capable of storing and processing large amounts of information. Eukaryotic chromatin may therefore also act as a cellular computational device capable of performing actual computations in a biological context. A recent theoretical study indeed demonstrated that even relatively simple models of chromatin computation are computationally universal and hence conceptually more powerful than gene regulatory networks. In the first part of this thesis, I establish a deeper understanding of the computational capacities and limits of chromatin, which have remained largely unexplored. I analyze selected biological building blocks of the chromatin computer and compare it to system components of general purpose computers, particularly focusing on memory and the logical and arithmetical operations. I argue that it has a massively parallel architecture, a set of read-write rules that operate non-deterministically on chromatin, the capability of self-modification, and more generally striking analogies to amorphous computing. I therefore propose a cellular automata-like 1-D string as its computational paradigm on which sets of local rewriting rules are applied asynchronously with time-dependent probabilities. Its mode of operation is therefore conceptually similar to well-known concepts from the complex systems theory. Furthermore, the chromatin computer provides volatile memory with a massive information content that can be exploited by the cell. I estimate that its memory size lies in the realms of several hundred megabytes of writable information per cell, a value that I compare with DNA itself and cis-regulatory modules. I furthermore show that it has the potential to not only perform computations in a biological context but also in a strict informatics sense. At least theoretically it may therefore be used to calculate any computable function or algorithm more generally. Chromatin is therefore another representative of the growing number of non-standard computing examples. As an example for a biological challenge that may be solved by the \\\"chromatin computer\\\", I formulate epigenetic inheritance as a computational problem and develop a flexible stochastic simulation system for the study of recomputation-based epigenetic inheritance of individual histone post-translational modifications. The implementation uses Gillespie\\\''s stochastic simulation algorithm for exactly simulating the time evolution of the chemical master equation of the underlying stochastic process. Furthermore, it is efficient enough to use an evolutionary algorithm to find a system of enzymes that can stably maintain a particular chromatin state across multiple cell divisions. I find that it is easy to evolve such a system of enzymes even without explicit boundary elements separating differentially modified chromatin domains. However, the success of this task depends on several previously unanticipated factors such as the length of the initial state, the specific pattern that should be maintained, the time between replications, and various chemical parameters. All these factors also influence the accumulation of errors in the wake of cell divisions. Chromatin-regulatory processes and epigenetic (inheritance) mechanisms constitute an intricate and sensitive system, and any misregulation may contribute significantly to various diseases such as Alzheimer\\\''s disease. Intriguingly, the role of epigenetics and chromatin-based processes as well as non-coding RNAs in the etiology of Alzheimer\\\''s disease is increasingly being recognized. In the second part of this thesis, I explicitly and systematically address the two hypotheses that (i) a dysregulated chromatin computer plays important roles in Alzheimer\\\''s disease and (ii) Alzheimer\\\''s disease may be considered as an evolutionarily young disease. In summary, I found support for both hypotheses although for hypothesis 1, it is very difficult to establish causalities due to the complexity of the disease. However, I identify numerous chromatin-associated, differentially expressed loci for histone proteins, chromatin-modifying enzymes or integral parts thereof, non-coding RNAs with guiding functions for chromatin-modifying complexes, and proteins that directly or indirectly influence epigenetic stability (e.g., by altering cell cycle regulation and therefore potentially also the stability of epigenetic states). %Notably, we generally observed enrichment of probes located in non-coding regions, particularly antisense to known annotations (e.g., introns). For the identification of differentially expressed loci in Alzheimer\\\''s disease, I use a custom expression microarray that was constructed with a novel bioinformatics pipeline. Despite the emergence of more advanced high-throughput methods such as RNA-seq, microarrays still offer some advantages and will remain a useful and accurate tool for transcriptome profiling and expression studies. However, it is non-trivial to establish an appropriate probe design strategy for custom expression microarrays because alternative splicing and transcription from non-coding regions are much more pervasive than previously appreciated. To obtain an accurate and complete expression atlas of genomic loci of interest in the post-ENCODE era, this additional transcriptional complexity must be considered during microarray design and requires well-considered probe design strategies that are often neglected. This encompasses, for example, adequate preparation of a set of target sequences and accurate estimation of probe specificity. With the help of this pipeline, two custom-tailored microarrays have been constructed that include a comprehensive collection of non-coding RNAs. Additionally, a user-friendly web server has been set up that makes the developed pipeline publicly available for other researchers. / Eukaryotische Genome sind typischerweise in Form von Chromatin organisiert, dem Komplex aus DNA und Proteinen, aus dem die Chromosomen im Zellkern bestehen. Chromatin hat lebenswichtige Funktionen in einer Vielzahl von Prozessen, von denen die meisten durch ein komplexes System von kovalenten Modifikationen an Histon-Proteinen ablaufen. Muster dieser Modifikationen sind wichtige Informationsträger, deren Weitergabe über die Zellteilung hinaus an beide Tochterzellen besonders wichtig für die Aufrechterhaltung des Zellzustandes im Allgemeinen und des Transkriptionsprogrammes im Speziellen ist. Die Entdeckung von epigenetischen Vererbungsphänomenen - mitotisch und/oder meiotisch vererbbare Veränderungen von Genfunktionen, hervorgerufen durch Veränderungen an Chromosomen, die nicht auf Modifikationen der DNA-Sequenz zurückzuführen sind - war bemerkenswert, weil es die Hypothese widerlegt hat, dass Informationen an Tochterzellen ausschließlich durch DNA übertragen werden. Die Replikation der DNA erzeugt eine dramatische Störung des Chromatinzustandes, welche letztendlich ein partielles Löschen der gespeicherten Informationen zur Folge hat. Um den epigenetischen Zustand zu erhalten, muss die Zelle Teile der parentalen Muster der Histonmodifikationen durch Prozesse rekonstruieren, die noch immer sehr wenig verstanden sind. Eine plausible Hypothese postuliert, dass die verschiedenen Kombinationen der Lese- und Schreibdomänen innerhalb von Histon-modifizierenden Enzymen lokale Umschreibregeln implementieren, die letztendlich das parentale Modifikationsmuster der Histone neu errechnen. Dies geschieht auf Basis der partiellen Informationen, die in der Hälfte der vererbten Histone gespeichert sind. Es wird zunehmend klarer, dass sowohl Informationsverarbeitung als auch computerähnliche Berechnungen omnipräsent und in vielen Bereichen der Naturwissenschaften von fundamentaler Bedeutung sind, insbesondere in der Zelle. Dies wird exemplarisch durch die zunehmend populärer werdenden Forschungsbereiche belegt, die sich auf computerähnliche Berechnungen mithilfe von DNA und Membranen konzentrieren. Jüngste Forschungen suggerieren, dass sich Chromatin während der Evolution in eine mächtige zelluläre Speichereinheit entwickelt hat und in der Lage ist, eine große Menge an Informationen zu speichern und zu prozessieren. Eukaryotisches Chromatin könnte also als ein zellulärer Computer agieren, der in der Lage ist, computerähnliche Berechnungen in einem biologischen Kontext auszuführen. Eine theoretische Studie hat kürzlich demonstriert, dass bereits relativ simple Modelle eines Chromatincomputers berechnungsuniversell und damit mächtiger als reine genregulatorische Netzwerke sind. Im ersten Teil meiner Dissertation stelle ich ein tieferes Verständnis des Leistungsvermögens und der Beschränkungen des Chromatincomputers her, welche bisher größtenteils unerforscht waren. Ich analysiere ausgewählte Grundbestandteile des Chromatincomputers und vergleiche sie mit den Komponenten eines klassischen Computers, mit besonderem Fokus auf Speicher sowie logische und arithmetische Operationen. Ich argumentiere, dass Chromatin eine massiv parallele Architektur, eine Menge von Lese-Schreib-Regeln, die nicht-deterministisch auf Chromatin operieren, die Fähigkeit zur Selbstmodifikation, und allgemeine verblüffende Ähnlichkeiten mit amorphen Berechnungsmodellen besitzt. Ich schlage deswegen eine Zellularautomaten-ähnliche eindimensionale Kette als Berechnungsparadigma vor, auf dem lokale Lese-Schreib-Regeln auf asynchrone Weise mit zeitabhängigen Wahrscheinlichkeiten ausgeführt werden. Seine Wirkungsweise ist demzufolge konzeptionell ähnlich zu den wohlbekannten Theorien von komplexen Systemen. Zudem hat der Chromatincomputer volatilen Speicher mit einem massiven Informationsgehalt, der von der Zelle benutzt werden kann. Ich schätze ab, dass die Speicherkapazität im Bereich von mehreren Hundert Megabytes von schreibbarer Information pro Zelle liegt, was ich zudem mit DNA und cis-regulatorischen Modulen vergleiche. Ich zeige weiterhin, dass ein Chromatincomputer nicht nur Berechnungen in einem biologischen Kontext ausführen kann, sondern auch in einem strikt informatischen Sinn. Zumindest theoretisch kann er deswegen für jede berechenbare Funktion benutzt werden. Chromatin ist demzufolge ein weiteres Beispiel für die steigende Anzahl von unkonventionellen Berechnungsmodellen. Als Beispiel für eine biologische Herausforderung, die vom Chromatincomputer gelöst werden kann, formuliere ich die epigenetische Vererbung als rechnergestütztes Problem. Ich entwickle ein flexibles Simulationssystem zur Untersuchung der epigenetische Vererbung von individuellen Histonmodifikationen, welches auf der Neuberechnung der partiell verlorengegangenen Informationen der Histonmodifikationen beruht. Die Implementierung benutzt Gillespies stochastischen Simulationsalgorithmus, um die chemische Mastergleichung der zugrundeliegenden stochastischen Prozesse über die Zeit auf exakte Art und Weise zu modellieren. Der Algorithmus ist zudem effizient genug, um in einen evolutionären Algorithmus eingebettet zu werden. Diese Kombination erlaubt es ein System von Enzymen zu finden, dass einen bestimmten Chromatinstatus über mehrere Zellteilungen hinweg stabil vererben kann. Dabei habe ich festgestellt, dass es relativ einfach ist, ein solches System von Enzymen zu evolvieren, auch ohne explizite Einbindung von Randelementen zur Separierung differentiell modifizierter Chromatindomänen. Dennoch ängt der Erfolg dieser Aufgabe von mehreren bisher unbeachteten Faktoren ab, wie zum Beispiel der Länge der Domäne, dem bestimmten zu vererbenden Muster, der Zeit zwischen Replikationen sowie verschiedenen chemischen Parametern. Alle diese Faktoren beeinflussen die Anhäufung von Fehlern als Folge von Zellteilungen. Chromatin-regulatorische Prozesse und epigenetische Vererbungsmechanismen stellen ein komplexes und sensitives System dar und jede Fehlregulation kann bedeutend zu verschiedenen Krankheiten, wie zum Beispiel der Alzheimerschen Krankheit, beitragen. In der Ätiologie der Alzheimerschen Krankheit wird die Bedeutung von epigenetischen und Chromatin-basierten Prozessen sowie nicht-kodierenden RNAs zunehmend erkannt. Im zweiten Teil der Dissertation adressiere ich explizit und auf systematische Art und Weise die zwei Hypothesen, dass (i) ein fehlregulierter Chromatincomputer eine wichtige Rolle in der Alzheimerschen Krankheit spielt und (ii) die Alzheimersche Krankheit eine evolutionär junge Krankheit darstellt. Zusammenfassend finde ich Belege für beide Hypothesen, obwohl es für erstere schwierig ist, aufgrund der Komplexität der Krankheit Kausalitäten zu etablieren. Dennoch identifiziere ich zahlreiche differentiell exprimierte, Chromatin-assoziierte Bereiche, wie zum Beispiel Histone, Chromatin-modifizierende Enzyme oder deren integrale Bestandteile, nicht-kodierende RNAs mit Führungsfunktionen für Chromatin-modifizierende Komplexe oder Proteine, die direkt oder indirekt epigenetische Stabilität durch veränderte Zellzyklus-Regulation beeinflussen. Zur Identifikation von differentiell exprimierten Bereichen in der Alzheimerschen Krankheit benutze ich einen maßgeschneiderten Expressions-Microarray, der mit Hilfe einer neuartigen Bioinformatik-Pipeline erstellt wurde. Trotz des Aufkommens von weiter fortgeschrittenen Hochdurchsatzmethoden, wie zum Beispiel RNA-seq, haben Microarrays immer noch einige Vorteile und werden ein nützliches und akkurates Werkzeug für Expressionsstudien und Transkriptom-Profiling bleiben. Es ist jedoch nicht trivial eine geeignete Strategie für das Sondendesign von maßgeschneiderten Expressions-Microarrays zu finden, weil alternatives Spleißen und Transkription von nicht-kodierenden Bereichen viel verbreiteter sind als ursprünglich angenommen. Um ein akkurates und vollständiges Bild der Expression von genomischen Bereichen in der Zeit nach dem ENCODE-Projekt zu bekommen, muss diese zusätzliche transkriptionelle Komplexität schon während des Designs eines Microarrays berücksichtigt werden und erfordert daher wohlüberlegte und oft ignorierte Strategien für das Sondendesign. Dies umfasst zum Beispiel eine adäquate Vorbereitung der Zielsequenzen und eine genaue Abschätzung der Sondenspezifität. Mit Hilfe der Pipeline wurden zwei maßgeschneiderte Expressions-Microarrays produziert, die beide eine umfangreiche Sammlung von nicht-kodierenden RNAs beinhalten. Zusätzlich wurde ein nutzerfreundlicher Webserver programmiert, der die entwickelte Pipeline für jeden öffentlich zur Verfügung stellt.
8

Analyse der EU-Milchmarktpolitik bei Unsicherheit

Grams, Michael 10 March 2004 (has links)
Agrarmärkte sind oft durch Unsicherheit gekennzeichnet - hervorgerufen vor allem durch Zufallsschwankungen in Angebot und Nachfrage. Das Ziel der vorliegenden Studie besteht darin, die Konsequenzen solcher Unsicherheiten für die Bewertung und Gestaltung der vor einer grundlegenden Neuausrichtung stehenden EU-Milchmarktpolitik zu untersuchen. Zunächst legen empirische Betrachtungen anhand der Zeitreihen verschiedener Marktgrößen nahe, dass Unsicherheit für die Akteure auf dem EU-Milchmarkt tatsächlich ein relevantes Phänomen ist. So sind etwa Preisschwankungen trotz der auf eine Marktstabilisierung ausgerichteten staatlichen Eingriffe zu beobachten. Anhaltspunkte konnten auch zu den Ursachen der Marktunsicherheiten gewonnen werden. Während Angebot und Nachfrage in der EU eine eher stabile Entwicklung aufweisen, neigen die internationalen Milchproduktmärkte zu Fluktuationen. Zur Analyse der Auswirkungen staatlicher Eingriffe auf dem Milchmarkt bei Unsicherheit dient ein stochastisches partielles Marktgleichgewichtsmodell. Das Modell bildet die spezifischen Strukturen des Milchmarkts mit dem Rohmilchangebot, der Milchverarbeitung und der Nachfrage nach den verschiedenen Milchprodukten ab. Zur Integration von Unsicherheit wird die Modellstruktur um stochastische Variablen in den Angebots- und Nachfragefunktionen erweitert. Mit Quotenregelung, Zöllen und Exporterstattungen lassen sich wesentliche Politikinstrumente untersuchen. Gegenstand der Betrachtungen sind mögliche Auswirkungen einer neuen multilateralen Handelsvereinbarung im Rahmen der Welthandelsorganisation (WTO) sowie die Effekte dreier für den Milchmarkt formulierter Politikszenarien. Diese Politikoptionen sind die im Juni 2003 in Luxemburg beschlossene Agrarreform, eine in der Fachöffentlichkeit oft diskutierte Quotenkürzung und eine vollständige Liberalisierung des Milchmarkts samt Quotenabschaffung. Die Ergebnisse zeigen, dass veränderte Preis- und Mengeneingriffe nicht nur zu Verschiebungen im Niveau von Zielgrößen, wie beispielsweise von Erzeugerpreisen und Erlösen in der EU und auf Drittlandsmärkten führen, sondern ebenso zu veränderten Streuungen. Zusätzliche Einsichten vermitteln die Ergebnisse darüber hinaus bezüglich der Unsicherheit in der Planung der öffentlichen Ausgaben am Milchmarkt und in der Vorhersage der Wohlfahrtseffekte von Politikänderungen. Gegenüber einer deterministischen Betrachtung wird eine Politikanalyse am Milchmarkt unter expliziter Berücksichtigung von Unsicherheit damit komplexer und die Beurteilung von Politikoptionen differenzierter.

Page generated in 0.5377 seconds