• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 103
  • 64
  • 22
  • 8
  • Tagged with
  • 197
  • 126
  • 102
  • 93
  • 70
  • 68
  • 68
  • 37
  • 27
  • 22
  • 21
  • 21
  • 19
  • 17
  • 15
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Integration and analysis of phenotypic data from functional screens

Paszkowski-Rogacz, Maciej 10 January 2011 (has links) (PDF)
Motivation: Although various high-throughput technologies provide a lot of valuable information, each of them is giving an insight into different aspects of cellular activity and each has its own limitations. Thus, a complete and systematic understanding of the cellular machinery can be achieved only by a combined analysis of results coming from different approaches. However, methods and tools for integration and analysis of heterogenous biological data still have to be developed. Results: This work presents systemic analysis of basic cellular processes, i.e. cell viability and cell cycle, as well as embryonic stem cell pluripotency and differentiation. These phenomena were studied using several high-throughput technologies, whose combined results were analysed with existing and novel clustering and hit selection algorithms. This thesis also introduces two novel data management and data analysis tools. The first, called DSViewer, is a database application designed for integrating and querying results coming from various genome-wide experiments. The second, named PhenoFam, is an application performing gene set enrichment analysis by employing structural and functional information on families of protein domains as annotation terms. Both programs are accessible through a web interface. Conclusions: Eventually, investigations presented in this work provide the research community with novel and markedly improved repertoire of computational tools and methods that facilitate the systematic analysis of accumulated information obtained from high-throughput studies into novel biological insights.
82

A Bridge between Short-Range and Seasonal Forecasts: Data-Based First Passage Time Prediction in Temperatures

Wulffen, Anja von 18 February 2013 (has links) (PDF)
Current conventional weather forecasts are based on high-dimensional numerical models. They are usually only skillful up to a maximum lead time of around 7 days due to the chaotic nature of the climate dynamics and the related exponential growth of model and data initialisation errors. Even the fully detailed medium-range predictions made for instance at the European Centre for Medium-Range Weather Forecasts do not exceed lead times of 14 days, while even longer-range predictions are limited to time-averaged forecast outputs only. Many sectors would profit significantly from accurate forecasts on seasonal time scales without needing the wealth of details a full dynamical model can deliver. In this thesis, we aim to study the potential of a much cheaper data-based statistical approach to provide predictions of comparable or even better skill up to seasonal lead times, using as an examplary forecast target the time until the next occurrence of frost. To this end, we first analyse the properties of the temperature anomaly time series obtained from measured data by subtracting a sinusoidal seasonal cycle, as well as the distribution properties of the first passage times to frost. The possibility of generating additional temperature anomaly data with the same properties by using very simple autoregressive model processes to potentially reduce the statistical fluctuations in our analysis is investigated and ultimately rejected. In a next step, we study the potential for predictability using only conditional first passage time distributions derived from the temperature anomaly time series and confirm a significant dependence of the distributions on the initial conditions. After this preliminary analysis, we issue data-based out-of-sample forecasts for three different prediction targets: The specific date of first frost, the probability of observing frost before summer for forecasts issued in spring, and the full probability distribution of the first passage times to frost. We then study the possibility of improving the forecast quality first by enhancing the stationarity of the temperature anomaly time series and then by adding as an additional input variable the state of the North Atlantic Oscillation on the date the predictions are issued. We are able to obtain significant forecast skill up to seasonal lead times when comparing our results to an unskilled reference forecast. A first comparison between the data-based forecasts and corresponding predictions gathered from a dynamical weather model, necessarily using a lead time of only up to 15 days, shows that our simple statistical schemes are only outperformed (and then only slightly) if further statistical post-processing is applied to the model output. / Aktuelle Wetterprognosen werden mit Hilfe von hochdimensionalen, numerischen Modellen generiert. Durch die dem Klima zugrunde liegende chaotische Dynamik wachsen Modellfehler und Ungenauigkeiten in der Modellinitialisierung exponentiell an, sodass Vorhersagen mit signifikanter Güte üblicherweise nur für eine Vorlaufzeit von maximal sieben Tagen möglich sind. Selbst die detaillierten Prognosen des Europäischen Zentrums für mittelfristige Wettervorhersagen gehen nicht über eine Vorlaufzeit von 14 Tagen hinaus, während noch längerfristigere Vorhersagen auf zeitgemittelte Größen beschränkt sind. Viele Branchen würden signifikant von akkuraten Vorhersagen auf saisonalen Zeitskalen pro-fitieren, ohne das ganze Ausmaß an Details zu benötigen, das von einem vollständigen dynamischen Modell geliefert werden kann. In dieser Dissertation beabsichtigen wir, am Beispiel einer Vorhersage der Zeitdauer bis zum nächsten Eintreten von Frost zu untersuchen, inwieweit deutlich kostengünstigere, datenbasierte statistische Verfahren Prognosen von gleicher oder sogar besserer Güte auf bis zu saisonalen Zeitskalen liefern können. Dazu analysieren wir zunächst die Eigenschaften der Zeitreihe der Temperaturanomalien, die aus den Messdaten durch das Subtrahieren eines sinusförmigen Jahresganges erhalten werden, sowie die Charakteristiken der Wahrscheinlichkeitsverteilungen der Zeitdauer bis zum nächsten Eintreten von Frost. Die Möglichkeit, durch einen einfachen autoregressiven Modellprozess zusätzliche Datenpunkte gleicher statistischer Eigenschaften wie der Temperaturanomalien zu generieren, um die statistischen Fluktuationen in der Analyse zu reduzieren, wird untersucht und letztendlich verworfen. Im nächsten Schritt analysieren wir das Vorhersagepotential, wenn ausschließlich aus den Temperaturanomalien gewonnene bedingte Wahrscheinlichkeitsverteilungen der Wartezeit bis zum nächsten Frost verwendet werden, und können eine signifikante Abhängigkeit der Verteilungen von den Anfangsbedingungen nachweisen. Nach dieser einleitenden Untersuchung erstellen wir datenbasierte Prognosen für drei verschiedene Vorhersagegrößen: Das konkrete Datum, an dem es das nächste Mal Frost geben wird; die Wahrscheinlichkeit, noch vor dem Sommer Frost zu beobachten, wenn die Vorhersagen im Frühjahr ausgegeben werden; und die volle Wahrscheinlichkeitsverteilung der Zeitdauer bis zum nächsten Eintreten von Frost. Anschließend untersuchen wir die Möglichkeit, die Vorhersagegüte weiter zu erhöhen - zunächst durch eine Verbesserung der Stationarität der Temperaturanomalien und dann durch die zusätzliche Berücksichtigung der Nordatlantischen Oszillation als einer zweiten, den Anfangszustand charakterisierenden Variablen im Vorhersageschema. Wir sind in der Lage, im Vergleich mit einem naiven Referenzvorhersageschema eine signifikante Verbesserung der Vorhersagegüte auch auf saisonalen Zeitskalen zu erreichen. Ein erster Vergleich zwischen den datenbasierten Vorhersagen und entsprechenden, aus den dynamischen Wettermodellen gewonnenen Prognosen, der sich notwendigerweise auf eine Vorlaufzeit der Vorhersagen von lediglich 15 Tagen beschränkt, zeigt, dass letztere unsere simplen statistischen Vorhersageschemata nur schlagen (und zwar knapp), wenn der Modelloutput noch einer statistischen Nachbearbeitung unterzogen wird.
83

A Bridge between Short-Range and Seasonal Forecasts: Data-Based First Passage Time Prediction in Temperatures

Wulffen, Anja von 25 January 2013 (has links)
Current conventional weather forecasts are based on high-dimensional numerical models. They are usually only skillful up to a maximum lead time of around 7 days due to the chaotic nature of the climate dynamics and the related exponential growth of model and data initialisation errors. Even the fully detailed medium-range predictions made for instance at the European Centre for Medium-Range Weather Forecasts do not exceed lead times of 14 days, while even longer-range predictions are limited to time-averaged forecast outputs only. Many sectors would profit significantly from accurate forecasts on seasonal time scales without needing the wealth of details a full dynamical model can deliver. In this thesis, we aim to study the potential of a much cheaper data-based statistical approach to provide predictions of comparable or even better skill up to seasonal lead times, using as an examplary forecast target the time until the next occurrence of frost. To this end, we first analyse the properties of the temperature anomaly time series obtained from measured data by subtracting a sinusoidal seasonal cycle, as well as the distribution properties of the first passage times to frost. The possibility of generating additional temperature anomaly data with the same properties by using very simple autoregressive model processes to potentially reduce the statistical fluctuations in our analysis is investigated and ultimately rejected. In a next step, we study the potential for predictability using only conditional first passage time distributions derived from the temperature anomaly time series and confirm a significant dependence of the distributions on the initial conditions. After this preliminary analysis, we issue data-based out-of-sample forecasts for three different prediction targets: The specific date of first frost, the probability of observing frost before summer for forecasts issued in spring, and the full probability distribution of the first passage times to frost. We then study the possibility of improving the forecast quality first by enhancing the stationarity of the temperature anomaly time series and then by adding as an additional input variable the state of the North Atlantic Oscillation on the date the predictions are issued. We are able to obtain significant forecast skill up to seasonal lead times when comparing our results to an unskilled reference forecast. A first comparison between the data-based forecasts and corresponding predictions gathered from a dynamical weather model, necessarily using a lead time of only up to 15 days, shows that our simple statistical schemes are only outperformed (and then only slightly) if further statistical post-processing is applied to the model output. / Aktuelle Wetterprognosen werden mit Hilfe von hochdimensionalen, numerischen Modellen generiert. Durch die dem Klima zugrunde liegende chaotische Dynamik wachsen Modellfehler und Ungenauigkeiten in der Modellinitialisierung exponentiell an, sodass Vorhersagen mit signifikanter Güte üblicherweise nur für eine Vorlaufzeit von maximal sieben Tagen möglich sind. Selbst die detaillierten Prognosen des Europäischen Zentrums für mittelfristige Wettervorhersagen gehen nicht über eine Vorlaufzeit von 14 Tagen hinaus, während noch längerfristigere Vorhersagen auf zeitgemittelte Größen beschränkt sind. Viele Branchen würden signifikant von akkuraten Vorhersagen auf saisonalen Zeitskalen pro-fitieren, ohne das ganze Ausmaß an Details zu benötigen, das von einem vollständigen dynamischen Modell geliefert werden kann. In dieser Dissertation beabsichtigen wir, am Beispiel einer Vorhersage der Zeitdauer bis zum nächsten Eintreten von Frost zu untersuchen, inwieweit deutlich kostengünstigere, datenbasierte statistische Verfahren Prognosen von gleicher oder sogar besserer Güte auf bis zu saisonalen Zeitskalen liefern können. Dazu analysieren wir zunächst die Eigenschaften der Zeitreihe der Temperaturanomalien, die aus den Messdaten durch das Subtrahieren eines sinusförmigen Jahresganges erhalten werden, sowie die Charakteristiken der Wahrscheinlichkeitsverteilungen der Zeitdauer bis zum nächsten Eintreten von Frost. Die Möglichkeit, durch einen einfachen autoregressiven Modellprozess zusätzliche Datenpunkte gleicher statistischer Eigenschaften wie der Temperaturanomalien zu generieren, um die statistischen Fluktuationen in der Analyse zu reduzieren, wird untersucht und letztendlich verworfen. Im nächsten Schritt analysieren wir das Vorhersagepotential, wenn ausschließlich aus den Temperaturanomalien gewonnene bedingte Wahrscheinlichkeitsverteilungen der Wartezeit bis zum nächsten Frost verwendet werden, und können eine signifikante Abhängigkeit der Verteilungen von den Anfangsbedingungen nachweisen. Nach dieser einleitenden Untersuchung erstellen wir datenbasierte Prognosen für drei verschiedene Vorhersagegrößen: Das konkrete Datum, an dem es das nächste Mal Frost geben wird; die Wahrscheinlichkeit, noch vor dem Sommer Frost zu beobachten, wenn die Vorhersagen im Frühjahr ausgegeben werden; und die volle Wahrscheinlichkeitsverteilung der Zeitdauer bis zum nächsten Eintreten von Frost. Anschließend untersuchen wir die Möglichkeit, die Vorhersagegüte weiter zu erhöhen - zunächst durch eine Verbesserung der Stationarität der Temperaturanomalien und dann durch die zusätzliche Berücksichtigung der Nordatlantischen Oszillation als einer zweiten, den Anfangszustand charakterisierenden Variablen im Vorhersageschema. Wir sind in der Lage, im Vergleich mit einem naiven Referenzvorhersageschema eine signifikante Verbesserung der Vorhersagegüte auch auf saisonalen Zeitskalen zu erreichen. Ein erster Vergleich zwischen den datenbasierten Vorhersagen und entsprechenden, aus den dynamischen Wettermodellen gewonnenen Prognosen, der sich notwendigerweise auf eine Vorlaufzeit der Vorhersagen von lediglich 15 Tagen beschränkt, zeigt, dass letztere unsere simplen statistischen Vorhersageschemata nur schlagen (und zwar knapp), wenn der Modelloutput noch einer statistischen Nachbearbeitung unterzogen wird.
84

SEM-Based Automated Mineralogy and Its Application in Geo- and Material Sciences

Schulz, Bernhard, Sandmann, Dirk, Gilbricht, Sabine 17 January 2022 (has links)
Scanning electron microscopy based automated mineralogy (SEM-AM) is a combined analytical tool initially designed for the characterisation of ores and mineral processing products. Measurements begin with the collection of backscattered electron (BSE) images and their handling with image analysis software routines. Subsequently, energy dispersive X-ray spectra (EDS) are gained at selected points according to the BSE image adjustments. Classification of the sample EDS spectra against a list of approved reference EDS spectra completes the measurement. Different classification algorithms and four principal SEM-AM measurement routines for point counting modal analysis, particle analysis, sparse phase search and EDS spectral mapping are offered by the relevant software providers. Application of SEM-AM requires a high-quality preparation of samples. Suitable non-evaporating and electron-beam stable epoxy resin mixtures and polishing of relief-free surfaces in particles and materials with very different hardness are the main challenges. As demonstrated by case examples in this contribution, the EDS spectral mapping methods appear to have the most promising potential for novel applications in metamorphic, igneous and sedimentary petrology, ore fingerprinting, ash particle analysis, characterisation of slags, forensic sciences, archaeometry and investigations of stoneware and ceramics. SEM-AM allows the quantification of the sizes, geometries and liberation of particles with different chemical compositions within a bulk sample and without previous phase separations. In addition, a virtual filtering of bulk particle samples by application of numerous filter criteria is possible. For a complete mineral phase identification, X-ray diffraction data should accompany the EDS chemical analysis. Many of the materials which potentially could be characterised by SEM-AM consist of amorphous and glassy phases. In such cases, the generic labelling of reference EDS spectra and their subsequent target component grouping allow SEM-AM for interesting and novel studies on many kinds of solid and particulate matter which are not feasible by other analytical methods.
85

Deciphering gene regulation from time series data

Hempel, Sabrina 11 October 2012 (has links)
Meine Arbeit beschäftigt sich mit der Rekonstruktion genregulatorischer Netze, um die Funktionalität von Organismen und ihre Reaktionen auf die vielfältigen externen Einflussfaktoren besser zu verstehen. Die Analyse kurzer, zeitaufgelöster Daten mit Hilfe von Assoziationsmaßen kann dabei erste wesentliche Einblicke in mögliche Wechselwirkungskreisläufe liefern. In einer umfangreicher Vergleichstudie untersuche ich die Effizienz der Netzwerkrekonstruktion bei der Anwendung verschiedener Maße und Bewertungsschemata. Weiterhin führe ich IOTA (inner composition alignment) als ein neues asymmetrisches, permutationsbasiertes Ähnlichkeitsmaß ein, welches ein effektives Werkzeug zur Rekonstruktion gerichteter Netzwerke ohne die Verwendung zusätzlicher Bewertungsschemata darstellt. In meiner Arbeit betrachte ich verschiedene Modifikationen dieses Maßes und untersuche deren Eigenschaften. Dabei zeige ich, dass IOTA geeignet ist, um statistisch signifikante gerichtete, nichtlineare Kopplungen in verschiedenen Zeitreihen (autoregressive Prozesse, Michaelis-Menten Kinetik und chaotische Oszillatoren in verschiedenen Regimen) und Autoregulation zu untersuchen. Weiterhin erlaubt IOTA, ebenso wie die Korrelationsmaße, die Spezifizierung des Types der Regulation (Aktivierung oder Repression), was es zu dem einzigen Maß macht, dass die Ableitung aller für die Rekonstruktion genregulatorischer Netzwerke erforderlichen Kenndaten ermöglicht. Schließlich nutze ich das neuen Ähnlichkeitsmaß IOTA, um ein genregulatorisches Netzwerk für die Grünalgenart Chlamydomonas reinhardtii unter Kohlenstoffmangel aus experimentellen Daten abzuleiten. / My thesis is about reconstructing gene regulatory networks in order to better understand the functionality of organisms and their reactions to various external influences. In this context, the analysis of short, time-resolved measurements with association measures can yield crucial insights into possible interactions. In an extensive comparison study, I examine the efficiency of different measures and scoring schemes for solving the network reconstruction problem. Furthermore, I introduce IOTA (inner composition alignment), a novel asymmetric, permutation-based association measure, as an efficent tool for reconstructing directed networks without the application of additional scoring schemes. In my thesis, I analyze the properties of various modifications of the measure. Moreover, I show that IOTA is valuable to study significant, directed, nonlinear couplings in several time series (autoregressive processes, Michaelis-Menten kinetics and chaotic oscillators in different dynamical regimes) , as well as autoregulation. In addition, IOTA, similar to correlation measures, permits to identify the type of regulation (activation or repression). Hence, it is the only measure that can determine all necessay characteristics when reconstruction regulatory networks. Finally, I apply the novel association measure IOTA to infer a gene regulatory network for the green algae Chlamydomas reinhardtii under carbon deprivation from experimally obtained data.
86

Diffusion von Photovoltaik-Anlagen in Baden-Württemberg : Räumliche Unterschiede in der Nutzungsintensität von Photovoltaik-Dachanlagen - untersucht in der Region Heilbronn-Franken / Diffusion of photovoltaic installations in Baden-Württemberg : Regional disparities in the usage of rooftop photovoltaics - a case study in Heilbronn-Franken

Stein, Florian January 2011 (has links) (PDF)
Es existieren regionale Unterschiede in der Nutzung von Photovoltaik-Anlagen (PV) in Baden-Württemberg. Die Bedeutung von Raumstruktur und Globalstrahlung für diese Unterschiede wurde großräumig untersucht. Es zeigte sich, dass die PV-Nutzung im ländlichen Raum Baden-Württembergs höher ist als im urbanen Raum. Dieser Zusammenhang gewann in den letzten Jahren an Bedeutung. Die Bedeutung der Globalstrahlung für die PV-Nutzung sank auf ein sehr niedriges Niveau. Weitere Untersuchungen wurden im Nordosten Baden-Württembergs durchgeführt, wo die Raumstruktur ländlich und die PV-Nutzung überdurchschnittlich hoch ist. Um die Ursachen der regionalen Unterschiede in der PV-Nutzung näher zu untersuchen, wurden qualitative Experteninterviews, Korrelationsanalysen und schriftliche Haushaltsbefragungen durchgeführt. Durch Experteninterviews wurden die Hauptakteure für die Diffusion von PV in der Untersuchungsregion identifiziert. Neben PV-Unternehmen sind dies Landwirte, Gemeinderäte und Bürgermeister sowie Energieagenturen. Landwirte nehmen eine Schlüsselrolle ein, da es für sie relativ leicht ist PV-Anlagen zu realisieren. Gemeinderäte und ihre Bürgermeister können PV-Anlagen auf öffentlichen Gebäuden realisieren. Energieagenturen bilden Diffusionsnetzwerke zwischen verschiedenen Akteuren. Eine Korrelationsanalyse deckte einige Faktoren auf, die mit den PV-Anlagen je Einwohner und Kommune in Heilbronn-Franken korrelieren. Diese Faktoren sind (i) Anteil der unter 18 Jährigen, (ii) Anteil der Einfamilienhäuser an den Wohngebäuden, (iii) Anteil der sozialversicherungspflichtigen Beschäftigten mit abgeschlossener Ausbildung, (iv) landwirtschaftliche Betriebe mit Viehhaltung je Einwohner, (v) Anteil der Mehrfamilien-häuser an den Wohngebäuden und (vi) Anteil der sozialversicherungspflichtig Beschäftigten mit Hochschulabschluss. Durch eine Haushaltsbefragung wurden signifikante Unterschiede zwischen PV-Eigentümern und Nicht-Eigentümern aufgedeckt (Alter, Familienverhältnisse, Energieverhalten, PV-Informationskanäle, Einstellung zu PV). Bei formaler Bildung und Einkommen gab es keine signifikanten Unterschiede. Außerdem wurden signifikante Unterschiede zwischen einer Gemeinde mit hoher und einer mit niedriger PV-Nutzung erkannt (Energieverhalten, Notwendigkeit ökologischen Handels, Einstellung zu PV, lokale PV-Akteure). Andere Aspekte wiesen keine signifikanten Unterschiede auf (PV-Informationskanäle, Hinderungsgründe für den Kauf). Außerdem zeigte sich, dass die Diffusion von PV einen wichtigen lokalen Charakter hat (PV-Informationskanäle, lokale Märkte). / There are regional disparities in the usage of rooftop photovoltaic installations (PV) in the German federal state of Baden-Württemberg. The influence of spatial structure and global radiation on these disparities has been investigated on a large scale. It was found that the usage of PV is significantly higher in rural areas of Baden-Württemberg than in urban areas. The strength of this correlation has been increasing during the last years. The importance of global radiation for the usage of PV in Baden-Württemberg has been decreasing to a rather low level. Further investigations were made in the north eastern region of Baden-Württemberg, where spatial structure is rural and the usage of PV is above average. To investigate reasons for these regional disparities qualitative expert interviews, correlation analysis and household surveys have been conducted. Through expert interviews main actors for diffusion of PV in the study area were identified. Apart from PV-companies these main actors are farmers, local councils and mayors as well as energy agencies. Farmers take a key role in diffusion of PV, because it is quite easy for them to implement PV. Local councils and their mayors are capable to enable diffusion of PV on public buildings. Energy agencies are capable of building diffusion networks among different groups of actors. The correlation analysis revealed several attributes that are correlating with photovoltaic installations per inhabitant and municipality in Heilbronn-Franken. These attributes are: (i) share of inhabitants <18 years, (ii) share of single-family houses in residential buildings, (iii) share of employees with finished apprenticeship, (iv) agricultural enterprises with livestock per inhabitant, (v) share of multi-family houses in residential buildings, (vi) share of employees with university degree. Through a household survey significant differences between PV-owners and non-owners were found (age, family status, energy behavior, channels of information, attitude towards PV). However some aspects did not show significant differences (formal education, income). Furthermore significant differences between one municipality with high and one with low PV-usage have been identified (energy behavior, necessity of acting ecologically, attitude towards PV, local PV-actors) whereas other aspects were not significantly different (channels of information for PV, obstacles of purchasing PV). Besides that it was found that diffusion of PV has an important local character (channels of information, local markets).
87

Complex networks in the climate system

Donges, Jonathan Friedemann January 2009 (has links)
Complex network theory provides an elegant and powerful framework to statistically investigate the topology of local and long range dynamical interrelationships, i.e., teleconnections, in the climate system. Employing a refined methodology relying on linear and nonlinear measures of time series analysis, the intricate correlation structure within a multivariate climatological data set is cast into network form. Within this graph theoretical framework, vertices are identified with grid points taken from the data set representing a region on the the Earth's surface, and edges correspond to strong statistical interrelationships between the dynamics on pairs of grid points. The resulting climate networks are neither perfectly regular nor completely random, but display the intriguing and nontrivial characteristics of complexity commonly found in real world networks such as the internet, citation and acquaintance networks, food webs and cortical networks in the mammalian brain. Among other interesting properties, climate networks exhibit the "small-world" effect and possess a broad degree distribution with dominating super-nodes as well as a pronounced community structure. We have performed an extensive and detailed graph theoretical analysis of climate networks on the global topological scale focussing on the flow and centrality measure betweenness which is locally defined at each vertex, but includes global topological information by relying on the distribution of shortest paths between all pairs of vertices in the network. The betweenness centrality field reveals a rich internal structure in complex climate networks constructed from reanalysis and atmosphere-ocean coupled general circulation model (AOGCM) surface air temperature data. Our novel approach uncovers an elaborately woven meta-network of highly localized channels of strong dynamical information flow, that we relate to global surface ocean currents and dub the backbone of the climate network in analogy to the homonymous data highways of the internet. This finding points to a major role of the oceanic surface circulation in coupling and stabilizing the global temperature field in the long term mean (140 years for the model run and 60 years for reanalysis data). Carefully comparing the backbone structures detected in climate networks constructed using linear Pearson correlation and nonlinear mutual information, we argue that the high sensitivity of betweenness with respect to small changes in network structure may allow to detect the footprints of strongly nonlinear physical interactions in the climate system. The results presented in this thesis are thoroughly founded and substantiated using a hierarchy of statistical significance tests on the level of time series and networks, i.e., by tests based on time series surrogates as well as network surrogates. This is particularly relevant when working with real world data. Specifically, we developed new types of network surrogates to include the additional constraints imposed by the spatial embedding of vertices in a climate network. Our methodology is of potential interest for a broad audience within the physics community and various applied fields, because it is universal in the sense of being valid for any spatially extended dynamical system. It can help to understand the localized flow of dynamical information in any such system by combining multivariate time series analysis, a complex network approach and the information flow measure betweenness centrality. Possible fields of application include fluid dynamics (turbulence), plasma physics and biological physics (population models, neural networks, cell models). Furthermore, the climate network approach is equally relevant for experimental data as well as model simulations and hence introduces a novel perspective on model evaluation and data driven model building. Our work is timely in the context of the current debate on climate change within the scientific community, since it allows to assess from a new perspective the regional vulnerability and stability of the climate system while relying on global and not only on regional knowledge. The methodology developed in this thesis hence has the potential to substantially contribute to the understanding of the local effect of extreme events and tipping points in the earth system within a holistic global framework. / Die Theorie komplexer Netzwerke bietet einen eleganten Rahmen zur statistischen Untersuchung der Topologie lokaler und langreichweitiger dynamischer Zusammenhänge (Telekonnektionen) im Klimasystem. Unter Verwendung einer verfeinerten, auf linearen und nichtlinearen Korrelationsmaßen der Zeitreihenanalyse beruhenden Netzwerkkonstruktionsmethode, bilden wir die komplexe Korrelationsstruktur eines multivariaten klimatologischen Datensatzes auf ein Netzwerk ab. Dabei identifizieren wir die Knoten des Netzwerkes mit den Gitterpunkten des zugrundeliegenden Datensatzes, während wir Paare von besonders stark korrelierten Knoten als Kanten auffassen. Die resultierenden Klimanetzwerke zeigen weder die perfekte Regularität eines Kristallgitters, noch eine vollkommen zufällige Topologie. Vielmehr weisen sie faszinierende und nichttriviale Eigenschaften auf, die charakteristisch für natürlich gewachsene Netzwerke wie z.B. das Internet, Zitations- und Bekanntschaftsnetzwerke, Nahrungsnetze und kortikale Netzwerke im Säugetiergehirn sind. Besonders erwähnenswert ist, dass in Klimanetzwerken das Kleine-Welt-Phänomen auftritt. Desweiteren besitzen sie eine breite Gradverteilung, werden von Superknoten mit sehr vielen Nachbarn dominiert, und bilden schließlich regional wohldefinierte Untergruppen von intern dicht vernetzten Knoten aus. Im Rahmen dieser Arbeit wurde eine detaillierte, graphentheoretische Analyse von Klimanetzwerken auf der globalen topologischen Skala durchgeführt, wobei wir uns auf das Netzwerkfluss- und Zentralitätsmaß Betweenness konzentrierten. Betweenness ist zwar lokal an jedem Knoten definiert, enthält aber trotzdem Informationen über die globale Netzwerktopologie. Dies beruht darauf, dass die Verteilung kürzester Pfade zwischen allen möglichen Paaren von Knoten in die Berechnung des Maßes eingeht. Das Betweennessfeld zeigt reichhaltige und zuvor verborgene Strukturen in aus Reanalyse- und Modelldaten der erdoberflächennahen Lufttemperatur gewonnenen Klimanetzen. Das durch unseren neuartigen Ansatz enthüllte Metanetzwerk, bestehend aus hochlokalisierten Kanälen stark gebündelten Informationsflusses, bringen wir mit der Oberflächenzirkulation des Weltozeans in Verbindung. In Analogie mit den gleichnamigen Datenautobahnen des Internets nennen wir dieses Metanetzwerk den Backbone des Klimanetzwerks. Unsere Ergebnisse deuten insgesamt darauf hin, dass Meeresoberflächenströmungen einen wichtigen Beitrag zur Kopplung und Stabilisierung des globalen Oberflächenlufttemperaturfeldes leisten. Wir zeigen weiterhin, dass die hohe Sensitivität des Betweennessmaßes hinsichtlich kleiner Änderungen der Netzwerktopologie die Detektion stark nichtlinearer physikalischer Wechselwirkungen im Klimasystem ermöglichen könnte. Die in dieser Arbeit vorgestellten Ergebnisse wurden mithilfe statistischer Signifikanztests auf der Zeitreihen- und Netzwerkebene gründlich auf ihre Robustheit geprüft. In Anbetracht fehlerbehafteter Daten und komplexer statistischer Zusammenhänge zwischen verschiedenen Netzwerkmaßen ist diese Vorgehensweise besonders wichtig. Weiterhin ist die Entwicklung neuer, allgemein anwendbarer Surrogate für räumlich eingebettete Netzwerke hervorzuheben, die die Berücksichtigung spezieller Klimanetzwerkeigenschaften wie z.B. der Wahrscheinlichkeitsverteilung der Kantenlängen erlauben. Unsere Methode ist universell, weil sie zum Verständnis des lokalisierten Informationsflusses in allen räumlich ausgedehnten, dynamischen Systemen beitragen kann. Deshalb ist sie innerhalb der Physik und anderer angewandter Wissenschaften von potentiell breitem Interesse. Mögliche Anwendungen könnten sich z.B. in der Fluiddynamik (Turbulenz), der Plasmaphysik und der Biophysik (Populationsmodelle, neuronale Netzwerke und Zellmodelle) finden. Darüber hinaus ist der Netzwerkansatz für experimentelle Daten sowie Modellsimulationen gültig, und eröffnet folglich neue Perspektiven für Modellevaluation und datengetriebene Modellierung. Im Rahmen der aktuellen Klimawandeldebatte stellen Klimanetzwerke einen neuartigen Satz von Analysemethoden zur Verfügung, der die Evaluation der lokalen Vulnerabilität und Stabilität des Klimasystems unter Berücksichtigung globaler Randbedingungen ermöglicht. Die in dieser Arbeit entwickelten und untersuchten Methoden könnten folglich in der Zukunft, innerhalb eines holistisch-globalen Ansatzes, zum Verständnis der lokalen Auswirkungen von Extremereignissen und Kipppunkten im Erdsystem beitragen.
88

Bridging the gap between post-Newtonian theory and numerical relativity in gravitational-wave data analysis

Ohme, Frank January 2012 (has links)
One of the most exciting predictions of Einstein's theory of gravitation that have not yet been proven experimentally by a direct detection are gravitational waves. These are tiny distortions of the spacetime itself, and a world-wide effort to directly measure them for the first time with a network of large-scale laser interferometers is currently ongoing and expected to provide positive results within this decade. One potential source of measurable gravitational waves is the inspiral and merger of two compact objects, such as binary black holes. Successfully finding their signature in the noise-dominated data of the detectors crucially relies on accurate predictions of what we are looking for. In this thesis, we present a detailed study of how the most complete waveform templates can be constructed by combining the results from (A) analytical expansions within the post-Newtonian framework and (B) numerical simulations of the full relativistic dynamics. We analyze various strategies to construct complete hybrid waveforms that consist of a post-Newtonian inspiral part matched to numerical-relativity data. We elaborate on exsisting approaches for nonspinning systems by extending the accessible parameter space and introducing an alternative scheme based in the Fourier domain. Our methods can now be readily applied to multiple spherical-harmonic modes and precessing systems. In addition to that, we analyze in detail the accuracy of hybrid waveforms with the goal to quantify how numerous sources of error in the approximation techniques affect the application of such templates in real gravitational-wave searches. This is of major importance for the future construction of improved models, but also for the correct interpretation of gravitational-wave observations that are made utilizing any complete waveform family. In particular, we comprehensively discuss how long the numerical-relativity contribution to the signal has to be in order to make the resulting hybrids accurate enough, and for currently feasible simulation lengths we assess the physics one can potentially do with template-based searches. / Eine der aufregendsten Vorhersagen aus Einsteins Gravitationstheorie, die bisher noch nicht direkt durch ein Experiment nachgewiesen werden konnten, sind Gravitationswellen. Dies sind winzige Verzerrungen der Raumzeit selbst, und es wird erwartet, dass das aktuelle Netzwerk von groß angelegten Laserinterferometern im kommenden Jahrzehnt die erste direkte Gravitationswellenmessung realisieren kann. Eine potentielle Quelle von messbaren Gravitationswellen ist das Einspiralen und Verschmelzen zweier kompakter Objekte, wie z.B. ein Binärsystem von Schwarzen Löchern. Die erfolgreiche Identifizierung ihrer charakteristischen Signatur im Rausch-dominierten Datenstrom der Detektoren hängt allerdings entscheidend von genauen Vorhersagen ab, was wir eigentlich suchen. In dieser Arbeit wird detailliert untersucht, wie die komplettesten Wellenformenmodelle konstruiert werden können, indem die Ergebnisse von (A) analytischen Entwicklungen im post-Newtonschen Verfahren und (B) numerische Simulationen der voll-relativistischen Bewegungen verknüpft werden. Es werden verschiedene Verfahren zur Erstellung solcher "hybriden Wellenformen", bei denen der post-Newtonsche Teil mit numerischen Daten vervollständigt wird, analysiert. Existierende Strategien für nicht-rotierende Systeme werden vertieft und der beschriebene Parameterraum erweitert. Des Weiteren wird eine Alternative im Fourierraum eingeführt. Die entwickelten Methoden können nun auf multiple sphärisch-harmonische Moden und präzedierende Systeme angewandt werden. Zusätzlich wird die Genauigkeit der hybriden Wellenformen mit dem Ziel analysiert, den Einfluss verschiedener Fehlerquellen in den Näherungstechniken zu quantifizieren und die resultierenden Einschränkungen bei realen Anwendungen abzuschätzen. Dies ist von größter Bedeutung für die zukünftige Entwicklung von verbesserten Modellen, aber auch für die korrekte Interpretation von Gravitationswellenbeobachtungen, die auf Grundlage solcher Familien von Wellenformen gemacht worden sind. Insbesondere wird diskutiert, wie lang der numerische Anteil des Signals sein muss, um die Hybride genau genug konstruieren zu können. Für die aktuell umsetzbaren Simulationslängen wird die Physik eingeschätzt, die mit Hilfe von Modell-basierten Suchen potentiell untersucht werden kann.
89

Critical states of seismicity : modeling and data analysis

Zöller, Gert January 2005 (has links)
The occurrence of earthquakes is characterized by a high degree of spatiotemporal complexity. Although numerous patterns, e.g. fore- and aftershock sequences, are well-known, the underlying mechanisms are not observable and thus not understood. Because the recurrence times of large earthquakes are usually decades or centuries, the number of such events in corresponding data sets is too small to draw conclusions with reasonable statistical significance. Therefore, the present study combines both, numerical modeling and analysis of real data in order to unveil the relationships between physical mechanisms and observational quantities. The key hypothesis is the validity of the so-called "critical point concept" for earthquakes, which assumes large earthquakes to occur as phase transitions in a spatially extended many-particle system, similar to percolation models. New concepts are developed to detect critical states in simulated and in natural data sets. The results indicate that important features of seismicity like the frequency-size distribution and the temporal clustering of earthquakes depend on frictional and structural fault parameters. In particular, the degree of quenched spatial disorder (the "roughness") of a fault zone determines whether large earthquakes occur quasiperiodically or more clustered. This illustrates the power of numerical models in order to identify regions in parameter space, which are relevant for natural seismicity. The critical point concept is verified for both, synthetic and natural seismicity, in terms of a critical state which precedes a large earthquake: a gradual roughening of the (unobservable) stress field leads to a scale-free (observable) frequency-size distribution. Furthermore, the growth of the spatial correlation length and the acceleration of the seismic energy release prior to large events is found. The predictive power of these precursors is, however, limited. Instead of forecasting time, location, and magnitude of individual events, a contribution to a broad multiparameter approach is encouraging. / Das Auftreten von Erdbeben zeichnet sich durch eine hohe raumzeitliche Komplexität aus. Obwohl zahlreiche Muster, wie Vor- und Nachbeben bekannt sind, weiß man wenig über die zugrundeliegenden Mechanismen, da diese sich direkter Beobachtung entziehen. Die Zeit zwischen zwei starken Erdbeben in einer seismisch aktiven Region beträgt Jahrzehnte bis Jahrhunderte. Folglich ist die Anzahl solcher Ereignisse in einem Datensatz gering und es ist kaum möglich, allein aus Beobachtungsdaten statistisch signifikante Aussagen über deren Eigenschaften abzuleiten. Die vorliegende Arbeit nutzt daher numerische Modellierungen einer Verwerfungszone in Verbindung mit Datenanalyse, um die Beziehung zwischen physikalischen Mechanismen und beobachteter Seismizität zu studieren. Die zentrale Hypothese ist die Gültigkeit des sogenannten "kritischen Punkt Konzeptes" für Seismizität, d.h. starke Erdbeben werden als Phasenübergänge in einem räumlich ausgedehnten Vielteilchensystem betrachtet, ähnlich wie in Modellen aus der statistischen Physik (z.B. Perkolationsmodelle). Es werden praktische Konzepte entwickelt, die es ermöglichen, kritische Zustände in simulierten und in beobachteten Daten sichtbar zu machen. Die Resultate zeigen, dass wesentliche Eigenschaften von Seismizität, etwa die Magnitudenverteilung und das raumzeitliche Clustern von Erdbeben, durch Reibungs- und Bruchparameter bestimmt werden. Insbesondere der Grad räumlicher Unordnung (die "Rauhheit") einer Verwerfungszone hat Einfluss darauf, ob starke Erdbeben quasiperiodisch oder eher zufällig auftreten. Dieser Befund zeigt auf, wie numerische Modelle genutzt werden können, um den Parameterraum für reale Verwerfungen einzugrenzen. Das kritische Punkt Konzept kann in synthetischer und in beobachteter Seismizität verifiziert werden. Dies artikuliert sich auch in Vorläuferphänomenen vor großen Erdbeben: Die Aufrauhung des (unbeobachtbaren) Spannungsfeldes führt zu einer Skalenfreiheit der (beobachtbaren) Größenverteilung; die räumliche Korrelationslänge wächst und die seismische Energiefreisetzung wird beschleunigt. Ein starkes Erdbeben kann in einem zusammenhängenden Bruch oder in einem unterbrochenen Bruch (Vorbeben und Hauptbeben) stattfinden. Die beobachtbaren Vorläufer besitzen eine begrenzte Prognosekraft für die Auftretenswahrscheinlichkeit starker Erdbeben - eine präzise Vorhersage von Ort, Zeit, und Stärke eines nahenden Erdbebens ist allerdings nicht möglich. Die genannten Parameter erscheinen eher vielversprechend als Beitrag zu einem umfassenden Multiparameteransatz für eine verbesserte zeitabhängige Gefährdungsabschätzung.
90

The Impact of Land-use change on the Livelihoods of Rural Communities: A case-study in Edd Al-Fursan Locality, South Darfur, Sudan

Bashir, Masarra 06 June 2013 (has links) (PDF)
Ziele der Arbeit sind die Bestimmung der dominanten Landnutzungsarten im Untersuchungsgebiet von Edd Al Fursan (Sudan) sowie die Kartierung und Analyse der Veränderungen der Landnutzung im Zeitraum 1972 bis 2008 mit Hilfe von multi-temporalen Satellitenbildern (Landsat MSS, TM und ETM sowie Terra ASTER). Des weiteren erfolgt eine Evaluierung des Einflusses von Veränderungen der Landnutzung auf die Lebensbedingungen der ländlichen Bevölkerung in Hinblick auf die Verfügbarkeit von Ressourcen mit Hilfe von quantitativen Untersuchungsmethoden. Um diese Aussagen treffen zu können, werden drei Methoden der Bestimmung von Veränderungen der Landnutzung angewandt, und zwar Post Classification Comparison (PCC), Change Vector Analysis (CVA) basierend auf Tasseled Cap Transformation (TCT) sowie Iteratively Reweighted Multivariate Alteration Detection (IR-MAD) mittels Maximum Autocorrelation Factor (MAF). Neben den fernerkundlichen Untersuchungen wurde eine sozio-ökonomische Feldstudie durchgeführt, die vorstrukturierte Fragenkataloge, Interviews und Gruppendiskussionen mit Personen in regionalen und lokalen Schlüsselpositionen und mit älteren Menschen durchgeführt. Fünf Klassen der Landnutzung und Landbedeckung ergeben sich aus einer Klassifikation der Satellitenbilder mit der Methode der größten Wahrscheinlichkeit (Maximum Likelihood), explizit die Klassen Grasland, Waldland, Brachland, bebautes und landwirtschaftlich nicht genutztes Land. Die Klassifikation schafft eine genaue Grundlage für die Kartierung, Quantifizierung und Analyse der Änderungen. Die Gesamtgenauigkeit der Flächenermittlung beträgt 83% für die Jahre 1972 und 1984, 85% für 1989, 87% für 1999 und 92% für 2008. Die Untersuchungen zeigen, dass die Post Classification Comparison (PCC) eine vollinhaltlich geeignete und leicht anzuwendende Methode der Flächenanalyse darstellt. Change Vector Analysis (CVA) beruhend auf Tasseled Cap Transformation (TCT) wird ebenfalls für die Kartierung und Bestimmung von Landnutzungsänderungen verwendet. Durch TCT wird der spektrale Bildinhalt in die Komponenten Greeness und Brightness transformiert sowie in dem dadurch neu definierten Koordinatensystem die CVA durchgeführt. Die Ergebnisse in Form von Vektoren der Veränderung mit messbarer Richtung und messbarem Ausmass der Flächendynamik beweisen, dass die Methode für die Kartierung von Vegetationsbedeckung und insbesondere von Entwaldung und Wiederbewaldung geeignet ist. Durch die Anwendung der Multivariate Alteration Detection (MAD) in Kombination mit dem Maximum Autocorrelation Factor (MAF) werden Veränderungen der Landnutzungsklassen während des betrachteten Zeitraumes visualisiert. Die Ergebnisse beweisen, dass die MAD für die Veränderungsanalyse in multi-spektralen Satellitenbildern sehr gut geeignet ist. Darüber hinaus wird nachgewiesen, dass die Kombination mit dem MAF die Ergebnisse der MAD entscheidend verbessern kann, da Rauschen und geringfügige Änderungen unterdrückt und signifikante Änderungen klarer herausgestellt und damit besser interpretierbar werden. Um die Ursachen für die Veränderungen der Landnutzung und den Einfluss dieser Änderungen auf die Lebensbedingungen der ländlichen Bevölkerung im Projektgebiet zu identifizieren, wurde eine Befragung mittels vorstrukturiertem Fragenkatalog, Interviews und Gruppengesprächen mit 100 GesprächspartnerInnen im Alter zwischen 42 und 65 Jahren in vier nach dem Zufallsprinizip ausgewählten Dörfern ausgeführt. Die Auswertung der sozio-ökonomischen Daten erlaubt die Extraktion der Faktoren, die Landnutzung und deren Änderung beeinflussen, und die zu bestimmten Auswirkungen dieser Änderungen auf die Lebensbedingungen in den Dörfern in Hinsicht auf die Verfügbarkeit von Natur-Ressourcen führen. Die Ergebnisse der Forschungsarbeiten zeigen, dass Fernerkundung und sozio-ökonomische Datenanalyse effizient verknüpft werden können, um anthropogene Einflüsse auf Art und Dynamik von Landnutzung sichtbar zu machen. In bezug auf die gegenständliche Zeitreihe wird durch die Untersuchungen bewiesen, dass zunehmende Bevölkerungszahlen im Gebiet von Edd Al-Fursan in direktem Wirkungszusammenhang mit Veränderungen der Landnutzung stehen.

Page generated in 0.0588 seconds