Return to search

What can we learn from climate data? : Methods for fluctuation, time/scale and phase analysis

Since Galileo Galilei invented the first thermometer, researchers have tried to understand the complex dynamics of ocean and atmosphere by means of scientific methods. They observe nature and formulate theories about the climate system. Since some decades powerful computers are capable to simulate the past and future evolution of climate.<br><br>
Time series analysis tries to link the observed data to the computer models:
Using statistical methods, one estimates characteristic properties of the underlying climatological processes that in turn can enter the models. The quality of an estimation is evaluated by means of error bars and significance testing. On the one hand, such a test should be capable to detect interesting features, i.e. be sensitive. On the other hand, it should be robust and sort out false positive results, i.e. be specific.
<br><br>
This thesis mainly aims to contribute to methodological
questions of time series analysis with a focus on sensitivity and specificity and to apply the investigated methods to recent climatological problems.
<br><br>
First, the inference of long-range correlations by means of Detrended
Fluctuation Analysis (DFA) is studied. It is argued that power-law
scaling of the fluctuation function and thus long-memory may not be
assumed a priori but have to be established. This requires to
investigate the local slopes of the fluctuation function. The
variability characteristic for stochastic processes is accounted for
by calculating empirical confidence regions. The comparison of a
long-memory with a short-memory model shows that the inference of
long-range correlations from a finite amount of data by means of DFA
is not specific. When aiming to infer short memory by means of DFA, a
local slope larger than $alpha=0.5$ for large scales does not
necessarily imply long-memory. Also, a finite scaling of the
autocorrelation function is shifted to larger scales in the
fluctuation function. It turns out that long-range correlations
cannot be concluded unambiguously from the DFA results for the Prague
temperature data set.
<br><br>
In the second part of the thesis, an equivalence class of
nonstationary Gaussian stochastic processes is defined in the wavelet
domain. These processes are characterized by means of wavelet
multipliers and exhibit well defined time dependent spectral
properties; they allow one to generate realizations of any
nonstationary Gaussian process. The dependency of the realizations on
the wavelets used for the generation is studied, bias and variance of
the wavelet sample spectrum are calculated. To overcome the
difficulties of multiple testing, an areawise significance test is
developed and compared to the conventional pointwise test in terms of
sensitivity and specificity. Applications to Climatological and
Hydrological questions are presented.
The thesis at hand mainly aims to contribute to methodological
questions of time series analysis and to apply the investigated
methods to recent climatological problems.
<br><br>
In the last part, the coupling between El Nino/Southern Oscillation
(ENSO) and the Indian Monsoon on inter-annual time scales is studied
by means of Hilbert transformation and a curvature defined phase. This
method allows one to investigate the relation of two oscillating
systems with respect to their phases, independently of their
amplitudes. The performance of the technique is evaluated using a toy
model. From the data, distinct epochs are identified, especially two
intervals of phase coherence, 1886-1908 and 1964-1980, confirming
earlier findings from a new point of view. A significance test of
high specificity corroborates these results. Also so far unknown
periods of coupling invisible to linear methods are detected. These
findings suggest that the decreasing correlation during the last
decades might be partly inherent to the ENSO/Monsoon system. Finally,
a possible interpretation of how volcanic radiative forcing could
cause the coupling is outlined. / Seit der Erfindung des Thermometers durch Galileo Galilei versuchen Forscher mit naturwissenschaftlichen Methoden die komplexen Zusammenhänge in der Atmosphäre und den Ozeanen zu entschlüsseln. Sie beobachten die Natur und stellen Theorien über das Klimasystem auf. Seit wenigen Jahrzehnten werden sie dabei von immer leistungsfähigeren Computern unterstützt, die das Klima der Erdgeschichte und der nahen Zukunft simulieren. <br><br>
Die Verbindung aus den Beobachtungen und den Modellen versucht die Zeitreihen­analyse herzustellen: Aus den Daten werden mit statistischen Methoden charak­teristische Eigenschaften der zugrundeliegenden klimatologischen Prozesse geschätzt, die dann in die Modelle einfliessen können. Die Bewertung solch einer Schätzung, die stets Messfehlern und Vereinfachungen des Modells unterworfen ist, erfolgt statistisch entweder mittels Konfidenzintervallen oder Signifikanztests. Solche Tests sollen auf der einen Seite charakteristische Eigenschaften in den Daten erkennen können, d.h. sie sollen sensitiv sein. Auf der anderen Seite sollen sie jedoch auch keine Eigenschaften vortäuschen, d.h. sie sollen spezifisch sein. Für die vertrauenswürdige Untermauerung einer Hypothese ist also ein spezifischer Test erforderlich.
<br><br>
Die vorliegende Arbeit untersucht verschiedene Methoden der Zeitreihenanalyse, erweitert sie gegebenenfalls und wendet sie auf typische klimatologische Frage­stellungen an. Besonderes Augenmerk wird dabei auf die Spezifizität der jeweiligen Methode gelegt; die Grenzen möglicher Folgerungen mittels Datenanalyse werden diskutiert.<br><br>
Im ersten Teil der Arbeit wird studiert, wie und ob sich mithilfe der sogenannten trendbereinigenden Fluktuationsanalyse aus Temperaturzeitreihen ein sogenanntes langes Gedächtnis der zugrundeliegenden Prozesse herleiten lässt. Solch ein Gedächtnis bedeutet, dass der Prozess seine Vergangenheit nie vergisst, mit fundamentalen Auswirkungen auf die gesamte statistische Beurteilung des Klimasystems. Diese Arbeit konnte jedoch zeigen, dass die Analysemethode vollkommen unspezifisch ist und die Hypothese “Langes Gedächtnis” gar nicht abgelehnt werden kann. <br><br>
Im zweiten Teil werden zunächst Mängel einer sehr populären Analysemethode, der sogenannten kontinuierlichen Waveletspetralanalyse diskutiert. Diese Methode schätzt die Variabilität eines Prozesses auf verschiedenen Schwingungsperioden zu bestimm­ten Zeiten. Ein wichtiger Nachteil der bisherigen Methodik sind auch hier unspezi­fische Signifikanztests. Ausgehend von der Diskussion wird eine Theorie der Wavelet­spektralanalyse entwickelt, die ein breites Feld an neuen Anwendungen öffnet. Darauf basierend werden spezifische Signifikanztests konstruiert.<br><br>
Im letzten Teil der Arbeit wird der Einfluss des El Niño/Southern Oscillation Phäno­mens auf den Indischen Sommermonsun analysiert. Es wird untersucht, ob und wann die Oszillationen beider Phänomene synchron ablaufen. Dazu wird eine etablierte Methode für die speziellen Bedürfnisse der Analyse von typischerweise sehr unregel­mäßigen Klimadaten erweitert. Mittels eines spezifischen Signifikanztests konnten bisherige Ergebnisse mit erhöhter Genauigkeit bestätigt werden. Zusätzlich konnte diese Methode jedoch auch neue Kopplungsintervalle feststellen, die die Hypothese entkräften konnten, dass ein neuerliches Verschwinden der Kopplung ein beisspielloser Vorgang sei. Schliesslich wird eine Hypothese vorgestellt, wie vulkanische Aerosole die Kopplung beeinflussen könnten.

Identiferoai:union.ndltd.org:Potsdam/oai:kobv.de-opus-ubp:904
Date January 2006
CreatorsMaraun, Douglas
PublisherUniversität Potsdam, Mathematisch-Naturwissenschaftliche Fakultät. Institut für Physik und Astronomie
Source SetsPotsdam University
LanguageEnglish
Detected LanguageEnglish
TypeText.Thesis.Doctoral
Formatapplication/pdf
Rightshttp://opus.kobv.de/ubp/doku/urheberrecht.php

Page generated in 0.0021 seconds