• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3
  • 2
  • Tagged with
  • 5
  • 5
  • 5
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Temperaturmodellierung durch Shape Invariant Modeling

Bartl, Stine 19 April 2016 (has links) (PDF)
Anhand von Temperaturdaten des Standortes Berlin-Tegel wird der Temperaturverlauf für einen Zeitraum von 15 Jahren modelliert. Es werden zwei verschiedene Regressionsansätze gegenübergestellt. Zuerst werden die Daten anhand einer Zeitreihenanalyse geschätzt. Dieses parametrische Verfahren wird mit der nicht-parametrischen Methode des Shape Invariant Modeling verglichen. Beiden Ansätzen liegt die Methode der Kleinsten Fehlerquadrate zugrunde. Die Zeitreihenanalyse als Spezialgebiet der Regressionsanalyse wird mit Hilfe einer Fourierreihe realisiert, um den periodischen Verlauf der Funktion abbilden zu können. Beim Shape Invariant Model werden mithilfe einer Referenzkurve die individuellen Regressionsfunktionen ermittelt. Als Referenz dient ein Basistag. Die Parameterschätzer werden durch Achsentransformation ermittelt.
2

Erweiterte Modellbildung zur Bestimmung von Positionszeitreihen global verteilter GPS-Stationen

Fritsche, Mathias 18 July 2013 (has links) (PDF)
Eine Vielzahl geophysikalischer Prozesse im System Erde gehen mit Massenverlagerungen einher. Änderungen in der Massenverteilung führen zu beobachtbaren Änderungen im Schwerefeld und Rotationsverhalten der Erde sowie zu einer Deformation der Erdkruste. Die messtechnische Erfassung dieser Größen erlaubt einen Rückschluss auf die beteiligten Massentransportprozesse und stellt damit eine Grundvoraussetzung für die Erdsystemforschung dar. Satellitengestützte Navigationssysteme wie z.B. das Global Positioning System (GPS) spielen in diesem Zusammenhang eine zentrale Rolle, denn sie ermöglichen eine präzise Positionsbestimmung auf globaler Ebene. Für die Bestimmung eines terrestrischen Referenzrahmens werden üblicherweise mittlere Koordinaten zu einer Referenzepoche sowie zugehörige lineare Änderungen mit der Zeit angenommen. Bei diesem Konzept führen alle nichtlinearen Stationsbewegungen, deren Effekte im Rahmen der Beobachtungsmodellierung nicht reduziert werden, zu Abweichungen gegenüber dem linearen Bewegungsmodell. Diese Abweichungen haben Einfluss auf die Positionszeitreihen der in Betracht gezogenen Stationen und erlauben einen Rückschluss auf die auflastinduzierenden Änderungen in der Massenverteilung. Die Bestimmung von Stationspositionszeitreihen mittels GPS bildet den Kern der vorliegenden Arbeit. Die Arbeit baut inhaltlich auf vier Publikationen auf, die sich unterschiedlichen Fragestellungen in Bezug auf die Positionsbestimmung mittels GPS widmen. Eine zusammenfassende Diskussion gibt einen Überblick über Massenvariationen im System Erde und auflastinduzierte Krustendeformation. Spezielle Aspekte in Bezug auf eine konsistente Modellierung von Massenvariationen und daraus abgeleiteter Deformationsanteile werden hier dargelegt. Praktische Untersuchungen erfolgen zu Änderungen in der Massenverteilung aufgrund von atmosphärischen Druckvariationen, Ozeanzirkulation und hydrologisch bedingten Wasserspeicheränderungen im Bereich der Kontinente. Der Einfluss ionosphärischer Terme höherer Ordnung auf GPS-Parameterschätzwerte wird untersucht. Diese Analyse erfolgt vor dem Hintergrund, dass bei der vermittelnden Ausgleichung generell auch systematische Effekte, die für sich genommen keine Stationspositionsänderung verursachen, trotzdem Einfluss auf geschätzte Stationskoordinaten haben. Die Sensitivität der GPS-Beobachtungen gegenüber der Auflastdeformation wird genutzt, modellierte Massenvariationen zu validieren. Mittels gegebener Massenvariationen werden Deformationszeitreihen abgeleitet. Für diese Zeitreihen werden im Zuge der Parameterschätzung Skalierungsfaktoren bestimmt und als Indikator für die Übereinstimmung zwischen modellierter und beobachteter Deformation gewertet. Änderungen der Massenverteilung im System Erde zeichnen sich unter anderem durch eine Schwerpunktverlagerung gegenüber der festen Erde aus. Wird die Massenverteilung durch eine sphärisch-harmonische Reihenentwicklung dargestellt, so sind die Terme ersten Grades mit der Schwerpunktverlagerung verknüpft. Die Grad-1-Anteile der Massenvariation können mittels satellitengravimetrischer Beobachtungen prinzipiell nicht bestimmt werden. Sie lassen sich aber mit Hilfe der GPS-Beobachtungen aus dem zugehörigen Deformationsanteil ermitteln. Der Einfluss systematischer Beobachtungsfehler auf diesem Inversionsansatz wird untersucht. Bei der Bestimmung globaler GPS-Lösungen werden die in den Beobachtungen enthaltenen Auflasteffektes prinzipiell auf alle simultan geschätzten Parameter abgebildet. Diese systematische Verfälschung erschwert die geophysikalische Interpretation von Stationspositionszeitreihen. Ein integrierter Ansatz wird entwickelt, um bestehende Vorinformation über verschiedene Massenvariationsprozesse bestmöglich einzubeziehen.
3

Spatio-Temporal Modeling of Vegetation Change Dynamics in the Guinea Savannah Region of Nigeria using Remote Sensing and GIS Techniques

Osunmadewa, Babatunde Adeniyi 25 September 2017 (has links) (PDF)
The use of Normalized Difference Vegetation Index (NDVI) time series over the last decades has increased our understanding of vegetation change dynamics from global to regional scale through quantitative analysis of inter-annual trends in NDVI and climatological parameters (rainfall and temperature). Change in land cover induced by human activities such as livestock grazing and deforestation for large-scale farming (subsistence and mechanized) has influenced the ecological pattern of the Guinea savannah region (GSR) of Nigeria, thereby resulting in loss of biodiversity and changes in vegetation cover. In the context of the GSR of Nigeria where agriculture still plays a major role in people’s economy, it is important to identify the relationship between climatic variables, vegetation productivity and human activities which can be used to understand the on-going transition processes. This study, therefore, examines the spatial and temporal relationship between NDVI and climate parameters, land use land cover change (LULCC) and the perspective of local people on vegetation change dynamics in the study region. In order to do this, bi-monthly NDVI3g time series datasets from Global Inventory Modeling and Mapping Studies (GIMMS), monthly rainfall datasets from Tropical Applications of Meteorology Satellite (TAMSAT), monthly temperature datasets from Climate Research Unit (CRU), national land use land cover (LULC) data of Nigeria from Forestry Management Evaluation & Coordination Unit (FORMECU), global land cover datasets from European Space Agency, Landsat imagery and socio-economic field data collection were used in order to understand vegetation change dynamics across the Guinea savannah regions of Nigeria. Time series analysis (TSA) was applied to both NDVI and climate data used in order to examine the temporal dynamics of vegetation cover change and to detect NDVI-climate relationship during the period from 1983 through 2011. Both parametric and non-parametric statistical models were employed for the assessment of long-term inter-annual trend on the decomposed time series datasets for the whole region (Guinea savannah region) and selected locations. In addition to the TSA, harmonic regression analysis was performed on NDVI and rainfall datasets in order to examine change in seasonality and phyto-phenological characteristics of vegetation. Detection of change in land use and land cover was done by extracting information from existing land cover datasets (ancillary datasets). CLASlite was used for the assessment of the extent of deforestation, while linkage between remotely sensed data and social science was carried out via field surveys based on questionnaires in order to understand the drivers of vegetation change. The study reveals that about 90 % of the Guinea savannah region show positive NDVI trends which indicate greening over time, while about 10 % of the region shows negative trends. This greening trends are closely related to regions where intensive agriculture is being practiced (also along inland valleys) while regions with negative trends show significant loss in woodlands (forest and shrublands) as well as herbaceous vegetation cover due to over-grazing by agro-pastoralism. The result confirms that there is a good relationship (statistically significant positive correlation) between rainfall and NDVI both on intra-annual and inter annual time scale for some selected locations in the study region (> 65 %), while negative statistical correlation exists between NDVI and temperature in the selected locations. This implies that vegetation growth (productivity) in the region is highly dependent on rainfall. The result of the harmonic regression analysis reveals a shift in the seasonal NDVI pattern, indicating an earlier start and a more prolonged growing season in 2011 than in 1983. This study proves significant change in LULC with evidence of an increase in the spatial extent of agricultural land (+ 30 %) and loss of woodlands (- 55 %) between 2000 and 2009 for Kogi State. The results of the socio-economic analysis (people’s perception) highlight that vegetation change dynamics in the study region are the resultant effects of increased anthropogenic activities rather than climatic variability. This study couples data from remote sensing and ground survey (socio-economics) for a better understanding of greening trend phenomena across the Guinea savannah region of Nigeria, thus filling the gap of inadequate information on environmental condition and human perturbation which is essential for proper land use management and vegetation monitoring.
4

Rank statistics of forecast ensembles

Siegert, Stefan 08 March 2013 (has links) (PDF)
Ensembles are today routinely applied to estimate uncertainty in numerical predictions of complex systems such as the weather. Instead of initializing a single numerical forecast, using only the best guess of the present state as initial conditions, a collection (an ensemble) of forecasts whose members start from slightly different initial conditions is calculated. By varying the initial conditions within their error bars, the sensitivity of the resulting forecasts to these measurement errors can be accounted for. The ensemble approach can also be applied to estimate forecast errors that are due to insufficiently known model parameters by varying these parameters between ensemble members. An important (and difficult) question in ensemble weather forecasting is how well does an ensemble of forecasts reproduce the actual forecast uncertainty. A widely used criterion to assess the quality of forecast ensembles is statistical consistency which demands that the ensemble members and the corresponding measurement (the ``verification\'\') behave like random independent draws from the same underlying probability distribution. Since this forecast distribution is generally unknown, such an analysis is nontrivial. An established criterion to assess statistical consistency of a historical archive of scalar ensembles and verifications is uniformity of the verification rank: If the verification falls between the (k-1)-st and k-th largest ensemble member it is said to have rank k. Statistical consistency implies that the average frequency of occurrence should be the same for each rank. A central result of the present thesis is that, in a statistically consistent K-member ensemble, the (K+1)-dimensional vector of rank probabilities is a random vector that is uniformly distributed on the K-dimensional probability simplex. This behavior is universal for all possible forecast distributions. It thus provides a way to describe forecast ensembles in a nonparametric way, without making any assumptions about the statistical behavior of the ensemble data. The physical details of the forecast model are eliminated, and the notion of statistical consistency is captured in an elementary way. Two applications of this result to ensemble analysis are presented. Ensemble stratification, the partitioning of an archive of ensemble forecasts into subsets using a discriminating criterion, is considered in the light of the above result. It is shown that certain stratification criteria can make the individual subsets of ensembles appear statistically inconsistent, even though the unstratified ensemble is statistically consistent. This effect is explained by considering statistical fluctuations of rank probabilities. A new hypothesis test is developed to assess statistical consistency of stratified ensembles while taking these potentially misleading stratification effects into account. The distribution of rank probabilities is further used to study the predictability of outliers, which are defined as events where the verification falls outside the range of the ensemble, being either smaller than the smallest, or larger than the largest ensemble member. It is shown that these events are better predictable than by a naive benchmark prediction, which unconditionally issues the average outlier frequency of 2/(K+1) as a forecast. Predictability of outlier events, quantified in terms of probabilistic skill scores and receiver operating characteristics (ROC), is shown to be universal in a hypothetical forecast ensemble. An empirical study shows that in an operational temperature forecast ensemble, outliers are likewise predictable, and that the corresponding predictability measures agree with the analytically calculated ones.
5

A Bridge between Short-Range and Seasonal Forecasts: Data-Based First Passage Time Prediction in Temperatures

Wulffen, Anja von 18 February 2013 (has links) (PDF)
Current conventional weather forecasts are based on high-dimensional numerical models. They are usually only skillful up to a maximum lead time of around 7 days due to the chaotic nature of the climate dynamics and the related exponential growth of model and data initialisation errors. Even the fully detailed medium-range predictions made for instance at the European Centre for Medium-Range Weather Forecasts do not exceed lead times of 14 days, while even longer-range predictions are limited to time-averaged forecast outputs only. Many sectors would profit significantly from accurate forecasts on seasonal time scales without needing the wealth of details a full dynamical model can deliver. In this thesis, we aim to study the potential of a much cheaper data-based statistical approach to provide predictions of comparable or even better skill up to seasonal lead times, using as an examplary forecast target the time until the next occurrence of frost. To this end, we first analyse the properties of the temperature anomaly time series obtained from measured data by subtracting a sinusoidal seasonal cycle, as well as the distribution properties of the first passage times to frost. The possibility of generating additional temperature anomaly data with the same properties by using very simple autoregressive model processes to potentially reduce the statistical fluctuations in our analysis is investigated and ultimately rejected. In a next step, we study the potential for predictability using only conditional first passage time distributions derived from the temperature anomaly time series and confirm a significant dependence of the distributions on the initial conditions. After this preliminary analysis, we issue data-based out-of-sample forecasts for three different prediction targets: The specific date of first frost, the probability of observing frost before summer for forecasts issued in spring, and the full probability distribution of the first passage times to frost. We then study the possibility of improving the forecast quality first by enhancing the stationarity of the temperature anomaly time series and then by adding as an additional input variable the state of the North Atlantic Oscillation on the date the predictions are issued. We are able to obtain significant forecast skill up to seasonal lead times when comparing our results to an unskilled reference forecast. A first comparison between the data-based forecasts and corresponding predictions gathered from a dynamical weather model, necessarily using a lead time of only up to 15 days, shows that our simple statistical schemes are only outperformed (and then only slightly) if further statistical post-processing is applied to the model output. / Aktuelle Wetterprognosen werden mit Hilfe von hochdimensionalen, numerischen Modellen generiert. Durch die dem Klima zugrunde liegende chaotische Dynamik wachsen Modellfehler und Ungenauigkeiten in der Modellinitialisierung exponentiell an, sodass Vorhersagen mit signifikanter Güte üblicherweise nur für eine Vorlaufzeit von maximal sieben Tagen möglich sind. Selbst die detaillierten Prognosen des Europäischen Zentrums für mittelfristige Wettervorhersagen gehen nicht über eine Vorlaufzeit von 14 Tagen hinaus, während noch längerfristigere Vorhersagen auf zeitgemittelte Größen beschränkt sind. Viele Branchen würden signifikant von akkuraten Vorhersagen auf saisonalen Zeitskalen pro-fitieren, ohne das ganze Ausmaß an Details zu benötigen, das von einem vollständigen dynamischen Modell geliefert werden kann. In dieser Dissertation beabsichtigen wir, am Beispiel einer Vorhersage der Zeitdauer bis zum nächsten Eintreten von Frost zu untersuchen, inwieweit deutlich kostengünstigere, datenbasierte statistische Verfahren Prognosen von gleicher oder sogar besserer Güte auf bis zu saisonalen Zeitskalen liefern können. Dazu analysieren wir zunächst die Eigenschaften der Zeitreihe der Temperaturanomalien, die aus den Messdaten durch das Subtrahieren eines sinusförmigen Jahresganges erhalten werden, sowie die Charakteristiken der Wahrscheinlichkeitsverteilungen der Zeitdauer bis zum nächsten Eintreten von Frost. Die Möglichkeit, durch einen einfachen autoregressiven Modellprozess zusätzliche Datenpunkte gleicher statistischer Eigenschaften wie der Temperaturanomalien zu generieren, um die statistischen Fluktuationen in der Analyse zu reduzieren, wird untersucht und letztendlich verworfen. Im nächsten Schritt analysieren wir das Vorhersagepotential, wenn ausschließlich aus den Temperaturanomalien gewonnene bedingte Wahrscheinlichkeitsverteilungen der Wartezeit bis zum nächsten Frost verwendet werden, und können eine signifikante Abhängigkeit der Verteilungen von den Anfangsbedingungen nachweisen. Nach dieser einleitenden Untersuchung erstellen wir datenbasierte Prognosen für drei verschiedene Vorhersagegrößen: Das konkrete Datum, an dem es das nächste Mal Frost geben wird; die Wahrscheinlichkeit, noch vor dem Sommer Frost zu beobachten, wenn die Vorhersagen im Frühjahr ausgegeben werden; und die volle Wahrscheinlichkeitsverteilung der Zeitdauer bis zum nächsten Eintreten von Frost. Anschließend untersuchen wir die Möglichkeit, die Vorhersagegüte weiter zu erhöhen - zunächst durch eine Verbesserung der Stationarität der Temperaturanomalien und dann durch die zusätzliche Berücksichtigung der Nordatlantischen Oszillation als einer zweiten, den Anfangszustand charakterisierenden Variablen im Vorhersageschema. Wir sind in der Lage, im Vergleich mit einem naiven Referenzvorhersageschema eine signifikante Verbesserung der Vorhersagegüte auch auf saisonalen Zeitskalen zu erreichen. Ein erster Vergleich zwischen den datenbasierten Vorhersagen und entsprechenden, aus den dynamischen Wettermodellen gewonnenen Prognosen, der sich notwendigerweise auf eine Vorlaufzeit der Vorhersagen von lediglich 15 Tagen beschränkt, zeigt, dass letztere unsere simplen statistischen Vorhersageschemata nur schlagen (und zwar knapp), wenn der Modelloutput noch einer statistischen Nachbearbeitung unterzogen wird.

Page generated in 0.0181 seconds