Spelling suggestions: "subject:"modellselektion"" "subject:"zellselektion""
1 |
Detection of long-range dependence : applications in climatology and hydrologyRust, Henning January 2007 (has links)
It is desirable to reduce the potential threats that result from the
variability of nature, such as droughts or heat waves that lead to
food shortage, or the other extreme, floods that lead to severe
damage. To prevent such catastrophic events, it is necessary to
understand, and to be capable of characterising, nature's variability.
Typically one aims to describe the underlying dynamics of geophysical
records with differential equations. There are, however, situations
where this does not support the objectives, or is not feasible, e.g.,
when little is known about the system, or it is too complex for the
model parameters to be identified. In such situations it is beneficial
to regard certain influences as random, and describe them with
stochastic processes. In this thesis I focus on such a description
with linear stochastic processes of the FARIMA type and concentrate on
the detection of long-range dependence. Long-range dependent processes
show an algebraic (i.e. slow) decay of the autocorrelation
function. Detection of the latter is important with respect to,
e.g. trend tests and uncertainty analysis.
Aiming to provide a reliable and powerful strategy for the detection
of long-range dependence, I suggest a way of addressing the problem
which is somewhat different from standard approaches. Commonly used
methods are based either on investigating the asymptotic behaviour
(e.g., log-periodogram regression), or on finding a suitable
potentially long-range dependent model (e.g., FARIMA[p,d,q]) and test
the fractional difference parameter d for compatibility with
zero. Here, I suggest to rephrase the problem as a model selection
task, i.e.comparing the most suitable long-range dependent and the
most suitable short-range dependent model. Approaching the task this
way requires a) a suitable class of long-range and short-range
dependent models along with suitable means for parameter estimation
and b) a reliable model selection strategy, capable of discriminating
also non-nested models. With the flexible FARIMA model class together
with the Whittle estimator the first requirement is
fulfilled. Standard model selection strategies, e.g., the
likelihood-ratio test, is for a comparison of non-nested models
frequently not powerful enough. Thus, I suggest to extend this
strategy with a simulation based model selection approach suitable for
such a direct comparison. The approach follows the procedure of
a statistical test, with the likelihood-ratio as the test
statistic. Its distribution is obtained via simulations using the two
models under consideration. For two simple models and different
parameter values, I investigate the reliability of p-value and power
estimates obtained from the simulated distributions. The result turned
out to be dependent on the model parameters. However, in many cases
the estimates allow an adequate model selection to be established.
An important feature of this approach is that it immediately reveals
the ability or inability to discriminate between the two models under
consideration.
Two applications, a trend detection problem in temperature records and
an uncertainty analysis for flood return level estimation, accentuate the
importance of having reliable methods at hand for the detection of
long-range dependence. In the case of trend detection, falsely
concluding long-range dependence implies an underestimation of a trend
and possibly leads to a delay of measures needed to take in order to
counteract the trend. Ignoring long-range dependence, although
present, leads to an underestimation of confidence intervals and thus
to an unjustified belief in safety, as it is the case for the
return level uncertainty analysis. A reliable detection of long-range
dependence is thus highly relevant in practical applications.
Examples related to extreme value analysis are not limited to
hydrological applications. The increased uncertainty of return level
estimates is a potentially problem for all records from autocorrelated
processes, an interesting examples in this respect is the assessment
of the maximum strength of wind gusts, which is important for
designing wind turbines. The detection of long-range dependence is
also a relevant problem in the exploration of financial market
volatility. With rephrasing the detection problem as a model
selection task and suggesting refined methods for model comparison,
this thesis contributes to the discussion on and development of
methods for the detection of long-range dependence. / Die potentiellen Gefahren und Auswirkungen der natürlicher
Klimavariabilitäten zu reduzieren ist ein wünschenswertes Ziel. Solche
Gefahren sind etwa Dürren und Hitzewellen, die zu Wasserknappheit
führen oder, das andere Extrem, Überflutungen, die einen erheblichen
Schaden an der Infrastruktur nach sich ziehen können. Um solche
katastrophalen Ereignisse zu vermeiden, ist es notwendig die Dynamik
der Natur zu verstehen und beschreiben zu können.
Typischerweise wird versucht die Dynamik geophysikalischer Datenreihen
mit Differentialgleichungssystemen zu
beschreiben. Es gibt allerdings Situationen in denen dieses Vorgehen
nicht zielführend oder technisch nicht möglich ist. Dieses sind
Situationen in denen wenig Wissen über das System vorliegt oder es zu
komplex ist um die Modellparameter zu identifizieren.
Hier ist es sinnvoll einige Einflüsse als zufällig zu
betrachten und mit Hilfe stochastischer Prozesse zu modellieren.
In dieser Arbeit wird eine solche Beschreibung mit linearen
stochastischen Prozessen der FARIMA-Klasse angestrebt. Besonderer
Fokus liegt auf der Detektion von langreichweitigen
Korrelationen. Langreichweitig korrelierte Prozesse sind solche mit
einer algebraisch, d.h. langsam, abfallenden
Autokorrelationsfunktion. Eine verläßliche Erkennung dieser Prozesse
ist relevant für Trenddetektion und Unsicherheitsanalysen.
Um eine verläßliche Strategie für die Detektion
langreichweitig korrelierter Prozesse zur Verfügung zu stellen, wird
in der Arbeit ein anderer als der Standardweg vorgeschlagen.
Gewöhnlich werden Methoden eingesetzt, die das
asymptotische Verhalten untersuchen, z.B. Regression im Periodogramm.
Oder aber es wird versucht ein passendes potentiell langreichweitig
korreliertes Modell zu finden, z.B. aus der FARIMA Klasse, und den
geschätzten fraktionalen Differenzierungsparameter d auf Verträglichkeit
mit dem trivialen Wert Null zu testen. In der Arbeit wird
vorgeschlagen das Problem der Detektion langreichweitiger
Korrelationen als Modellselektionsproblem umzuformulieren, d.h. das
beste kurzreichweitig und das beste langreichweitig
korrelierte Modell zu vergleichen. Diese Herangehensweise erfordert a)
eine geeignete Klasse von lang- und kurzreichweitig korrelierten
Prozessen und b) eine verläßliche Modellselektionsstrategie, auch für
nichtgenestete Modelle. Mit der flexiblen FARIMA-Klasse und dem
Whittleschen Ansatz zur Parameterschätzung ist die erste
Voraussetzung erfüllt. Hingegen sind standard Ansätze zur
Modellselektion, wie z.B. der Likelihood-Ratio-Test, für
nichtgenestete Modelle oft nicht trennscharf genug. Es wird daher
vorgeschlagen diese Strategie mit einem simulationsbasierten Ansatz zu
ergänzen, der insbesondere für die direkte Diskriminierung
nichtgenesteter Modelle geeignet ist. Der Ansatz folgt
einem statistischen Test mit dem Quotienten der Likelihood
als Teststatistik. Ihre Verteilung wird über
Simulationen mit den beiden zu unterscheidenden Modellen
ermittelt. Für zwei einfache Modelle und verschiedene Parameterwerte
wird die Verläßlichkeit der Schätzungen für p-Wert und Power
untersucht. Das Ergebnis hängt von den Modellparametern ab. Es konnte
jedoch in vielen Fällen eine adäquate Modellselektion etabliert
werden. Ein wichtige Eigenschaft dieser Strategie ist, dass
unmittelbar offengelegt wird, wie gut sich die betrachteten Modelle
unterscheiden lassen.
Zwei Anwendungen, die Trenddetektion in Temperaturzeitreihen und die
Unsicherheitsanalyse für Bemessungshochwasser, betonen den Bedarf an
verläßlichen Methoden für die Detektion langreichweitiger
Korrelationen. Im Falle der Trenddetektion führt ein fälschlicherweise
gezogener Schluß auf langreichweitige Korrelationen zu einer
Unterschätzung eines Trends, was wiederum zu einer möglicherweise
verzögerten Einleitung von Maßnahmen führt, die diesem entgegenwirken
sollen. Im Fall von Abflußzeitreihen führt die Nichtbeachtung von
vorliegenden langreichweitigen Korrelationen zu einer Unterschätzung
der Unsicherheit von Bemessungsgrößen. Eine verläßliche Detektion von
langreichweitig Korrelierten Prozesse ist somit von hoher Bedeutung in
der praktischen Zeitreihenanalyse. Beispiele mit Bezug zu extremem
Ereignissen beschränken sich nicht nur auf die Hochwasseranalyse. Eine
erhöhte Unsicherheit in der Bestimmung von extremen Ereignissen ist
ein potentielles Problem von allen autokorrelierten Prozessen. Ein
weiteres interessantes Beispiel ist hier die Abschätzung von maximalen
Windstärken in Böen, welche bei der Konstruktion von Windrädern eine
Rolle spielt. Mit der Umformulierung des Detektionsproblems als
Modellselektionsfrage und mit der Bereitstellung geeigneter
Modellselektionsstrategie trägt diese Arbeit zur Diskussion und
Entwicklung von Methoden im Bereich der Detektion von
langreichweitigen Korrelationen bei.
|
2 |
Multiple Outlier Detection: Hypothesis Tests versus Model Selection by Information CriteriaLehmann, Rüdiger, Lösler, Michael 14 June 2017 (has links) (PDF)
The detection of multiple outliers can be interpreted as a model selection problem. Models that can be selected are the null model, which indicates an outlier free set of observations, or a class of alternative models, which contain a set of additional bias parameters. A common way to select the right model is by using a statistical hypothesis test. In geodesy data snooping is most popular. Another approach arises from information theory. Here, the Akaike information criterion (AIC) is used to select an appropriate model for a given set of observations. The AIC is based on the Kullback-Leibler divergence, which describes the discrepancy between the model candidates. Both approaches are discussed and applied to test problems: the fitting of a straight line and a geodetic network. Some relationships between data snooping and information criteria are discussed. When compared, it turns out that the information criteria approach is more simple and elegant. Along with AIC there are many alternative information criteria for selecting different outliers, and it is not clear which one is optimal.
|
3 |
Quantile methods for financial risk managementSchaumburg, Julia 27 February 2013 (has links)
In dieser Dissertation werden neue Methoden zur Erfassung zweier Risikoarten entwickelt. Markrisiko ist definiert als das Risiko, auf Grund von Wertrückgängen in Wertpapierportfolios Geld zu verlieren. Systemisches Risiko bezieht sich auf das Risiko des Zusammenbruchs eines Finanzsystems, das durch die Notlage eines einzelnen Finanzinstituts entsteht. Im Zuge der Finanzkrise 2007–2009 realisierten sich beide Risiken, was weltweit zu hohen Verlusten für Investoren, Unternehmen und Steuerzahler führte. Vor diesem Hintergrund besteht sowohl bei Finanzinstituten als auch bei Regulierungsbehörden Interesse an neuen Ansätzen für das Risikomanagement. Die Gemeinsamkeit der in dieser Dissertation entwickelten Methoden besteht darin, dass unterschiedliche Quantilsregressionsansätze in neuartiger Weise für das Finanzrisikomanagement verwendet werden. Zum einen wird nichtparametrische Quantilsregression mit Extremwertmethoden kombiniert, um extreme Markpreisänderungsrisiken zu prognostizieren. Das resultierende Value at Risk (VaR) Prognose- Modell für extremeWahrscheinlichkeiten wird auf internationale Aktienindizes angewandt. In vielen Fällen schneidet es besser ab als parametrische Vergleichsmodelle. Zum anderen wird ein Maß für systemisches Risiko, das realized systemic risk beta, eingeführt. Anders als bereits existierende Messgrößen erfasst es explizit sowohl Risikoabhängigkeiten zwischen Finanzinstituten als auch deren individuelle Bilanzmerkmale und Finanzsektor-Indikatoren. Um die relevanten Risikotreiber jedes einzelnen Unternehmens zu bestimmen, werden Modellselektionsverfahren für hochdimensionale Quantilsregressionen benutzt. Das realized systemic risk beta entspricht dem totalen Effekt eines Anstiegs des VaR eines Unternehmens auf den VaR des Finanzsystems. Anhand von us-amerikanischen und europäischen Daten wird gezeigt, dass die neue Messzahl sich gut zur Erfassung und Vorhersage systemischen Risikos eignet. / This thesis develops new methods to assess two types of financial risk. Market risk is defined as the risk of losing money due to drops in the values of asset portfolios. Systemic risk refers to the breakdown risk for the financial system induced by the distress of individual companies. During the financial crisis 2007–2009, both types of risk materialized, resulting in huge losses for investors, companies, and tax payers all over the world. Therefore, considering new risk management alternatives is of interest for both financial institutions and regulatory authorities. A common feature of the models used throughout the thesis is that they adapt quantile regression techniques to the context of financial risk management in a novel way. Firstly, to predict extreme market risk, nonparametric quantile regression is combined with extreme value theory. The resulting extreme Value at Risk (VaR) forecast framework is applied to different international stock indices. In many situations, its performance is superior to parametric benchmark models. Secondly, a systemic risk measure, the realized systemic risk beta, is proposed. In contrast to exististing measures it is tailored to account for tail risk interconnections within the financial sector, individual firm characteristics, and financial indicators. To determine each company’s relevant risk drivers, model selection techniques for high-dimensional quantile regression are employed. The realized systemic risk beta corresponds to the total effect of each firm’s VaR on the system’s VaR. Using data on major financial institutions in the U.S. and in Europe, it is shown that the new measure is a valuable tool to both estimate and forecast systemic risk.
|
4 |
Multiple Outlier Detection: Hypothesis Tests versus Model Selection by Information CriteriaLehmann, Rüdiger, Lösler, Michael January 2016 (has links)
The detection of multiple outliers can be interpreted as a model selection problem. Models that can be selected are the null model, which indicates an outlier free set of observations, or a class of alternative models, which contain a set of additional bias parameters. A common way to select the right model is by using a statistical hypothesis test. In geodesy data snooping is most popular. Another approach arises from information theory. Here, the Akaike information criterion (AIC) is used to select an appropriate model for a given set of observations. The AIC is based on the Kullback-Leibler divergence, which describes the discrepancy between the model candidates. Both approaches are discussed and applied to test problems: the fitting of a straight line and a geodetic network. Some relationships between data snooping and information criteria are discussed. When compared, it turns out that the information criteria approach is more simple and elegant. Along with AIC there are many alternative information criteria for selecting different outliers, and it is not clear which one is optimal.
|
Page generated in 0.1018 seconds