1 |
Prognose makroökonomischer Zeitreihen: Ein Vergleich linearer Modelle mit neuronalen NetzenKoller, Wolfgang 12 September 2012 (has links) (PDF)
Die vorliegende Arbeit untersucht das Potenzial von neuronalen Netzen (NN) zur Prognose von makroökonomischen
Zeitreihen und vergleicht es mit jenem von linearen Modellen. Im Zentrum steht das autoregressive Neuronale-
Netz-Modell (ARNN), das als nicht-lineare Generalisierung des konventionellen autoregressiven Modells (AR) gesehen werden kann, wobei der nicht-lineare Teil durch ein neuronales Netz vom Feedforward-Typ implementiert wird.
Die besonderen Aspekte makroökonomischer Zeitreihen, denen durch die Anpassung und Weiterentwicklung sowohl des
linearen als auch des NN-Instrumentariums Rechnung getragen werden soll, sind insbesondere die hohe Stochastizität, die geringe Länge, nicht-stationäres Verhalten und Saisonalität sowie der Umstand, dass das Vorhandensein von Nicht-linearität a priori nicht klar ist. Für die Entwicklung und Evaluierung der Methoden werden neben einer simulierten Zeitreihe mit bekannten nicht-linearen Eigenschaften als realweltliche Zeitreihen die österreichische Arbeitslosenrate und der österreichische Industrieproduktionsindex herangezogen (beide mit monatlichen Beobachtungen, saisonal unbereinigt).
Im ersten, auf die Einleitung folgenden, Hauptkapitel der Arbeit werden die Grundlagen der linearen univariaten Zeitreihenanalyse rekapituliert und das lineare Instrumentarium auf die beiden Beispielzeitreihen angewandt. Besonderes Augenmerk wird auf die Frage der Herbeiführung der Stationarität durch Bildung der konventionellen, der saisonalen Differenzen oder durch Kombination beider Differenzenfilter gelegt. Hierzu werden Unit-Root-Tests und weitere Methoden angewandt. Zu den verwendeten linearen Modellen gehört neben dem AR-Modell auch das autoregressive Moving-Average-Modell (ARMA). Diese werden zusätzlich um einen Modellteil für deterministische Saisonalität ergänzt. Die auf den beiden Beispielzeitreihen geschätzten Modelle weisen eine relativ hohe Modellordnung sowie auch bei sparsamer Modellspezifikation relativ viele Koeffizienten auf.
Das zweite Hauptkapitel behandelt verschiedene theoretische Aspekte und Typen der Nicht-Linearität in Zeitreihen und führt eine Folge von Hypothesentests auf Nicht-Linearität ein. Die Durchführung dieser Tests empfiehlt sich, um den möglichen Gewinn durch den Einsatz von neuronalen Netzen vorab abschätzen zu können. Die Ergebnisse der Nicht-Linearitätstests auf den beiden makroökonomischen Zeitreihen belegen das Vorhandensein von nicht-linearer Struktur des additiven Typs, der von ARNN-Modellen vorhergesagt werden kann. Doch ist bei der Interpretation
dieses Ergebnisses Vorsicht geboten, da nicht-lineare Strukturen multiplikativen Typs, verbliebene lineare Strukturen und mögliche Strukturbrüche das Ergebnis dieser Test verfälschen können.
Im dritten Hauptkapitel werden das ARNN-Modell und Methoden für seine Schätzung und Spezifikation vorgestellt und weiterentwickelt. Die Modellspezifikation sieht einen Modellteil für deterministische Saisonalität vor, schließt einen linearen Modellteil mit ein und erlaubt sparsame Spezifikation der Koeffizienten. Die Generalisierungsfähigkeit des ARNN-Modells (Vermeidung des Overfitting-Problems) wird durch vier verschiedene Modellierungsansätze angestrebt: statistisch-parametrischer Ansatz unter Anwendung von Hypothesentests und Pruning, klassischer Ansatz mit Early-Stopping, Ansatz mit Regularisierung und Bayesianischer Evidenzansatz. Zu jedem dieser Ansätze werden verschiedene Erweiterungen und verbesserte Heuristiken beigetragen, die im Hinblick auf das Anwendungsgebiet hilfreich sind. Die Vor- und Nachteile der Ansätze werden sowohl theoretisch als auch anhand von Anwendungen auf den simulierten und den realweltlichen makroökonomischen Zeitreihen diskutiert.
Das vierte Hauptkapitel ist einer systematisch angelegten Prognose- und Evaluierungsanordnung gewidmet, in der auf einem Evaluierungsset, das zuvor noch nicht für die Methodenentwicklung und Modellschätzung verwendet worden
ist, die Prognosegüte der linearen und NN-Methoden getestet wird. Hierzu wird die ARNN-Modellspezifikation für Mehr-Schritt-Prognosen erweitert, wobei sowohl simulativ-iterierte als auch direkte Mehr-Schritt-Prognosen ermöglicht werden. Angesichts der großen Anzahl von Prognosezeitreihen, die für verschieden differenzierte Zeitreihen, unterschiedliche Modellierungsansätze und Prognosehorizonte erstellt werden, ist die Auswertung nicht eindeutig. Es kann weder für die österreichische Arbeitslosenrate noch für den Industrieproduktionsindex
anhand des MSFE (mean square forecasting error) eine klare Überlegenheit der ARNN-Modelle gegenüber AR- und ARMA-Modellen feststellt werden. Bei Durchführung des Diebold-Mariano-Test auf einer Auswahl von a priori bevorzugten Modellierungsstrategien ergibt sich nur in wenigen Fällen eine statistisch signifikant unterschiedliche Prognosegüte.
Die Ergebnisse der Arbeit lassen den Schluss zu, dass ARNN-Modelle prinzipiell gut zur Prognose von makroökonomischen Zeitreihen einsetzbar sind, jedoch im Falle von ungenügend vorhandener nicht-linearer Struktur in den Zeitreihen verschiedene Probleme wie mehrfache lokale Minima und numerische Instabilität der Verfahren dem Praktiker im Vergleich zu linearen Modellen zusätzliche Aufmerksamkeit abverlangen.
Fast alle Methoden und Modelle, die in der Arbeit zur Anwendung kommen, werden in der mathematischen Programmiersprache R implementiert und in Form von zwei R-Programmpaketen (seasonal und NNUTS) zusammengestellt, deren Dokumentation als Anhang in die Arbeit aufgenommen wurde.
|
2 |
The software JMulTi / concept, development, and aaplication in VAR analysis ; with a detailed discussion of bootstrap confidence intervals for impulse responsesBenkwitz, Alexander 03 July 2002 (has links)
Die Dissertation entwickelt und untersucht Methoden für die Analyse dynamischer Mehrgleichungsmodelle (VAR Modelle). Zuerst wird ein allgemeines Konzept für die Einbindung statistischer Prozeduren in eine menügesteuerte Software entwickelt. Die resultierende Java--Bibliothek besteht aus konfigurierbaren Oberflächenkomponenten und Funktionen, die die Kommunikation zum statistischen Softwarepaket GAUSS ermöglichen. Diese Bibliothek ist die Grundlage für die Software JMulTi, einem menügeführten Programm zur Analyse univariater und multivariater Zeitreihen. Der Einsatz von JMulTi bei der Analyse von VAR Modellen wird anschließend dokumentiert. Dazu werden für den monetären Sektor in Deutschland unrestringierte und restringierte VAR Modelle geschätzt und unterschiedliche Bootstrapkonfidenzintervallen für Impulsantworten berechnet und verglichen. Diese Intervalle sind Gegenstand einer abschließenden und detaillierten Analyse. Es wird untersucht, ob die in JMulTi verwendeten Bootstrapverfahren (und weitergehende Vorschläge wie z.B. das Subsampling) in der Lage sind, die mögliche Inkonsistenz des standardasymptotischen Verfahrens bei der Berechnung von Konfidenzintervallen für Impulsantworten zu überwinden. Eine Monte-Carlo-Studie illustriert die Leistungsfähigkeit der untersuchten Methoden. / The thesis develops and examines tools for the analysis of dynamic multi-equation models (VAR models). First, a general concept for the integration of statistic procedures into a menu controlled software is developed. The resulting Java-library consists of configurable graphical user interface components and functions, which allow communication to the statistic software package GAUSS. This library is the basis for the software JMulTi, a menu-driven program for analyzing univariate and multivariate time series. The use of JMulTi for analyzing VAR models is documented next. Unrestricted and restricted VAR models for the monetary sector of Germany are estimated and different bootstrap confidence intervals for impulse responses are computed and compared. These intervals are subject of a concluding and detailed analysis. It is examined whether the bootstrap methods used in JMulTi (and further suggestions, e.g. the subsampling) are able to overcome the possible inconsistency of the standard asymptotic method when computing confidence intervals for impulse responses. A Monte-Carlo-study illustrates the performance of the examined methods.
|
3 |
Forecasting Global Equity Indices Using Large Bayesian VARsHuber, Florian, Krisztin, Tamás, Piribauer, Philipp 10 1900 (has links) (PDF)
This paper proposes a large Bayesian Vector Autoregressive (BVAR) model with common stochastic volatility to forecast global equity indices. Using a dataset consisting of monthly data on global stock indices the BVAR model inherently incorporates co-movements in the stock markets. The time-varying specification of the covariance structure moreover accounts for sudden shifts in the level of volatility. In an out-of-sample forecasting application we show that the BVAR model with stochastic volatility significantly outperforms the random walk both in terms of root mean squared errors as well as Bayesian log
predictive scores. The BVAR model without stochastic volatility, on the other hand, underperforms relative to the random walk. In a portfolio allocation exercise we moreover show that it is possible to use the forecasts obtained from our BVAR model with common stochastic volatility to set up simple investment strategies. Our results indicate that these simple investment schemes outperform a naive buy-and-hold strategy. (authors' abstract) / Series: Department of Economics Working Paper Series
|
4 |
A software framework for data based analysisKrätzig, Markus 21 March 2005 (has links)
Es wird das Software Framework JStatCom vorgestellt, welches die Enwicklung von leistungsfähigen grafischen Benutzerschnittstellen für Daten-basierte Analysemethoden wesentlich vereinfacht, wobei der Schwerpunkt auf Methoden der Ökonometrie, insbesondere der Zeitreihenanalyse liegt. Das Konzept besteht darin, sämtliche wiederkehrenden Aufgaben mit Hilfe von Java-Klassen zu lösen, sowie die Ausführung von speziellen Algorithmen an externe Programme, wie z.B. Gauss oder Matlab, zu delegieren. Auf diese Weise können schon existierende Prozeduren aus verschiedenen Programmiersprachen wiederverwendet werden. Weiterhin wird die ökonometrische Anwendungssoftware JMulTi beschrieben, die auf Basis dieses Frameworks erstellt wurde. / This work presents the software framework JStatCom which is geared towards the development of powerful graphical user interfaces for data based analysis methods, especially for econometrics and time series analysis. The concept is to solve all recurring tasks with the help of Java classes and to delegate the execution of special algorithms to external programs, for example Gauss or Matlab. This way it is possible to reuse already existing procedures written in different programming languages. Furthermore, the econometric software JMulTi will be presented which has been developed with the help of this framework.
|
5 |
Essays in dynamic behaviorViefers, Paul 04 December 2014 (has links)
Diese Dissertation behandelt sowohl die Theorie, als auch beobachtetes Verhalten in Stoppproblemen. In einem Stoppproblem, beobachtet ein Agent die Entwicklung eines stationären, stochastischen Prozesses über die Zeit. Zu jedem Zeitpunkt genießt der Agent das Recht den Prozess zu stoppen, um eine Auszahlung einzustreichen die Funktion des gegenwärtigen und der vergangenen Realisationen des Prozesses sind. Das Ziel des Agenten ist es den Stoppzeitpunkt so zu wählen, dass die erwartete Auszahlung oder der erwartete Verlust durch Stoppen maximiert bzw. minimiert wird. Stoppprobleme dieser Art konstituieren können als die einfachsten, jedoch wirklich dynamischen Entscheidungsprobleme in der ökonomischen Theorie angesehen werden Das erste Kapitel legt neue theoretische Resultate hinsichtlich der optimalen Stoppstrategien unter Erwartungsnutzentheorie, sog. gain-loss utilities und Bedauerungspräferenzen vor. Das zweite Kapitel behandelt sodann die Ergebnisse eines Laborexperiments in dem die theoretischen Vorhersagen getestet werden. Kapitel drei beschäftigt sich mit der Situation in der die Agenten nicht vollständig über Wahrscheinlichkeiten für künftige Ereignisse informiert sind, d.h. es herrscht Ambiguität. / This dissertation is concerned with theory and behavior in stopping problems. In a stopping problem an agent or individual observes the realization of some exogenous and stationary stochastic process over time. At every point in time, she has the right or the once-only option to stop the process in order to earn a function of the past and current values of the process. The agent''s objective then is to choose the point in time to exercise the option in order to maximize an expected reward or to minimize an expected loss. Such problems constitute the most rudimentary, yet truly dynamic class of choice problems that is studied in economics. The first chapter provides new theoretical results about optimal stopping both under expected utility, as well as gain-loss utility and regret preferences. The second chapter presents a laboratory experiment that tests several of the theoretical predictions about behavior made in the first chapter. The third chapter is concerned with stopping behavior in a setting, where the probability law that drives the observed process is not perfectly known to the decision maker, i.e. there is ambiguity.
|
6 |
Essays in International Finance, Energy Economics, and Applied Time Series EconometricsBoer, Lukas 15 December 2022 (has links)
Diese Dissertation beantwortet verschiedene politikrelevante ökonomische Fragen in den Bereichen Handelspolitik, Geldpolitik, sowie Rohstoffmärkte und Energieökonomik mit Hilfe von strukturellen Vektorautoregressionsmodellen (SVAR). SVARs stellen eine effektive Möglichkeit dar, die Beziehungen zwischen verschiedenen makroökonomischen und/oder Finanzmarkt-Variablen zu modellieren und werden verwendet, um die dynamischen kausalen Effekte von ökonomischen Schocks zu schätzen. Für jede ökonomische Fragestellung wird eine Identifikationsstrategie angewandt, die auf die betrachteten Daten und ihre statistischen Eigenschaften sowie die zugrundeliegenden Annahmen über ökonomische Mechanismen zwischen den betrachteten Zeitreihen zugeschnitten ist.
Im Einzelnen besteht diese Dissertation aus vier Kapiteln. In den ersten beiden Kapiteln werden die Auswirkungen von Handelspolitik auf Finanzmärkte und auf die Makroökonomie geschätzt. Das dritte Kapitel liefert einen methodischen Beitrag zur SVAR-Literatur, der in einer Anwendung zu den Effekten von Geldpolitik dargestellt wird. Das letzte Kapitel verlässt die Felder der Handels- und Geldpolitik und wendet sich Rohstoffmärkten und der Energiewirtschaft zu, stützt sich dabei aber ebenfalls auf Zeitreihenmethoden. Es analysiert die Rolle von Metallen in der Energiewende. / This dissertation answers various policy relevant economic questions in the fields of trade policy, monetary policy, and commodity markets and energy economics using structural vector autoregression (SVAR) models. SVARs constitute a parsimonious way to model the relations between different macroeconomic and/or financial variables and they are used to estimate the dynamic causal effects of economic shocks. For each economic question, this dissertation applies an identification strategy that is tailored to the relevant data and its statistical properties as well as the underlying assumptions about economic mechanisms among the regarded time series.
Specifically, this dissertation consists of four chapters. The first two chapters estimate the effects of trade policy on financial markets and on the macroeconomy. The third chapter makes a methodological contribution to the SVAR literature in an application to monetary policy shocks. The final chapter moves away from trade and monetary policy to commodity markets and energy economics but also relies on time series methods. It analyzes the role of metals for the clean energy transition.
|
7 |
Reversible Jump Markov Chain Monte CarloNeuhoff, Daniel 15 March 2016 (has links)
Die vier in der vorliegenden Dissertation enthaltenen Studien beschäftigen sich vorwiegend mit dem dynamischen Verhalten makroökonomischer Zeitreihen. Diese Dynamiken werden sowohl im Kontext eines einfachen DSGE Modells, als auch aus der Sichtweise reiner Zeitreihenmodelle untersucht. / The four studies of this thesis are concerned predominantly with the dynamics of macroeconomic time series, both in the context of a simple DSGE model, as well as from a pure time series modeling perspective.
|
8 |
Detecting and quantifying causality from time series of complex systems / how information theory can help in discovering interaction mechanisms in the climate systemRunge, Jakob 18 August 2014 (has links)
Der technologische Fortschritt hat in jüngster Zeit zu einer großen Zahl von Zeitreihenmessdaten über komplexe dynamische Systeme wie das Klimasystem, das Gehirn oder das globale ökonomische System geführt. Beispielsweise treten im Klimasystem Prozesse wie El Nino-Southern Oscillation (ENSO) mit dem indischen Monsun auf komplexe Art und Weise durch Telekonnektionen und Rückkopplungen in Wechselwirkung miteinander. Die Analyse der Messdaten zur Rekonstruktion der diesen Wechselwirkungen zugrunde liegenden kausalen Mechanismen ist eine Möglichkeit komplexe Systeme zu verstehen, insbesondere angesichts der unendlich-dimensionalen Komplexität der physikalischen Prozesse. Diese Dissertation verfolgt zwei Hauptfragen: (i) Wie können, ausgehend von multivariaten Zeitreihen, kausale Wechselwirkungen praktisch detektiert werden? (ii) Wie kann die Stärke kausaler Wechselwirkungen zwischen mehreren Prozessen in klar interpretierbarer Weise quantifiziert werden? Im ersten Teil der Arbeit werden die Theorie zur Detektion und Quantifikation nichtlinearer kausaler Wechselwirkungen (weiter-)entwickelt und wichtige Aspekte der Schätztheorie untersucht. Zur Quantifikation kausaler Wechselwirkungen wird ein physikalisch motivierter, informationstheoretischer Ansatz vorgeschlagen, umfangreich numerisch untersucht und durch analytische Resultate untermauert. Im zweiten Teil der Arbeit werden die entwickelten Methoden angewandt, um Hypothesen über kausale Wechselwirkungen in Klimadaten der vergangenen hundert Jahre zu testen und zu generieren. In einem zweiten, eher explorativen Schritt wird ein globaler Luftdruck-Datensatz analysiert, um wichtige treibende Prozesse in der Atmosphäre zu identifizieren. Abschließend wird aufgezeigt, wie die Quantifizierung von Wechselwirkungen Aufschluss über mögliche qualitative Veränderungen in der Klimadynamik (Kipppunkte) geben kann und wie kausal treibende Prozesse zur optimalen Vorhersage von Zeitreihen genutzt werden können. / Today''s scientific world produces a vastly growing and technology-driven abundance of time series data of such complex dynamical systems as the Earth''s climate, the brain, or the global economy. In the climate system multiple processes (e.g., El Nino-Southern Oscillation (ENSO) or the Indian Monsoon) interact in a complex, intertwined way involving teleconnections and feedback loops. Using the data to reconstruct the causal mechanisms underlying these interactions is one way to better understand such complex systems, especially given the infinite-dimensional complexity of the underlying physical equations. In this thesis, two main research questions are addressed: (i) How can general causal interactions be practically detected from multivariate time series? (ii) How can the strength of causal interactions between multiple processes be quantified in a well-interpretable way? In the first part of this thesis, the theory of detecting and quantifying general (linear and nonlinear) causal interactions is developed alongside with the important practical issues of estimation. To quantify causal interactions, a physically motivated, information-theoretic formalism is introduced. The formalism is extensively tested numerically and substantiated by rigorous mathematical results. In the second part of this thesis, the novel methods are applied to test and generate hypotheses on causal interactions in climate time series covering the 20th century up to the present. The results yield insights on an understanding of the Walker circulation and teleconnections of the ENSO system, for example with the Indian Monsoon. Further, in an exploratory way, a global surface pressure dataset is analyzed to identify key processes that drive and govern interactions in the global atmosphere. Finally, it is shown how quantifying interactions can be used to determine possible structural changes, termed tipping points, and as optimal predictors, here applied to the prediction of ENSO.
|
9 |
Nonstationarity in Low and High Frequency Time SeriesSaef, Danial Florian 20 February 2024 (has links)
Nichtstationarität ist eines der häufigsten, jedoch nach wie vor ungelösten Probleme in der Zeitreihenanalyse und ein immer wiederkehrendes Phänomen, sowohl in theoretischen als auch in angewandten Arbeiten. Die jüngsten Fortschritte in der ökonometrischen Theorie und in Methoden des maschinellen Lernens haben es Forschern ermöglicht, neue Ansätze für empirische Analysen zu entwickeln, von denen einige in dieser Arbeit erörtert werden sollen.
Kapitel 3 befasst sich mit der Vorhersage von Mergers & Acquisitions (M&A). Obwohl es keinen Zweifel daran gibt, dass M&A-Aktivitäten im Unternehmenssektor wellenartigen Mustern folgen, gibt es keine einheitlich akzeptierte Definition einer solchen "Mergerwelle" im Zeitreihenkontext. Zur Messung der Fusions- und Übernahmetätigkeit werden häufig Zeitreihenmodelle mit Zähldaten verwendet und Mergerwellen werden dann als Cluster von Zeiträumen mit einer ungewöhnlich hohen Anzahl von solchen Mergers & Acqusitions im Nachhinein definiert. Die Verteilung der Abschlüsse ist jedoch in der Regel nicht normal (von Gaußscher Natur). In jüngster Zeit wurden verschiedene Ansätze vorgeschlagen, die den zeitlich variablen Charakter der M&A-Aktivitäten berücksichtigen, aber immer noch eine a-priori-Auswahl der Parameter erfordern. Wir schlagen vor, die Kombination aus einem lokalem parametrischem Ansatz und Multiplikator-Bootstrap an einen Zähldatenkontext anzupassen, um lokal homogene Intervalle in den Zeitreihen der M&A-Aktivität zu identifizieren. Dies macht eine manuelle Parameterauswahl überflüssig und ermöglicht die Erstellung genauer Prognosen ohne manuelle Eingaben.
Kapitel 4 ist eine empirische Studie über Sprünge in Hochfrequenzmärkten für Kryptowährungen. Während Aufmerksamkeit ein Prädiktor für die Preise von Kryptowährungenn ist und Sprünge in Bitcoin-Preisen bekannt sind, wissen wir wenig über ihre Alternativen. Die Untersuchung von hochfrequenten Krypto-Ticks gibt uns die einzigartige Möglichkeit zu bestätigen, dass marktübergreifende Renditen von Kryptowährungenn durch Sprünge in Hochfrequenzdaten getrieben werden, die sich um Black-Swan-Ereignisse gruppieren und den saisonalen Schwankungen von Volatilität und Handelsvolumen ähneln. Regressionen zeigen, dass Sprünge innerhalb des Tages die Renditen am Ende des Tages in Größe und Richtung erheblich beeinflussen. Dies liefert grundlegende Forschungsergebnisse für Krypto-Optionspreismodelle und eröffnet Möglichkeiten, die ökonometrische Theorie weiterzuentwickeln, um die spezifische Marktmikrostruktur von Kryptowährungen besser zu berücksichtigen.
In Kapitel 5 wird die zunehmende Verbreitung von Kryptowährungen (Digital Assets / DAs) wie Bitcoin (BTC) erörtert, die den Bedarf an genauen Optionspreismodellen erhöht. Bestehende Methoden werden jedoch der Volatilität der aufkommenden DAs nicht gerecht. Es wurden viele Modelle vorgeschlagen, um der unorthodoxen Marktdynamik und den häufigen Störungen in der Mikrostruktur zu begegnen, die durch die Nicht-Stationarität und die besonderen Statistiken der DA-Märkte verursacht werden. Sie sind jedoch entweder anfällig für den Fluch der Dimensionalität, da zusätzliche Komplexität erforderlich ist, um traditionelle Theorien anzuwenden, oder sie passen sich zu sehr an historische Muster an, die sich möglicherweise nie wiederholen. Stattdessen nutzen wir die jüngsten Fortschritte beim Clustering von Marktregimen (MR) mit dem Implied Stochastic Volatility Model (ISVM) auf einem sehr aktuellen Datensatz, der BTC-Optionen auf der beliebten Handelsplattform Deribit abdeckt. Time-Regime Clustering ist eine temporale Clustering-Methode, die die historische Entwicklung eines Marktes in verschiedene Volatilitätsperioden unter Berücksichtigung der Nicht-Stationarität gruppiert. ISVM kann die Erwartungen der Anleger in jeder der stimmungsgesteuerten Perioden berücksichtigen, indem es implizite Volatilitätsdaten (IV) verwendet. In diesem Kapitel wenden wir diese integrierte Zeitregime-Clustering- und ISVM-Methode (MR-ISVM) auf Hochfrequenzdaten für BTC-Optionen an. Wir zeigen, dass MR-ISVM dazu beiträgt, die Schwierigkeiten durch die komplexe Anpassung an Sprünge in den Merkmalen höherer Ordnung von Optionspreismodellen zu überwinden. Dies ermöglicht es uns, den Markt auf der Grundlage der Erwartungen seiner Teilnehmer auf adaptive Weise zu bewerten und das Verfahren auf einen neuen Datensatz anzuwenden, der bisher unerforschte DA-Dynamiken umfasst. / Nonstationarity is one of the most prevalent, yet unsolved problems in time series analysis and a reoccuring phenomenon both in theoretical, and applied works. Recent advances in econometric theory and machine learning methods have allowed researchers to adpot and develop new approaches for empirical analyses, some of which will be discussed in this thesis.
Chapter 3 is about predicting merger & acquisition (M&A) events. While there is no doubt that M&A activity in the corporate sector follows wave-like patterns, there is no uniquely accepted definition of such a "merger wave" in a time series context. Count-data time series models are often employed to measure M&A activity and merger waves are then defined as clusters of periods with an unusually high number of M&A deals retrospectively. However, the distribution of deals is usually not normal (Gaussian). More recently, different approaches that take into account the time-varying nature of M&A activity have been proposed, but still require the a-priori selection of parameters. We propose adapating the combination of the Local Parametric Approach and Multiplier Bootstrap to a count data setup in order to identify locally homogeneous intervals in the time series of M&A activity. This eliminates the need for manual parameter selection and allows for the generation of accurate forecasts without any manual input.
Chapter 4 is an empirical study on jumps in high frequency digital asset markets. While attention is a predictor for digital asset prices, and jumps in Bitcoin prices are well-known, we know little about its alternatives. Studying high frequency crypto ticks gives us the unique possibility to confirm that cross market digital asset returns are driven by high frequency jumps clustered around black swan events, resembling volatility and trading volume seasonalities. Regressions show that intra-day jumps significantly influence end of day returns in size and direction. This provides fundamental research for crypto option pricing models and opens up possibilities to evolve econometric theory to better address the specific market microstructure of cryptos.
Chapter 5 discusses the increasing adoption of Digital Assets (DAs), such as Bitcoin (BTC), which raises the need for accurate option pricing models. Yet, existing methodologies fail to cope with the volatile nature of the emerging DAs. Many models have been proposed to address the unorthodox market dynamics and frequent disruptions in the microstructure caused by the non-stationarity, and peculiar statistics, in DA markets. However, they are either prone to the curse of dimensionality, as additional complexity is required to employ traditional theories, or they overfit historical patterns that may never repeat. Instead, we leverage recent advances in market regime (MR) clustering with the Implied Stochastic Volatility Model (ISVM) on a very recent dataset covering BTC options on the popular trading platform Deribit. Time-regime clustering is a temporal clustering method, that clusters the historic evolution of a market into different volatility periods accounting for non-stationarity. ISVM can incorporate investor expectations in each of the sentiment-driven periods by using implied volatility (IV) data. In this paper, we apply this integrated time-regime clustering and ISVM method (termed MR-ISVM) to high-frequency data on BTC options. We demonstrate that MR-ISVM contributes to overcome the burden of complex adaption to jumps in higher order characteristics of option pricing models. This allows us to price the market based on the expectations of its participants in an adaptive fashion and put the procedure to action on a new dataset covering previously unexplored DA dynamics.
|
Page generated in 0.0309 seconds