• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 27
  • 1
  • Tagged with
  • 28
  • 21
  • 17
  • 11
  • 8
  • 7
  • 7
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Stable Parameter Identification Evaluation of Volatility

Rückert, Nadja, Anderssen, Robert S., Hofmann, Bernd 29 March 2012 (has links) (PDF)
Using the dual Black-Scholes partial differential equation, Dupire derived an explicit formula, involving the ratio of partial derivatives of the evolving fair value of a European call option (ECO), for recovering information about its variable volatility. Because the prices, as a function of maturity and strike, are only available as discrete noisy observations, the evaluation of Dupire’s formula reduces to being an ill-posed numerical differentiation problem, complicated by the need to take the ratio of derivatives. In order to illustrate the nature of ill-posedness, a simple finite difference scheme is first used to approximate the partial derivatives. A new method is then proposed which reformulates the determination of the volatility, from the partial differential equation defining the fair value of the ECO, as a parameter identification activity. By using the weak formulation of this equation, the problem is localized to a subregion on which the volatility surface can be approximated by a constant or a constant multiplied by some known shape function which models the local shape of the volatility function. The essential regularization is achieved through the localization, the choice of the analytic weight function, and the application of integration-by-parts to the weak formulation to transfer the differentiation of the discrete data to the differentiation of the analytic weight function.
12

Centralized versus Decentralized Inventory Control in Supply Chains and the Bullwhip Effect

Qu, Zhan, Raff, Horst 20 October 2017 (has links) (PDF)
This paper constructs a model of a supply chain to examine how demand volatility is passed upstream through the chain. In particular, we seek to determine how likely it is that the chain experiences a bullwhip effect, where the variance of the upstream firm’s production exceeds the variance of the downstream firm’s sales. We show that the bullwhip effect is more likely to occur and is greater in size in supply chains in which inventory control is centralized rather than decentralized, that is, exercised by the downstream firm.
13

Identification in Financial Models with Time-Dependent Volatility and Stochastic Drift Components

Krämer, Romy 31 May 2007 (has links)
Die vorliegende Arbeit beschäftigt sich mit der Parameteridentifikation in finanzmathematischen Modellen, welche sich durch eine zeitabhängige Volatilitätsfunktion und stochastische Driftkomponente auszeichnen. Als Referenzmodell wird eine Variante des Bivariaten Ornstein-Uhlenbeck-Modells betrachtet. Ziel ist es, die zeitabhängige Volatilitätsfunktion sowohl in der Vergangenheit als auch für ein kleines zukünftiges Zeitintervall zu identifizieren. Weiterhin sollen einige reellwertige Parameter, welche die stochastische Drift beschreiben, bestimmt werden. Dabei steht nicht die Anpassung des betrachteten Modells an reale Aktienpreisdaten im Vordergrund sondern eine mathematische Untersuchung der Chancen und Risiken der betrachteten Schätzverfahren. Als Daten können Aktienpreise und Optionspreise beobachtet werden. Aus hochfrequenten Aktienpreisdaten wird mittels Wavelet-Projektion die (quadrierte) Volatilitätsfunktion auf einem vergangenen Zeitintervall geschätzt. Mit der so bestimmten Volatilitätsfunktion und einigen Aktienpreisen können anschließend die reellwertigen Parameter mit Hilfe der Maximum-Likelihood-Methode bestimmt werden, wobei die Likelihoodfunktion mit Hilfe des Kalman Filters berechnet werden kann. Die Identifikation der Volatilitätsfunktion (oder abgeleiteter Größen) auf dem zukünftigen Zeitintervall aus Optionspreisen führt auf ein inverses Problem des Option Pricings, welches in ein äußeres nichtlineares und ein inneres lineares Problem zerlegt werden kann. Das innere Problem (die Identifikation einer Ableitung) ist ein Standardbeispielfür ein inkorrektes inverses Problem, d.h. die Lösung dieses Problems hängt nicht stetig von den Daten ab. Anhand von analytischen Untersuchungen von Nemytskii-Operatoren und deren Inversen wird in der Arbeit gezeigt, dass das äußere Problem gut gestellt aber in einigen Fällen schlecht konditioniert ist. Weiterhin wird ein Algorithmus für die schnelle Lösung des äußeren Problems unter Einbeziehung der Monotonieinformationen vorgeschlagen. Alle in der Arbeit diskutierten Verfahren werden anhand von numerischen Fallstudien illustriert.
14

Stable Parameter Identification Evaluation of Volatility

Rückert, Nadja, Anderssen, Robert S., Hofmann, Bernd January 2012 (has links)
Using the dual Black-Scholes partial differential equation, Dupire derived an explicit formula, involving the ratio of partial derivatives of the evolving fair value of a European call option (ECO), for recovering information about its variable volatility. Because the prices, as a function of maturity and strike, are only available as discrete noisy observations, the evaluation of Dupire’s formula reduces to being an ill-posed numerical differentiation problem, complicated by the need to take the ratio of derivatives. In order to illustrate the nature of ill-posedness, a simple finite difference scheme is first used to approximate the partial derivatives. A new method is then proposed which reformulates the determination of the volatility, from the partial differential equation defining the fair value of the ECO, as a parameter identification activity. By using the weak formulation of this equation, the problem is localized to a subregion on which the volatility surface can be approximated by a constant or a constant multiplied by some known shape function which models the local shape of the volatility function. The essential regularization is achieved through the localization, the choice of the analytic weight function, and the application of integration-by-parts to the weak formulation to transfer the differentiation of the discrete data to the differentiation of the analytic weight function.
15

Centralized versus Decentralized Inventory Control in Supply Chains and the Bullwhip Effect

Qu, Zhan, Raff, Horst 20 October 2017 (has links)
This paper constructs a model of a supply chain to examine how demand volatility is passed upstream through the chain. In particular, we seek to determine how likely it is that the chain experiences a bullwhip effect, where the variance of the upstream firm’s production exceeds the variance of the downstream firm’s sales. We show that the bullwhip effect is more likely to occur and is greater in size in supply chains in which inventory control is centralized rather than decentralized, that is, exercised by the downstream firm.
16

Functional data analysis with applications in finance

Benko, Michal 26 January 2007 (has links)
An vielen verschiedenen Stellen der angewandten Statistik sind die zu untersuchenden Objekte abhängig von stetigen Parametern. Typische Beispiele in Finanzmarktapplikationen sind implizierte Volatilitäten, risikoneutrale Dichten oder Zinskurven. Aufgrund der Marktkonventionen sowie weiteren technisch bedingten Gründen sind diese Objekte nur an diskreten Punkten, wie zum Beispiel an Ausübungspreise und Maturitäten, für die ein Geschäft in einem bestimmten Zeitraum abgeschlossen wurde, beobachtbar. Ein funktionaler Datensatz ist dann vorhanden, wenn diese Funktionen für verschiedene Zeitpunkte (z.B. Tage) oder verschiedene zugrundeliegende Aktiva gesammelt werden. Das erste Thema, das in dieser Dissertation betrachtet wird, behandelt die nichtparametrischen Methoden der Schätzung dieser Objekte (wie z.B. implizierte Volatilitäten) aus den beobachteten Daten. Neben den bekannten Glättungsmethoden wird eine Prozedur für die Glättung der implizierten Volatilitäten vorgeschlagen, die auf einer Kombination von nichtparametrischer Glättung und den Ergebnissen der arbitragefreien Theorie basiert. Der zweite Teil der Dissertation ist der funktionalen Datenanalyse (FDA), speziell im Zusammenhang mit den Problemen, der empirischen Finanzmarktanalyse gewidmet. Der theoretische Teil der Arbeit konzentriert sich auf die funktionale Hauptkomponentenanalyse -- das funktionale Ebenbild der bekannten Dimensionsreduktionstechnik. Ein umfangreicher überblick der existierenden Methoden wird gegeben, eine Schätzmethode, die von der Lösung des dualen Problems motiviert ist und die Zwei-Stichproben-Inferenz basierend auf der funktionalen Hauptkomponentenanalyse werden behandelt. Die FDA-Techniken sind auf die Analyse der implizierten Volatilitäten- und Zinskurvendynamik angewandt worden. Darüber hinaus, wird die Implementation der FDA-Techniken zusammen mit einer FDA-Bibliothek für die statistische Software Xplore behandelt. / In many different fields of applied statistics an object of interest is depending on some continuous parameter. Typical examples in finance are implied volatility functions, yield curves or risk-neutral densities. Due to the different market conventions and further technical reasons, these objects are observable only on a discrete grid, e.g. for a grid of strikes and maturities for which the trade has been settled at a given time-point. By collecting these functions for several time points (e.g. days) or for different underlyings, a bunch (sample) of functions is obtained - a functional data set. The first topic considered in this thesis concerns the strategies of recovering the functional objects (e.g. implied volatilities function) from the observed data based on the nonparametric smoothing methods. Besides the standard smoothing methods, a procedure based on a combination of nonparametric smoothing and the no-arbitrage-theory results is proposed for implied volatility smoothing. The second part of the thesis is devoted to the functional data analysis (FDA) and its connection to the problems present in the empirical analysis of the financial markets. The theoretical part of the thesis focuses on the functional principal components analysis -- functional counterpart of the well known multivariate dimension-reduction-technique. A comprehensive overview of the existing methods is given, an estimation method based on the dual problem as well as the two-sample inference based on the functional principal component analysis are discussed. The FDA techniques are applied to the analysis of the implied volatility and yield curve dynamics. In addition, the implementation of the FDA techniques together with a FDA library for the statistical environment XploRe are presented.
17

Nonstationarity in Low and High Frequency Time Series

Saef, Danial Florian 20 February 2024 (has links)
Nichtstationarität ist eines der häufigsten, jedoch nach wie vor ungelösten Probleme in der Zeitreihenanalyse und ein immer wiederkehrendes Phänomen, sowohl in theoretischen als auch in angewandten Arbeiten. Die jüngsten Fortschritte in der ökonometrischen Theorie und in Methoden des maschinellen Lernens haben es Forschern ermöglicht, neue Ansätze für empirische Analysen zu entwickeln, von denen einige in dieser Arbeit erörtert werden sollen. Kapitel 3 befasst sich mit der Vorhersage von Mergers & Acquisitions (M&A). Obwohl es keinen Zweifel daran gibt, dass M&A-Aktivitäten im Unternehmenssektor wellenartigen Mustern folgen, gibt es keine einheitlich akzeptierte Definition einer solchen "Mergerwelle" im Zeitreihenkontext. Zur Messung der Fusions- und Übernahmetätigkeit werden häufig Zeitreihenmodelle mit Zähldaten verwendet und Mergerwellen werden dann als Cluster von Zeiträumen mit einer ungewöhnlich hohen Anzahl von solchen Mergers & Acqusitions im Nachhinein definiert. Die Verteilung der Abschlüsse ist jedoch in der Regel nicht normal (von Gaußscher Natur). In jüngster Zeit wurden verschiedene Ansätze vorgeschlagen, die den zeitlich variablen Charakter der M&A-Aktivitäten berücksichtigen, aber immer noch eine a-priori-Auswahl der Parameter erfordern. Wir schlagen vor, die Kombination aus einem lokalem parametrischem Ansatz und Multiplikator-Bootstrap an einen Zähldatenkontext anzupassen, um lokal homogene Intervalle in den Zeitreihen der M&A-Aktivität zu identifizieren. Dies macht eine manuelle Parameterauswahl überflüssig und ermöglicht die Erstellung genauer Prognosen ohne manuelle Eingaben. Kapitel 4 ist eine empirische Studie über Sprünge in Hochfrequenzmärkten für Kryptowährungen. Während Aufmerksamkeit ein Prädiktor für die Preise von Kryptowährungenn ist und Sprünge in Bitcoin-Preisen bekannt sind, wissen wir wenig über ihre Alternativen. Die Untersuchung von hochfrequenten Krypto-Ticks gibt uns die einzigartige Möglichkeit zu bestätigen, dass marktübergreifende Renditen von Kryptowährungenn durch Sprünge in Hochfrequenzdaten getrieben werden, die sich um Black-Swan-Ereignisse gruppieren und den saisonalen Schwankungen von Volatilität und Handelsvolumen ähneln. Regressionen zeigen, dass Sprünge innerhalb des Tages die Renditen am Ende des Tages in Größe und Richtung erheblich beeinflussen. Dies liefert grundlegende Forschungsergebnisse für Krypto-Optionspreismodelle und eröffnet Möglichkeiten, die ökonometrische Theorie weiterzuentwickeln, um die spezifische Marktmikrostruktur von Kryptowährungen besser zu berücksichtigen. In Kapitel 5 wird die zunehmende Verbreitung von Kryptowährungen (Digital Assets / DAs) wie Bitcoin (BTC) erörtert, die den Bedarf an genauen Optionspreismodellen erhöht. Bestehende Methoden werden jedoch der Volatilität der aufkommenden DAs nicht gerecht. Es wurden viele Modelle vorgeschlagen, um der unorthodoxen Marktdynamik und den häufigen Störungen in der Mikrostruktur zu begegnen, die durch die Nicht-Stationarität und die besonderen Statistiken der DA-Märkte verursacht werden. Sie sind jedoch entweder anfällig für den Fluch der Dimensionalität, da zusätzliche Komplexität erforderlich ist, um traditionelle Theorien anzuwenden, oder sie passen sich zu sehr an historische Muster an, die sich möglicherweise nie wiederholen. Stattdessen nutzen wir die jüngsten Fortschritte beim Clustering von Marktregimen (MR) mit dem Implied Stochastic Volatility Model (ISVM) auf einem sehr aktuellen Datensatz, der BTC-Optionen auf der beliebten Handelsplattform Deribit abdeckt. Time-Regime Clustering ist eine temporale Clustering-Methode, die die historische Entwicklung eines Marktes in verschiedene Volatilitätsperioden unter Berücksichtigung der Nicht-Stationarität gruppiert. ISVM kann die Erwartungen der Anleger in jeder der stimmungsgesteuerten Perioden berücksichtigen, indem es implizite Volatilitätsdaten (IV) verwendet. In diesem Kapitel wenden wir diese integrierte Zeitregime-Clustering- und ISVM-Methode (MR-ISVM) auf Hochfrequenzdaten für BTC-Optionen an. Wir zeigen, dass MR-ISVM dazu beiträgt, die Schwierigkeiten durch die komplexe Anpassung an Sprünge in den Merkmalen höherer Ordnung von Optionspreismodellen zu überwinden. Dies ermöglicht es uns, den Markt auf der Grundlage der Erwartungen seiner Teilnehmer auf adaptive Weise zu bewerten und das Verfahren auf einen neuen Datensatz anzuwenden, der bisher unerforschte DA-Dynamiken umfasst. / Nonstationarity is one of the most prevalent, yet unsolved problems in time series analysis and a reoccuring phenomenon both in theoretical, and applied works. Recent advances in econometric theory and machine learning methods have allowed researchers to adpot and develop new approaches for empirical analyses, some of which will be discussed in this thesis. Chapter 3 is about predicting merger & acquisition (M&A) events. While there is no doubt that M&A activity in the corporate sector follows wave-like patterns, there is no uniquely accepted definition of such a "merger wave" in a time series context. Count-data time series models are often employed to measure M&A activity and merger waves are then defined as clusters of periods with an unusually high number of M&A deals retrospectively. However, the distribution of deals is usually not normal (Gaussian). More recently, different approaches that take into account the time-varying nature of M&A activity have been proposed, but still require the a-priori selection of parameters. We propose adapating the combination of the Local Parametric Approach and Multiplier Bootstrap to a count data setup in order to identify locally homogeneous intervals in the time series of M&A activity. This eliminates the need for manual parameter selection and allows for the generation of accurate forecasts without any manual input. Chapter 4 is an empirical study on jumps in high frequency digital asset markets. While attention is a predictor for digital asset prices, and jumps in Bitcoin prices are well-known, we know little about its alternatives. Studying high frequency crypto ticks gives us the unique possibility to confirm that cross market digital asset returns are driven by high frequency jumps clustered around black swan events, resembling volatility and trading volume seasonalities. Regressions show that intra-day jumps significantly influence end of day returns in size and direction. This provides fundamental research for crypto option pricing models and opens up possibilities to evolve econometric theory to better address the specific market microstructure of cryptos. Chapter 5 discusses the increasing adoption of Digital Assets (DAs), such as Bitcoin (BTC), which raises the need for accurate option pricing models. Yet, existing methodologies fail to cope with the volatile nature of the emerging DAs. Many models have been proposed to address the unorthodox market dynamics and frequent disruptions in the microstructure caused by the non-stationarity, and peculiar statistics, in DA markets. However, they are either prone to the curse of dimensionality, as additional complexity is required to employ traditional theories, or they overfit historical patterns that may never repeat. Instead, we leverage recent advances in market regime (MR) clustering with the Implied Stochastic Volatility Model (ISVM) on a very recent dataset covering BTC options on the popular trading platform Deribit. Time-regime clustering is a temporal clustering method, that clusters the historic evolution of a market into different volatility periods accounting for non-stationarity. ISVM can incorporate investor expectations in each of the sentiment-driven periods by using implied volatility (IV) data. In this paper, we apply this integrated time-regime clustering and ISVM method (termed MR-ISVM) to high-frequency data on BTC options. We demonstrate that MR-ISVM contributes to overcome the burden of complex adaption to jumps in higher order characteristics of option pricing models. This allows us to price the market based on the expectations of its participants in an adaptive fashion and put the procedure to action on a new dataset covering previously unexplored DA dynamics.
18

An econometric analysis of intra-daily stock market liquidity, volatility and news impacts

Groß-Klußmann, Axel 23 August 2012 (has links)
In dieser Dissertation befassen wir uns mit ökonometrischen Modellen und empirischen Eigenschaften von Intra-Tages (Hochfrequenz-) Aktienmarktdaten. Der Fokus liegt hierbei auf der Analyse des Einflusses, den die Veröffentlichung von Wirtschaftsnachrichten auf die Aktienmarktaktivität hat, der Vorhersage der Geld-Brief-Spanne sowie der Modellierung von Volatilitätsmaßen auf Intra-Tages-Zeitintervallen. Zunächst quantifizieren wir die Marktreaktionen auf Marktneuigkeiten innerhalb eines Handelstages. Zu diesem Zweck benutzen wir linguistisch vorab bearbeitete Unternehmensnachrichtendaten mit Indikatoren über die Relevanz, Neuheit und Richtung dieser Nachrichten. Mit einem VAR Modell für 20-Sekunden Marktdaten der London Stock Exchange weisen wir durch Nachrichten hervorgerufene Marktreaktionen in Aktienkursrenditen, Volatilität, Handelsvolumina und Geld-Brief-Spannen nach. In einer zweiten Analyse führen wir ein long memory autoregressive conditional Poisson (LMACP)-Modell zur Modellierung hoch-persistenter diskreter positivwertiger Zeitreihen ein. Das Modell verwenden wir zur Prognose von Geld-Brief-Spannen, einem zentralen Parameter im Aktienhandel. Wir diskutieren theoretische Eigenschaften des LMACP-Modells und evaluieren rollierende Prognosen von Geld-Brief-Spannen an den NYSE und NASDAQ Börsenplätzen. Wir zeigen, dass Poisson-Zeitreihenmodelle in diesem Kontext signifikant bessere Vorhersagen liefern als ARMA-, ARFIMA-, ACD- und FIACD-Modelle. Zuletzt widmen wir uns der optimalen Messung von Volatilität auf kleinen 20 Sekunden bis 5 Minuten Zeitintervallen. Neben der Verwendung von realized volatility-Ansätzen konstruieren wir Volatilitätsmaße durch Integration von spot volatility-Schätzern, sodass auch Beobachtungen außerhalb der kleinen Zeitintervalle in die Volatilitätsschätzungen eingehen. Ein Vergleich der Ansätze in einer Simulationsstudie zeigt, dass Volatilitätsmaße basierend auf spot volatility-Schätzern den RMSE minimieren. / In this thesis we present econometric models and empirical features of intra-daily (high frequency) stock market data. We focus on the measurement of news impacts on stock market activity, forecasts of bid-ask spreads and the modeling of volatility measures on intraday intervals. First, we quantify market reactions to an intraday stock-specific news flow. Using pre-processed data from an automated news analytics tool we analyze relevance, novelty and direction signals and indicators for company-specific news. Employing a high-frequency VAR model based on 20 second data of a cross-section of stocks traded at the London Stock Exchange we find distinct responses in returns, volatility, trading volumes and bid-ask spreads due to news arrivals. In a second analysis we introduce a long memory autoregressive conditional Poisson (LMACP) model to model highly persistent time series of counts. The model is applied to forecast quoted bid-ask spreads, a key parameter in stock trading operations. We discuss theoretical properties of LMACP models and evaluate rolling window forecasts of quoted bid-ask spreads for stocks traded at NYSE and NASDAQ. We show that Poisson time series models significantly outperform forecasts from ARMA, ARFIMA, ACD and FIACD models in this context. Finally, we address the problem of measuring volatility on small 20 second to 5 minute intra-daily intervals in an optimal way. In addition to the standard realized volatility approaches we construct volatility measures by integrating spot volatility estimates that include information on observations outside of the intra-daily intervals of interest. Comparing the alternative volatility measures in a simulation study we find that spot volatility-based measures minimize the RMSE in the case of small intervals.
19

Nonparametric Methods in Spot Volatility Estimation / Nichtparametrische Methoden für das Schätzen der Spot-Volatilität

Schmidt-Hieber, Anselm Johannes 26 October 2010 (has links)
No description available.
20

Analysis of Implied Volatility Surfaces / Analyse von Impliziten Volatilitätsflächen

Schnellen, Marina 04 May 2007 (has links)
No description available.

Page generated in 0.1219 seconds