Spelling suggestions: "subject:"high frequency financial data"" "subject:"igh frequency financial data""
1 |
A comparative study on large multivariate volatility matrix modeling for high-frequency financial dataJiang, Dongchen 30 April 2015 (has links)
Modeling and forecasting the volatilities of high-frequency data observed on the prices of financial assets are vibrant research areas in econometrics and statistics. However, most of the available methods are not directly applicable when the number of assets involved is large, due to the lack of accuracy in estimating high-dimensional matrices. This paper compared two methodologies of vast volatility matrix estimation for high-frequency data. One is to estimate the Average Realized Volatility Matrix and to regularize it by banding and thresholding. In this method, first we select grids as pre-sampling frequencies,construct a realized volatility matrix using previous tick method according to each pre-sampling frequency and then take the average of the constructed realized volatility matrices as the stage one estimator, which we call the ARVM estimator. Then we regularize the ARVM estimator to yield good consistent estimators of the large integrated volatility matrix. We consider two regularizations: thresholding and banding. The other is Dynamic Conditional Correlation(DCC) which can be estimated for two stage, where in the rst stage univariate GARCH models are estimated for each residual series, and in the second stage, the residuals are used to estimate the parameters of the dynamic correlation. Asymptotic theory for the two proposed methodologies shows that the estimator are consistent. In numerical studies, the proposed two methodologies are applied to simulated data set and real high-frequency prices from top 100 S&P 500 stocks according to the trading volume over a period of 3 months, 64 trading days in 2013. From the perfomances of estimators, the conclusion is that TARVM estimator performs better than DCC volatility matrix. And its largest eigenvalues are more stable than those of DCC model so that it is more approriable in eigen-based anaylsis.
|
2 |
Analýza finančních dat metodami ekonofyziky / Analysis of Financial Data Applying Methods of EconophysicsŠubrt, Jiří January 2012 (has links)
For financial forcasting of crisis new concepts from disciplines dissimilar to economics are looked for by financial experts. The branch of econophysics using theories of natural sciences is significant. The meaning of this work is to point out one of many methods applied to financial data with help of the theory of turbulence of fluids and deterministic chaos. We provide a parallel analysis of high frequency financial time series of a stock index and velocities of a turbulent fluid. This work concerns the use of concepts from statistical mathematics, probability theory and scaling. We find differences of both studied systems but the methodologies of natural diciplines can be also applied to financial data.
|
3 |
Quelques propriétés de la corrélation entre les actifs financiers à haute fréquence / Some properties of the correlation between the high-frequency financial assetsHuth, Nicolas 14 December 2012 (has links)
Le but de cette thèse est d’approfondir les connaissances académiques sur les variations jointes des actifs financiers à haute fréquence en les analysant sous un point de vue novateur. Nous tirons profit d’une base de données de prix tick-by-tick pour mettre en lumière de nouveaux faits stylises sur la corrélation haute fréquence, et également pour tester la validité empirique de modèles multivariés. Dans le chapitre 1, nous discutons des raisons pour lesquelles la corrélation haute fréquence est d’une importance capitale pour le trading. Par ailleurs, nous passons en revue la littérature empirique et théorique sur la corrélation à de petites échelles de temps. Puis nous décrivons les principales caractéristiques du jeu de données que nous utilisons. Enfin, nous énonçons les résultats obtenus dans cette thèse. Dans le chapitre 2, nous proposons une extension du modèle de subordination au cas multivarié. Elle repose sur la définition d’un temps événementiel global qui agrège l’activité financière de tous les actifs considérés. Nous testons la capacité de notre modèle à capturer les propriétés notables de la distribution multivariée empirique des rendements et observons de convaincantes similarités. Dans le chapitre 3, nous étudions les relations lead/lag à haute fréquence en utilisant un estimateur de fonction de corrélation adapte aux données tick-by-tick. Nous illustrons sa supériorité par rapport à l’estimateur standard de corrélation pour détecter le phénomène de lead/lag. Nous établissons un parallèle entre le lead/lag et des mesures classiques de liquidité et révélons un arbitrage pour déterminer les paires optimales pour le trading de lead/lag. Enfin, nous évaluons la performance d’un indicateur basé sur le lead/lag pour prévoir l’évolution des prix à court terme. Dans le chapitre 4, nous nous intéressons au profil saisonnier de la corrélation intra-journalière. Nous estimons ce profil sur quatre univers d’actions et observons des ressemblances frappantes. Nous tentons d’incorporer ce fait stylise dans un modèle de prix tick-by-tick base sur des processus de Hawkes. Le modèle ainsi construit capture le profil de corrélation empirique assez finement, malgré sa difficulté à atteindre le niveau de corrélation absolu. / This thesis aims at providing insight into comovements of financial assets at high frequency from an original point of view. We take advantage of a database of tick-by-tick prices to bring to light new stylized facts on high frequency correlation as well as to check the empirical validity of multivariate modelling frameworks. In chapter 1, we elaborate on the reasons why high frequency correlation is of the utmost importance for trading purposes. We also briefly review the empirical and theoretical literature on correlation at small time scales. Then, we describe the main features of the data set we use. Finally, we enunciate the results obtained in this thesis. In chapter 2, we suggest a way of extending the subordination modelling to the multivariate case. This relies on the definition of a global event time that merges the trading activity of all assets under consideration. We test the ability of our model to capture salient features of the empirical multivariate probability distribution of returns and find a convincing agreement. In chapter 3, we study high frequency lead/lag relationships using a suitable cross-correlation estimator for tick-by-tick data. We show its superiority over the classical correlation estimator in detecting lead/lag patterns. We relate lead/lag to standard liquidity measures and exhibit a trade-off to find optimal pairs for lead/lag trading. Finally, we evaluate the performance of a lead/lag indicator in forecasting the short-term evolution of prices. In chapter 4, we focus on the intraday correlation seasonal pattern. We estimate this pattern over four universes of stocks and observe striking similarities. We attempt to incorporate this stylized fact into a tick-by-tick price model based upon Hawkes processes. The resulting model captures the empirical profile of correlation quite well, though it doesn’t match the absolute level of correlation.
|
4 |
Uma análise funcional da dinâmica de densidades de retornos financeirosHorta, Eduardo de Oliveira January 2011 (has links)
Uma correta especificação das funções densidade de probabilidade (fdp’s) de retornos de ativos é um tópico dos mais relevantes na literatura de modelagem econométrica de dados financeiros. A presente dissertação propõe-se a oferecer, neste âmbito, uma abordagem distinta, através de uma aplicação da metodologia desenvolvida em Bathia et al. (2010) a dados intradiários do índice bovespa. Esta abordagem consiste em focar a análise diretamente sobre a estrutura dinâmica das fdp’s dos retornos, enxergando-as como uma sequência de variáveis aleatórias que tomam valores em um espaço de funções. A dependência serial existente entre essas curvas permite que se obtenham estimativas filtradas das fdp’s, e mesmo que se façam previsões sobre densidades de períodos subsequentes à amostra. No artigo que integra esta dissertação, onde é feita a mencionada aplicação, encontrou-se evidência de que o comportamento dinâmico das fdp’s dos retornos do índice bovespa se reduz a um processo bidimensional, o qual é bem representado por um modelo var(1) e cuja dinâmica afeta a dispersão e a assimetria das distribuições no suceder dos dias. Ademais, utilizando-se de subamostras, construíram-se previsões um passo à frente para essas fdp’s, e avaliaram-se essas previsões de acordo com métricas apropriadas. / Adequate specification of the probability density functions (pdf’s) of asset returns is a most relevant topic in econometric modelling of financial data. This dissertation aims to provide a distinct approach on that matter, through applying the methodology developed in Bathia et al. (2010) to intraday bovespa index data. This approach consists in focusing the analysis directly on the dynamic structure of returns fdp’s, seeing them as a sequence of function-valued random variables. The serial dependence of these curves allows one to obtain filtered estimates of the pdf’s, and even to forecast upcoming densities. In the paper contained into this dissertation, evidence is found that the dynamic structure of the bovespa index returns pdf’s reduces to a R2-valued process, which is well represented by a var(1) model, and whose dynamics affect the dispersion and symmetry of the distributions at each day. Moreover, one-step-ahead forecasts of upcoming pdf’s were constructed through subsamples and evaluated according to appropriate metrics.
|
5 |
Uma análise funcional da dinâmica de densidades de retornos financeirosHorta, Eduardo de Oliveira January 2011 (has links)
Uma correta especificação das funções densidade de probabilidade (fdp’s) de retornos de ativos é um tópico dos mais relevantes na literatura de modelagem econométrica de dados financeiros. A presente dissertação propõe-se a oferecer, neste âmbito, uma abordagem distinta, através de uma aplicação da metodologia desenvolvida em Bathia et al. (2010) a dados intradiários do índice bovespa. Esta abordagem consiste em focar a análise diretamente sobre a estrutura dinâmica das fdp’s dos retornos, enxergando-as como uma sequência de variáveis aleatórias que tomam valores em um espaço de funções. A dependência serial existente entre essas curvas permite que se obtenham estimativas filtradas das fdp’s, e mesmo que se façam previsões sobre densidades de períodos subsequentes à amostra. No artigo que integra esta dissertação, onde é feita a mencionada aplicação, encontrou-se evidência de que o comportamento dinâmico das fdp’s dos retornos do índice bovespa se reduz a um processo bidimensional, o qual é bem representado por um modelo var(1) e cuja dinâmica afeta a dispersão e a assimetria das distribuições no suceder dos dias. Ademais, utilizando-se de subamostras, construíram-se previsões um passo à frente para essas fdp’s, e avaliaram-se essas previsões de acordo com métricas apropriadas. / Adequate specification of the probability density functions (pdf’s) of asset returns is a most relevant topic in econometric modelling of financial data. This dissertation aims to provide a distinct approach on that matter, through applying the methodology developed in Bathia et al. (2010) to intraday bovespa index data. This approach consists in focusing the analysis directly on the dynamic structure of returns fdp’s, seeing them as a sequence of function-valued random variables. The serial dependence of these curves allows one to obtain filtered estimates of the pdf’s, and even to forecast upcoming densities. In the paper contained into this dissertation, evidence is found that the dynamic structure of the bovespa index returns pdf’s reduces to a R2-valued process, which is well represented by a var(1) model, and whose dynamics affect the dispersion and symmetry of the distributions at each day. Moreover, one-step-ahead forecasts of upcoming pdf’s were constructed through subsamples and evaluated according to appropriate metrics.
|
6 |
Uma análise funcional da dinâmica de densidades de retornos financeirosHorta, Eduardo de Oliveira January 2011 (has links)
Uma correta especificação das funções densidade de probabilidade (fdp’s) de retornos de ativos é um tópico dos mais relevantes na literatura de modelagem econométrica de dados financeiros. A presente dissertação propõe-se a oferecer, neste âmbito, uma abordagem distinta, através de uma aplicação da metodologia desenvolvida em Bathia et al. (2010) a dados intradiários do índice bovespa. Esta abordagem consiste em focar a análise diretamente sobre a estrutura dinâmica das fdp’s dos retornos, enxergando-as como uma sequência de variáveis aleatórias que tomam valores em um espaço de funções. A dependência serial existente entre essas curvas permite que se obtenham estimativas filtradas das fdp’s, e mesmo que se façam previsões sobre densidades de períodos subsequentes à amostra. No artigo que integra esta dissertação, onde é feita a mencionada aplicação, encontrou-se evidência de que o comportamento dinâmico das fdp’s dos retornos do índice bovespa se reduz a um processo bidimensional, o qual é bem representado por um modelo var(1) e cuja dinâmica afeta a dispersão e a assimetria das distribuições no suceder dos dias. Ademais, utilizando-se de subamostras, construíram-se previsões um passo à frente para essas fdp’s, e avaliaram-se essas previsões de acordo com métricas apropriadas. / Adequate specification of the probability density functions (pdf’s) of asset returns is a most relevant topic in econometric modelling of financial data. This dissertation aims to provide a distinct approach on that matter, through applying the methodology developed in Bathia et al. (2010) to intraday bovespa index data. This approach consists in focusing the analysis directly on the dynamic structure of returns fdp’s, seeing them as a sequence of function-valued random variables. The serial dependence of these curves allows one to obtain filtered estimates of the pdf’s, and even to forecast upcoming densities. In the paper contained into this dissertation, evidence is found that the dynamic structure of the bovespa index returns pdf’s reduces to a R2-valued process, which is well represented by a var(1) model, and whose dynamics affect the dispersion and symmetry of the distributions at each day. Moreover, one-step-ahead forecasts of upcoming pdf’s were constructed through subsamples and evaluated according to appropriate metrics.
|
7 |
Forecasting daily volatility using high frequency financial dataAlves, Thiago Winkler 06 August 2014 (has links)
Submitted by Thiago Winkler Alves (thiagowinkler@gmail.com) on 2014-09-04T13:34:50Z
No. of bitstreams: 1
forecasting-daily-volatility.pdf: 885976 bytes, checksum: 30fb655def03c3f3e61bf930b3a3585b (MD5) / Approved for entry into archive by JOANA MARTORINI (joana.martorini@fgv.br) on 2014-09-04T13:44:59Z (GMT) No. of bitstreams: 1
forecasting-daily-volatility.pdf: 885976 bytes, checksum: 30fb655def03c3f3e61bf930b3a3585b (MD5) / Made available in DSpace on 2014-09-04T13:51:17Z (GMT). No. of bitstreams: 1
forecasting-daily-volatility.pdf: 885976 bytes, checksum: 30fb655def03c3f3e61bf930b3a3585b (MD5)
Previous issue date: 2014-08-06 / Aiming at empirical findings, this work focuses on applying the HEAVY model for daily volatility with financial data from the Brazilian market. Quite similar to GARCH, this model seeks to harness high frequency data in order to achieve its objectives. Four variations of it were then implemented and their fit compared to GARCH equivalents, using metrics present in the literature. Results suggest that, in such a market, HEAVY does seem to specify daily volatility better, but not necessarily produces better predictions for it, what is, normally, the ultimate goal. The dataset used in this work consists of intraday trades of U.S. Dollar and Ibovespa future contracts from BM&FBovespa. / Objetivando resultados empíricos, este trabalho tem foco na eaplicação do modelo HEAVY para volatilidade diária com dados financeiros do mercado Brasileiro. Muito similar ao GARCH, este modelo busca explorar dados em alta frequência para atingir seus objetivos. Quatro variações dele foram então implementadas e seus ajustes comparadados a equivalentes GARCH, utilizando métricas presentes na literatura. Os resultados sugerem que, neste mercado, o HEAVY realmente parece especificar melhor a volatilidade diária, mas não necessariamente produz melhores previsões, o que, normalmente, é o objetivo final. A base de dados utilizada neste trabalho consite de negociações intradiárias de contratos futuros de dólares americanos e Ibovespa da BM&FBovespa.
|
8 |
Contributions à la modélisation des données financières à hautes fréquences / No English title availableFauth, Alexis 26 May 2014 (has links)
Cette thèse a été réalisée au sein de l’entreprise Invivoo. L’objectif principal était de trouver des stratégies d’investissement : avoir un gain important et un risque faible. Les travaux de recherche ont été principalement portés par ce dernier point. Dans ce sens, nous avons voulu généraliser un modèle fidèle à la réalité des marchés financiers, que ce soit pour des données à basse comme à haute fréquence et, à très haute fréquence, variation par variation. / No English summary available.
|
9 |
Estimation of State Space Models and Stochastic VolatilityMiller Lira, Shirley 09 1900 (has links)
Ma thèse est composée de trois chapitres reliés à l'estimation des modèles espace-état et volatilité stochastique.
Dans le première article, nous développons une procédure de lissage de l'état, avec efficacité computationnelle, dans un modèle espace-état linéaire et gaussien. Nous montrons comment exploiter la structure particulière des modèles espace-état pour tirer les états latents efficacement. Nous analysons l'efficacité computationnelle des méthodes basées sur le filtre de Kalman, l'algorithme facteur de Cholesky et notre nouvelle méthode utilisant le compte d'opérations et d'expériences de calcul. Nous montrons que pour de nombreux cas importants, notre méthode est plus efficace. Les gains sont particulièrement grands pour les cas où la dimension des variables observées est grande ou dans les cas où il faut faire des tirages répétés des états pour les mêmes valeurs de paramètres. Comme application, on considère un modèle multivarié de Poisson avec le temps des intensités variables, lequel est utilisé pour analyser le compte de données des transactions sur les marchés financières.
Dans le deuxième chapitre, nous proposons une nouvelle technique pour analyser des modèles multivariés à volatilité stochastique. La méthode proposée est basée sur le tirage efficace de la volatilité de son densité conditionnelle sachant les paramètres et les données. Notre méthodologie s'applique aux modèles avec plusieurs types de dépendance dans la coupe transversale. Nous pouvons modeler des matrices de corrélation conditionnelles variant dans le temps en incorporant des facteurs dans l'équation de rendements, où les facteurs sont des processus de volatilité stochastique indépendants. Nous pouvons incorporer des copules pour permettre la dépendance conditionnelle des rendements sachant la volatilité, permettant avoir différent lois marginaux de Student avec des degrés de liberté spécifiques pour capturer l'hétérogénéité des rendements. On tire la volatilité comme un bloc dans la dimension du temps et un à la fois dans la dimension de la coupe transversale. Nous appliquons la méthode introduite par McCausland (2012) pour obtenir une bonne approximation de la distribution conditionnelle à posteriori de la volatilité d'un rendement sachant les volatilités d'autres rendements, les paramètres et les corrélations dynamiques. Le modèle est évalué en utilisant des données réelles pour dix taux de change. Nous rapportons des résultats pour des modèles univariés de volatilité stochastique et deux modèles multivariés.
Dans le troisième chapitre, nous évaluons l'information contribuée par des variations de volatilite réalisée à l'évaluation et prévision de la volatilité quand des prix sont mesurés avec et sans erreur. Nous utilisons de modèles de volatilité stochastique. Nous considérons le point de vue d'un investisseur pour qui la volatilité est une variable latent inconnu et la volatilité réalisée est une quantité d'échantillon qui contient des informations sur lui. Nous employons des méthodes bayésiennes de Monte Carlo par chaîne de Markov pour estimer les modèles, qui permettent la formulation, non seulement des densités a posteriori de la volatilité, mais aussi les densités prédictives de la volatilité future. Nous comparons les prévisions de volatilité et les taux de succès des prévisions qui emploient et n'emploient pas l'information contenue dans la volatilité réalisée. Cette approche se distingue de celles existantes dans la littérature empirique en ce sens que ces dernières se limitent le plus souvent à documenter la capacité de la volatilité réalisée à se prévoir à elle-même. Nous présentons des applications empiriques en utilisant les rendements journaliers des indices et de taux de change. Les différents modèles concurrents sont appliqués à la seconde moitié de 2008, une période marquante dans la récente crise financière. / My thesis consists of three chapters related to the estimation of state space models and stochastic volatility models.
In the first chapter we develop a computationally efficient procedure for state smoothing in Gaussian linear state space models. We show how to exploit the special structure of state-space models to draw latent states efficiently. We analyze the computational efficiency of Kalman-filter-based methods, the Cholesky Factor Algorithm, and our new method using counts of operations and computational experiments. We show that for many important cases, our method is most efficient. Gains are particularly large for cases where the dimension of observed variables is large or where one makes repeated draws of states for the same parameter values. We apply our method to a multivariate Poisson model with time-varying intensities, which we use to analyze financial market transaction count data.
In the second chapter, we propose a new technique for the analysis of multivariate stochastic volatility models, based on efficient draws of volatility from its conditional posterior distribution. It applies to models with several kinds of cross-sectional dependence. Full VAR coefficient and covariance matrices give cross-sectional volatility dependence. Mean factor structure allows conditional correlations, given states, to vary in time. The conditional return distribution features Student's t marginals, with asset-specific degrees of freedom, and copulas describing cross-sectional dependence. We draw volatility as a block in the time dimension and one-at-a-time in the cross-section. Following McCausland(2012), we use close approximations of the conditional posterior distributions of volatility blocks as Metropolis-Hastings proposal distributions. We illustrate using daily return data for ten currencies. We report results for univariate stochastic volatility models and two multivariate models.
In the third chapter, we evaluate the information contributed by (variations of) realized volatility to the estimation and forecasting of volatility when prices are measured with and without error using a stochastic volatility model. We consider the viewpoint of an investor for whom volatility is an unknown latent variable and realized volatility is a sample quantity which contains information about it. We use Bayesian Markov Chain Monte Carlo (MCMC) methods to estimate the models, which allow the formulation of the posterior densities of in-sample volatilities, and the predictive densities of future volatilities. We then compare the volatility forecasts and hit rates from predictions that use and do not use the information contained in realized volatility. This approach is in contrast with most of the empirical realized volatility literature which most often documents the ability of realized volatility to forecast itself. Our empirical applications use daily index returns and foreign exchange during the 2008-2009 financial crisis.
|
10 |
Estimation of State Space Models and Stochastic VolatilityMiller Lira, Shirley 09 1900 (has links)
Ma thèse est composée de trois chapitres reliés à l'estimation des modèles espace-état et volatilité stochastique.
Dans le première article, nous développons une procédure de lissage de l'état, avec efficacité computationnelle, dans un modèle espace-état linéaire et gaussien. Nous montrons comment exploiter la structure particulière des modèles espace-état pour tirer les états latents efficacement. Nous analysons l'efficacité computationnelle des méthodes basées sur le filtre de Kalman, l'algorithme facteur de Cholesky et notre nouvelle méthode utilisant le compte d'opérations et d'expériences de calcul. Nous montrons que pour de nombreux cas importants, notre méthode est plus efficace. Les gains sont particulièrement grands pour les cas où la dimension des variables observées est grande ou dans les cas où il faut faire des tirages répétés des états pour les mêmes valeurs de paramètres. Comme application, on considère un modèle multivarié de Poisson avec le temps des intensités variables, lequel est utilisé pour analyser le compte de données des transactions sur les marchés financières.
Dans le deuxième chapitre, nous proposons une nouvelle technique pour analyser des modèles multivariés à volatilité stochastique. La méthode proposée est basée sur le tirage efficace de la volatilité de son densité conditionnelle sachant les paramètres et les données. Notre méthodologie s'applique aux modèles avec plusieurs types de dépendance dans la coupe transversale. Nous pouvons modeler des matrices de corrélation conditionnelles variant dans le temps en incorporant des facteurs dans l'équation de rendements, où les facteurs sont des processus de volatilité stochastique indépendants. Nous pouvons incorporer des copules pour permettre la dépendance conditionnelle des rendements sachant la volatilité, permettant avoir différent lois marginaux de Student avec des degrés de liberté spécifiques pour capturer l'hétérogénéité des rendements. On tire la volatilité comme un bloc dans la dimension du temps et un à la fois dans la dimension de la coupe transversale. Nous appliquons la méthode introduite par McCausland (2012) pour obtenir une bonne approximation de la distribution conditionnelle à posteriori de la volatilité d'un rendement sachant les volatilités d'autres rendements, les paramètres et les corrélations dynamiques. Le modèle est évalué en utilisant des données réelles pour dix taux de change. Nous rapportons des résultats pour des modèles univariés de volatilité stochastique et deux modèles multivariés.
Dans le troisième chapitre, nous évaluons l'information contribuée par des variations de volatilite réalisée à l'évaluation et prévision de la volatilité quand des prix sont mesurés avec et sans erreur. Nous utilisons de modèles de volatilité stochastique. Nous considérons le point de vue d'un investisseur pour qui la volatilité est une variable latent inconnu et la volatilité réalisée est une quantité d'échantillon qui contient des informations sur lui. Nous employons des méthodes bayésiennes de Monte Carlo par chaîne de Markov pour estimer les modèles, qui permettent la formulation, non seulement des densités a posteriori de la volatilité, mais aussi les densités prédictives de la volatilité future. Nous comparons les prévisions de volatilité et les taux de succès des prévisions qui emploient et n'emploient pas l'information contenue dans la volatilité réalisée. Cette approche se distingue de celles existantes dans la littérature empirique en ce sens que ces dernières se limitent le plus souvent à documenter la capacité de la volatilité réalisée à se prévoir à elle-même. Nous présentons des applications empiriques en utilisant les rendements journaliers des indices et de taux de change. Les différents modèles concurrents sont appliqués à la seconde moitié de 2008, une période marquante dans la récente crise financière. / My thesis consists of three chapters related to the estimation of state space models and stochastic volatility models.
In the first chapter we develop a computationally efficient procedure for state smoothing in Gaussian linear state space models. We show how to exploit the special structure of state-space models to draw latent states efficiently. We analyze the computational efficiency of Kalman-filter-based methods, the Cholesky Factor Algorithm, and our new method using counts of operations and computational experiments. We show that for many important cases, our method is most efficient. Gains are particularly large for cases where the dimension of observed variables is large or where one makes repeated draws of states for the same parameter values. We apply our method to a multivariate Poisson model with time-varying intensities, which we use to analyze financial market transaction count data.
In the second chapter, we propose a new technique for the analysis of multivariate stochastic volatility models, based on efficient draws of volatility from its conditional posterior distribution. It applies to models with several kinds of cross-sectional dependence. Full VAR coefficient and covariance matrices give cross-sectional volatility dependence. Mean factor structure allows conditional correlations, given states, to vary in time. The conditional return distribution features Student's t marginals, with asset-specific degrees of freedom, and copulas describing cross-sectional dependence. We draw volatility as a block in the time dimension and one-at-a-time in the cross-section. Following McCausland(2012), we use close approximations of the conditional posterior distributions of volatility blocks as Metropolis-Hastings proposal distributions. We illustrate using daily return data for ten currencies. We report results for univariate stochastic volatility models and two multivariate models.
In the third chapter, we evaluate the information contributed by (variations of) realized volatility to the estimation and forecasting of volatility when prices are measured with and without error using a stochastic volatility model. We consider the viewpoint of an investor for whom volatility is an unknown latent variable and realized volatility is a sample quantity which contains information about it. We use Bayesian Markov Chain Monte Carlo (MCMC) methods to estimate the models, which allow the formulation of the posterior densities of in-sample volatilities, and the predictive densities of future volatilities. We then compare the volatility forecasts and hit rates from predictions that use and do not use the information contained in realized volatility. This approach is in contrast with most of the empirical realized volatility literature which most often documents the ability of realized volatility to forecast itself. Our empirical applications use daily index returns and foreign exchange during the 2008-2009 financial crisis.
|
Page generated in 0.4031 seconds