• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 60
  • 26
  • 9
  • 8
  • 6
  • 5
  • 4
  • 4
  • 2
  • 1
  • 1
  • Tagged with
  • 127
  • 75
  • 33
  • 29
  • 28
  • 26
  • 21
  • 17
  • 17
  • 15
  • 15
  • 15
  • 13
  • 12
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

以實現波動率估計投資組合風險值 / Value at Risk of Portfolio with Realized Volatility

李承儒 Unknown Date (has links)
利用風險值作為投資組合的風險管理工具,必須考慮金融資產報酬率通常具有厚尾、高峰、波動叢聚以及資產間訊息與波動性的變化也會交互影響等現象;因此實證上通常以多變量GARCH模型作為估計投資組合變異數矩陣的方法。然而多變量GARCH模型卻存在有維度上的詛咒,當投資組合包含資產數增加時會加重參數估計上的困難度。另一種估計波動率的方法,稱為實現波動率,能比多變量GARCH模型更簡易地處理投資組合高維度的問題。本文即以實現波動率、BEKK多變量GARCH模型與CCC模型,並以中鋼、台積電、國泰金為研究對象,比較三種方法估計風險值的表現。而實證結果得到利用實現波動率確實適合應用在風險值的估計上,且在表現上有略勝一籌的現象。
72

The Impact of Hospice and Dementia Special Care Units on End-of-Life Care for Individuals with Dementia

Mccarty, Catherine Elizabeth 01 January 2011 (has links)
ABSTRACT Hospice and Dementia Special Care Units (DSCUs) have been shown to be gold standards of care for individuals who are dying and for those with dementia in nursing homes. Using a retrospective administrator and family survey, this study investigated whether the processes of care used in hospice and DSCUs are associated with increased quality of end of life (EOL) care for individuals with dementia. A convenience sample of 17 facilities in four states (FL, PA, MD and MA) was included in the study. Nursing home administrators were surveyed between September 2008 and October 2009. The administrators identified 116 family members of decedents with dementia who were surveyed with the End-of-Life Dementia (EOLD) scale as the outcome. The Donabedian Structure-Process-Outcome theory was used to test the hypothesis that the process characteristics of hospice and DSCU will be associated with higher EOLD scores. Hierarchical regression models were conducted for two of the three subscales of the EOLD. The resident risk characteristics (decedent length of stay and resident immobility), the structure characteristics (profit status, percent Medicaid and presence of other palliation), and the process characteristics (hospice, DSCU, dual, and traditional enrolled, and strength of inter-disciplinary team (IDT)] were entered into the model to determine their association with Satisfaction With Care and Comfort At Death. Strength of the IDT was included as a moderating factor of this association. Only DSCU enrollment was associated with increased Satisfaction With Care (SWC; DSCU: b = .31, p < .01). The moderation analysis showed that strength of IDT did significantly moderate the association between DSCU enrollment and increased SWC (DSCU: b = -.09, p < .05). Study implications include the need for more research into DSCUs and Strength of IDT as best practices in EOL care. This study contributes to an expanding body of research on the extra value of enrollment in a DSCU and the role of IDT in quality of EOL care for individuals with dementia in nursing homes.
73

Mesure et Prévision de la Volatilité pour les Actifs Liquides

Chaker, Selma 04 1900 (has links)
Le prix efficient est latent, il est contaminé par les frictions microstructurelles ou bruit. On explore la mesure et la prévision de la volatilité fondamentale en utilisant les données à haute fréquence. Dans le premier papier, en maintenant le cadre standard du modèle additif du bruit et le prix efficient, on montre qu’en utilisant le volume de transaction, les volumes d’achat et de vente, l’indicateur de la direction de transaction et la différence entre prix d’achat et prix de vente pour absorber le bruit, on améliore la précision des estimateurs de volatilité. Si le bruit n’est que partiellement absorbé, le bruit résiduel est plus proche d’un bruit blanc que le bruit original, ce qui diminue la misspécification des caractéristiques du bruit. Dans le deuxième papier, on part d’un fait empirique qu’on modélise par une forme linéaire de la variance du bruit microstructure en la volatilité fondamentale. Grâce à la représentation de la classe générale des modèles de volatilité stochastique, on explore la performance de prévision de différentes mesures de volatilité sous les hypothèses de notre modèle. Dans le troisième papier, on dérive de nouvelles mesures réalizées en utilisant les prix et les volumes d’achat et de vente. Comme alternative au modèle additif standard pour les prix contaminés avec le bruit microstructure, on fait des hypothèses sur la distribution du prix sans frictions qui est supposé borné par les prix de vente et d’achat. / The high frequency observed price series is contaminated with market microstructure frictions or noise. We explore the measurement and forecasting of the fundamental volatility through novel approaches to the frictions’ problem. In the first paper, while maintaining the standard framework of a noise-frictionless price additive model, we use the trading volume, quoted depths, trade direction indicator and bid-ask spread to get rid of the noise. The econometric model is a price impact linear regression. We show that incorporating the cited liquidity costs variables delivers more precise volatility estimators. If the noise is only partially absorbed, the remaining noise is closer to a white noise than the original one, which lessens misspecification of the noise characteristics. Our approach is also robust to a specific form of endogeneity under which the common robust to noise measures are inconsistent. In the second paper, we model the variance of the market microstructure noise that contaminates the frictionless price as an affine function of the fundamental volatility. Under our model, the noise is time-varying intradaily. Using the eigenfunction representation of the general stochastic volatility class of models, we quantify the forecasting performance of several volatility measures under our model assumptions. In the third paper, instead of assuming the standard additive model for the observed price series, we specify the conditional distribution of the frictionless price given the available information which includes quotes and volumes. We come up with new volatility measures by characterizing the conditional mean of the integrated variance.
74

Dispersal of bryophytes across landscapes

Lönnell, Niklas January 2014 (has links)
Dispersal, especially long-distance dispersal, is an important component in many disciplines within biology. Many species are passively dispersed by wind, not least spore-dispersed organisms. In this thesis I investigated the dispersal capacity of bryophytes by studying the colonization patterns from local scales (100 m) to landscape scales (20 km). The dispersal distances were measured from a known source (up to 600 m away) or inferred from a connectivity measure (1–20 km). I introduced acidic clay to measure the colonization rates over one season of a pioneer moss, Discelium nudum (I–III). I also investigated which vascular plants and bryophytes that had colonized limed mires approximately 20–30 years after the first disturbance (IV). Discelium effectively colonized new disturbed substrates over one season. Most spores were deposited up to 50 meters from a source but the relationship between local colonization rates and connectivity increased with distance up to 20 km (I–III). Also calcicolous wetland bryophyte species were good colonizers over similar distances, while vascular plants in the same environment colonized less frequently. Common bryophytes that produce spores frequently were more effective colonizers, while no effect of spore size was detected (IV). A mechanistic model that take into account meteorological parameters to simulate the trajectories for spores of Discelium nudum fitted rather well to the observed colonization pattern, especially if spore release thresholds in wind variation and humidity were accounted for (III). This thesis conclude that bryophytes in open habitats can disperse effectively across landscapes given that the regional spore source is large enough (i.e. are common in the region and produce spores abundantly). For spore-dispersed organisms in open landscapes I suggest that it is often the colonization phase and not the transport that is the main bottle-neck for maintaining populations across landscapes. / <p>At the time of the doctoral defence the following papesr were unpublished and had  a status as follows: Paper 2: Epubl ahead of print; Paper 3: Manuscript; Paper 4: Manuscript</p>
75

[en] FORECASTING LARGE REALIZED COVARIANCE MATRICES: THE BENEFITS OF FACTOR MODELS AND SHRINKAGE / [pt] PREVISÃO DE MATRIZES DE COVARIÂNCIA REALIZADA DE ALTA DIMENSÃO: OS BENEFÍCIOS DE MODELOS DE FATORES E SHRINKAGE

DIEGO SIEBRA DE BRITO 19 September 2018 (has links)
[pt] Este trabalho propõe um modelo de previsão de matrizes de covariância realizada de altíssima dimensão, com aplicação para os componentes do índice S e P 500. Para lidar com o altíssimo número de parâmetros (maldição da dimensionalidade), propõe-se a decomposição da matriz de covariância de retornos por meio do uso de um modelo de fatores padrão (e.g. tamanho, valor, investimento) e uso de restrições setoriais na matriz de covariância residual. O modelo restrito é estimado usando uma especificação de vetores auto regressivos heterogêneos (VHAR) estimados com LASSO (Least Absolute Shrinkage and Selection Operator). O uso da metodologia proposta melhora a precisão de previsão em relação a benchmarks padrões e leva a melhores estimativas de portfólios de menor variância. / [en] We propose a model to forecast very large realized covariance matrices of returns, applying it to the constituents of the S and P 500 on a daily basis. To deal with the curse of dimensionality, we decompose the return covariance matrix using standard firm-level factors (e.g. size, value, profitability) and use sectoral restrictions in the residual covariance matrix. This restricted model is then estimated using Vector Heterogeneous Autoregressive (VHAR) models estimated with the Least Absolute Shrinkage and Selection Operator (LASSO). Our methodology improves forecasting precision relative to standard benchmarks and leads to better estimates of the minimum variance portfolios.
76

Previsão de volatilidade: uma comparação entre volatilidade implícita e realizada

Azevedo, Luis Fernando Pereira 08 April 2011 (has links)
Submitted by Marcia Bacha (marcia.bacha@fgv.br) on 2012-03-07T12:45:08Z No. of bitstreams: 1 20120306084421880.pdf: 1716342 bytes, checksum: e7f9f7df4b67ff4e12f57770620942d8 (MD5) / Approved for entry into archive by Gisele Isaura Hannickel (gisele.hannickel@fgv.br) on 2012-03-07T12:50:42Z (GMT) No. of bitstreams: 1 20120306084421880.pdf: 1716342 bytes, checksum: e7f9f7df4b67ff4e12f57770620942d8 (MD5) / Made available in DSpace on 2012-03-07T12:51:26Z (GMT). No. of bitstreams: 1 20120306084421880.pdf: 1716342 bytes, checksum: e7f9f7df4b67ff4e12f57770620942d8 (MD5) / Com origem no setor imobiliário americano, a crise de crédito de 2008 gerou grandes perdas nos mercados ao redor do mundo. O mês de outubro do mesmo ano concentrou a maior parte da turbulência, apresentando também uma explosão na volatilidade. Em meados de 2006 e 2007, o VIX, um índice de volatilidade implícita das opções do S&P500, registrou uma elevação de patamar, sinalizando o possível desequilíbrio existente no mercado americano. Esta dissertação analisa se o consenso de que a volatilidade implícita é a melhor previsora da volatilidade futura permanece durante o período de crise. Os resultados indicam que o VIX perde poder explicativo ao se passar do período sem crise para o de crise, sendo ultrapassado pela volatilidade realizada. / Started in the U.S. housing sector, the credit crisis of 2008 caused great damage in markets around the world. The effects were concentrated in October of the same year, which also showed an explosion in volatility. In mid-2006 and mid-2007, the VIX, an index of implied volatility of options on the S&P500, recorded a rise in level signaling the possible imbalance in the U.S. market. This dissertation examines whether the consensus that implied volatility is the best predictor of future volatility remains during the crisis. The results indicate that the VIX loses explanatory power to move from a period of economic stability for a period of crisis, been surpassed by the realized volatility.
77

Ensaios em cópulas e finanças empíricas

Silva, Fernando Augusto Boeira Sabino da January 2017 (has links)
Nesta tese discutimos abordagens que utilizam cópulas para descrever dependências entre instrumentos nanceiros e avaliamos a performance destes métodos. Muitas crises nanceiras aconteceram desde o nal da década de 90, incluindo a crise asiática (1997), a crise da dívida da Rússia (1998), a crise da bolha da internet (2000), as crises após o 9/11 (2001) e a guerra do Iraque (2003), a crise do subprime or crise nanceira global (2007-08), e a crise da dívida soberana europeia (2009). Todas estas crises levaram a uma perda maciça de riqueza nanceira e a um aumento da volatilidade observada, e enfatizaram a importância de uma política macroprudencial mais robusta. Em outras palavras, perturbações nanceiras tornam os processos econômicos altamente não-lineares, levando os principais bancos centrais a tomarem medidas contrárias para conter a angústia - nanceira. Devido aos complexos padrões de dependência dos mercados nanceiros, uma abordagem multivariada em grandes dimensões para a análise da dependência caudal é seguramente mais perspicaz do que assumir retornos com distribuição normal multivariada. Dada a sua exibilidade, as cópulas são capazes de modelar melhor as regularidades empiricamente veri cadas que são normalmente atribuídas a retornos nanceiros multivariados: (1) volatilidade condicional assimétrica com maior volatilidade para grandes retornos negativos e menor volatilidade para retornos positivos (HAFNER, 1998); (2) assimetria condicional (AIT-SAHALIA; BRANDT, 2001; CHEN; HONG; STEIN, 2001; PATTON, 2001); (3) excesso de curtose (TAUCHEN, 2001; ANDREOU; PITTIS; SPANOS, 2001); e (4) dependência temporal não linear (CONT, 2001; CAMPBELL; LO; MACKINLAY, 1997). A principal contribuição dos ensaios é avaliar se abordagens mais so sticadas do que o método da distância e o tradicional modelo de Markowitz podem tirar proveito de quaisquer anomalias/fricções de mercado. Os ensaios são uma tentativa de fornecer uma análise adequada destas questões usando conjuntos de dados abrangentes e de longo prazo. Empiricamente, demonstramos que as abordagens baseadas em cópulas são úteis em todos os ensaios, mostrando-se bené cas para modelar dependências em diferentes cenários, avaliando as medidas de risco caudais mais adequadamente e gerando rentabilidade superior a dos benchmarks utilizados. / In this thesis we discuss copula-based approaches to describe statistical dependencies within nancial instruments and evaluate its performance. Many nancial crises have occurred since the late 1990s, including the Asian crisis (1997), the Russian national debt crisis (1998), the dot-com bubble crisis (2000), the crises after 9-11 (2001) and Iraq war (2003), the subprime mortgage crisis or global nancial crisis (2007-08), and the European sovereign debt crisis (2009). All of these crises lead to a massive loss of nancial wealth and an upward in observed volatility and have emphasized the importance of a more robust macro-prudential policy. In other words, nancial disruptions make the economic processes highly nonlinear making the major central banks to take counter-measures in order to contain nancial distress. The methods for modeling uncertainty and evaluating the market risk on nancial markets are now under more scrutiny after the global nancial crisis. Due to the complex dependence patterns of nancial markets, a high-dimensional multivariate approach to tail dependence analysis is surely more insightful than assuming multivariate normal returns. Given its exibility, copulas are able to model better the empirically veri ed regularities normally attributed to multivariate nancial returns: (1) asymmetric conditional volatility with higher volatility for large negative returns and smaller volatility for positive returns (HAFNER, 1998); (2) conditional skewness (AITSAHALIA; BRANDT, 2001; CHEN; HONG; STEIN, 2001; PATTON, 2001); (3) excess kurtosis (TAUCHEN, 2001; ANDREOU; PITTIS; SPANOS, 2001); and (4) nonlinear temporal dependence (CONT, 2001; CAMPBELL; LO; MACKINLAY, 1997). The principal contribution of the essays is to assess if more sophisticated approaches than the distance method and plain Markowitz model can take advantage of any market anomalies/ fricctions. The essays are one attempt to provide a proper analysis in these issues using a long-term and comprehensive datasets. We empirically show that copula-based approaches are useful in all essays, proving bene cial to model dependencies in di erent scenarios, assessing the downside risk measures more adequately and yielding higher profitability than the benchmarks.
78

Ensaios em cópulas e finanças empíricas

Silva, Fernando Augusto Boeira Sabino da January 2017 (has links)
Nesta tese discutimos abordagens que utilizam cópulas para descrever dependências entre instrumentos nanceiros e avaliamos a performance destes métodos. Muitas crises nanceiras aconteceram desde o nal da década de 90, incluindo a crise asiática (1997), a crise da dívida da Rússia (1998), a crise da bolha da internet (2000), as crises após o 9/11 (2001) e a guerra do Iraque (2003), a crise do subprime or crise nanceira global (2007-08), e a crise da dívida soberana europeia (2009). Todas estas crises levaram a uma perda maciça de riqueza nanceira e a um aumento da volatilidade observada, e enfatizaram a importância de uma política macroprudencial mais robusta. Em outras palavras, perturbações nanceiras tornam os processos econômicos altamente não-lineares, levando os principais bancos centrais a tomarem medidas contrárias para conter a angústia - nanceira. Devido aos complexos padrões de dependência dos mercados nanceiros, uma abordagem multivariada em grandes dimensões para a análise da dependência caudal é seguramente mais perspicaz do que assumir retornos com distribuição normal multivariada. Dada a sua exibilidade, as cópulas são capazes de modelar melhor as regularidades empiricamente veri cadas que são normalmente atribuídas a retornos nanceiros multivariados: (1) volatilidade condicional assimétrica com maior volatilidade para grandes retornos negativos e menor volatilidade para retornos positivos (HAFNER, 1998); (2) assimetria condicional (AIT-SAHALIA; BRANDT, 2001; CHEN; HONG; STEIN, 2001; PATTON, 2001); (3) excesso de curtose (TAUCHEN, 2001; ANDREOU; PITTIS; SPANOS, 2001); e (4) dependência temporal não linear (CONT, 2001; CAMPBELL; LO; MACKINLAY, 1997). A principal contribuição dos ensaios é avaliar se abordagens mais so sticadas do que o método da distância e o tradicional modelo de Markowitz podem tirar proveito de quaisquer anomalias/fricções de mercado. Os ensaios são uma tentativa de fornecer uma análise adequada destas questões usando conjuntos de dados abrangentes e de longo prazo. Empiricamente, demonstramos que as abordagens baseadas em cópulas são úteis em todos os ensaios, mostrando-se bené cas para modelar dependências em diferentes cenários, avaliando as medidas de risco caudais mais adequadamente e gerando rentabilidade superior a dos benchmarks utilizados. / In this thesis we discuss copula-based approaches to describe statistical dependencies within nancial instruments and evaluate its performance. Many nancial crises have occurred since the late 1990s, including the Asian crisis (1997), the Russian national debt crisis (1998), the dot-com bubble crisis (2000), the crises after 9-11 (2001) and Iraq war (2003), the subprime mortgage crisis or global nancial crisis (2007-08), and the European sovereign debt crisis (2009). All of these crises lead to a massive loss of nancial wealth and an upward in observed volatility and have emphasized the importance of a more robust macro-prudential policy. In other words, nancial disruptions make the economic processes highly nonlinear making the major central banks to take counter-measures in order to contain nancial distress. The methods for modeling uncertainty and evaluating the market risk on nancial markets are now under more scrutiny after the global nancial crisis. Due to the complex dependence patterns of nancial markets, a high-dimensional multivariate approach to tail dependence analysis is surely more insightful than assuming multivariate normal returns. Given its exibility, copulas are able to model better the empirically veri ed regularities normally attributed to multivariate nancial returns: (1) asymmetric conditional volatility with higher volatility for large negative returns and smaller volatility for positive returns (HAFNER, 1998); (2) conditional skewness (AITSAHALIA; BRANDT, 2001; CHEN; HONG; STEIN, 2001; PATTON, 2001); (3) excess kurtosis (TAUCHEN, 2001; ANDREOU; PITTIS; SPANOS, 2001); and (4) nonlinear temporal dependence (CONT, 2001; CAMPBELL; LO; MACKINLAY, 1997). The principal contribution of the essays is to assess if more sophisticated approaches than the distance method and plain Markowitz model can take advantage of any market anomalies/ fricctions. The essays are one attempt to provide a proper analysis in these issues using a long-term and comprehensive datasets. We empirically show that copula-based approaches are useful in all essays, proving bene cial to model dependencies in di erent scenarios, assessing the downside risk measures more adequately and yielding higher profitability than the benchmarks.
79

Análise de desempenho de indicadores de volatilidade

Reis, Daniel Leal de Paula Esteves dos 16 December 2011 (has links)
Submitted by Renata Lopes (renatasil82@gmail.com) on 2016-07-18T14:26:58Z No. of bitstreams: 1 daniellealdepaulaestevesdosreis.pdf: 1239258 bytes, checksum: 75cc07cdf6eba15d62c43b78ac783fbc (MD5) / Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2016-07-22T15:03:54Z (GMT) No. of bitstreams: 1 daniellealdepaulaestevesdosreis.pdf: 1239258 bytes, checksum: 75cc07cdf6eba15d62c43b78ac783fbc (MD5) / Made available in DSpace on 2016-07-22T15:03:54Z (GMT). No. of bitstreams: 1 daniellealdepaulaestevesdosreis.pdf: 1239258 bytes, checksum: 75cc07cdf6eba15d62c43b78ac783fbc (MD5) Previous issue date: 2011-12-16 / FAPEMIG - Fundação de Amparo à Pesquisa do Estado de Minas Gerais / Medidas de volatilidade se constituem numa preocupação por parte de estudiosos e profissionais do mercado financeiro. Modelos da família ARCH/GARCH a partir dos retornos diários produzem um indicador de volatilidade, mas, não conferem ao pesquisador uma medida observável do grau de variabilidade dos retornos em torno de seu valor esperado. A recente disponibilidade de dados de frequência inferior a um dia de negociação permitiu a elaboração de indicadores de volatilidade observáveis por meio de uma medida conhecida como volatilidade realizada. A partir de então, é possível elaborar um indicador observável de volatilidade diária com base em dados de natureza intradiária, de modo a representar uma medida mais apropriada do grau de risco de um ativo ou carteira de ativos, e, a partir de então, estimar a volatilidade por meio de processo da família ARIMA. De posse dos dados de alta-frequência de um papel preferencial da Petrobrás S.A., o presente trabalho se propõe, portanto, em construir a medida de volatilidade realizada por meio da soma dos quadrados dos retornos obtidos em intervalos regulares (5, 15 e 30 minutos) durante cada dia de negociação do papel PETR4 durante o período de 02/01/2007 à 29/10/2010. Posteriormente à criação do indicador de volatilidade realizada que se supõe como mais apropriado para se mensurar o grau de risco, pretende-se comparar a qualidade do ajustamento e a capacidade preditiva de cada um dos métodos de modelagem da volatilidade. A comparação dos modelos baseados em dados diários e intradiários dar-se-á por meio do cômputo do erro quadrático médio (EQM) e dos testes de Diebold e Mariano e de Harvey para avaliação da acurácia preditiva dos modelos. Os resultados mostraram que, em geral, os modelos da família ARIMA são mais apropriados para a avaliação do grau de ajustamento, e produz previsões mais satisfatórias que os modelos da família ARCH/GARCH. / Volatility measures constitute a concern among scholars and professionals of the financial market. Models of the ARCH/GARCH class from the daily returns produce an indicator of volatility, but do not give the researcher an observable measure of the degree of variability of returns around their expected value. The recent availability of data at frequencies below a trading day allowed the development of indicators of volatility observable through a measurement known as realized volatility. Since then, they can build an observable indicator of daily volatility based on intraday data, so as to represent a more appropriate measure of the riskiness of an asset, and from then estimate volatility through a process of ARIMA family. Provided with the data of a high frequency preferential role of Petrobrás S. A., the present paper therefore proposes to construct a measure of realized volatility by the sum of the squares of the returns obtained at regular intervals (5, 15 and 30 minutes ) during each trading day for the paper PETR4 during 02/01/2007 to 29/10/2010. After the creation of the realized volatility indicator that is supposed to be more appropriate to measure the degree of risk, the intent is to compare the goodness of fit and predictive ability of each of the methods of volatility’s models. The comparison of models based on daily data and intraday give will be through the calculation of the mean square error (MSE) and tests of Diebold and Mariano and Harvey to evaluate the predictive accuracy of models. The results in general showed that the models of the ARIMA class are more suitable for assessing the degree of adjustment and produces predictions more satisfactory than the models of the ARCH/GARCH class.
80

Combinação de projeções de volatilidade baseadas em medidas de risco para dados em alta frequência / Volatility forecast combination using risk measures based on high frequency data

Alcides Carlos de Araújo 29 April 2016 (has links)
Operações em alta frequência demonstraram crescimento nos últimos anos; em decorrência disso, surgiu a necessidade de estudar o mercado de ações brasileiro no contexto dos dados em alta frequência. Os estimadores da volatilidade dos preços de ações utilizando dados de negociações em alta frequência são os principais objetos de estudo. Conforme Aldridge (2010) e Vuorenmaa (2013), o HFT foi definido como a rápida realocação de capital feita de modo que as transações possam ocorrer em milésimos de segundos por uso de algoritmos complexos que gerenciam envio de ordens, análise dos dados obtidos e tomada das melhores decisões de compra e venda. A principal fonte de informações para análise do HFT são os dados tick by tick, conhecidos como dados em alta frequência. Uma métrica oriunda da análise de dados em alta frequência e utilizada para gestão de riscos é a Volatilidade Percebida. Conforme Andersen et al. (2003), Pong et al. (2004), Koopman et al. (2005) e Corsi (2009) há um consenso na área de finanças de que as projeções da volatilidade utilizando essa métrica de risco são mais eficientes de que a estimativa da volatilidade por meio de modelos GARCH. Na gestão financeira, a projeção da volatilidade é uma ferramenta fundamental para provisionar reservas para possíveis perdas;, devido à existência de vários métodos de projeção da volatilidade e em decorrência desta necessidade torna-se necessário selecionar um modelo ou combinar diversas projeções. O principal desafio para combinar projeções é a escolha dos pesos: as diversas pesquisas da área têm foco no desenvolvimento de métodos para escolhê-los visando minimizar os erros de previsão. A literatura existente carece, no entanto, de uma proposição de método que considere o problema de eventual projeção de volatilidade abaixo do esperado. Buscando preencher essa lacuna, o objetivo principal desta tese é propor uma combinação dos estimadores da volatilidade dos preços de ações utilizando dados de negociações em alta frequência para o mercado brasileiro. Como principal ponto de inovação, propõe-se aqui de forma inédita a utilização da função baseada no Lower Partial Moment (LPM) para estimativa dos pesos para combinação das projeções. Ainda que a métrica LPM seja bastante conhecida na literatura, sua utilização para combinação de projeções ainda não foi analisada. Este trabalho apresenta contribuições ao estudo de combinações de projeções realizadas pelos modelos HAR, MIDAS, ARFIMA e Nearest Neighbor, além de propor dois novos métodos de combinação -- estes denominados por LPMFE (Lower Partial Moment Forecast Error) e DLPMFE (Discounted LPMFE). Os métodos demonstraram resultados promissores pretendem casos cuja pretensão seja evitar perdas acima do esperado e evitar provisionamento excessivo do ponto de vista orçamentário. / The High Frequency Trading (HFT) has grown significantly in the last years, in this way, this raises the need for research of the high frequency data on the Brazilian stock market.The volatility estimators of the asset prices using high frequency data are the main objects of study. According to Aldridge (2010) and Vuorenmaa (2013), the HFT was defined as the fast reallocation of trading capital that the negotiations may occur on milliseconds by complex algorithms scheduled for optimize the process of sending orders, data analysis and to make the best decisions of buy or sell. The principal information source for HFT analysis is the tick by tick data, called as high frequency data. The Realized Volatility is a risk measure from the high frequency data analysis, this metric is used for risk management.According to Andersen et al. (2003), Pong et al. (2004), Koopman et al.(2005) and Corsi (2009) there is a consensus in the finance field that the volatility forecast using this risk measure produce better results than estimating the volatility by GARCH models. The volatility forecasting is a key issue in the financial management to provision capital resources to possible losses. However, because there are several volatility forecast methods, this problem raises the need to choice a specific model or combines the projections. The main challenge to combine forecasts is the choice of the weights, with the aim of minimizingthe forecast errors, several research in the field have been focusing on development of methods to choice the weights.Nevertheless, it is missing in the literature the proposition of amethod which consider the minimization of the risk of an inefficient forecast for the losses protection. Aiming to fill the gap, the main goal of the thesis is to propose a combination of the asset prices volatility forecasts using high frequency data for Brazilian stock market. As the main focus of innovation, the thesis proposes, in an unprecedented way, the use of the function based on the Lower Partial Moment (LPM) to estimate the weights for the combination of volatility forecasts. Although the LPM measure is well known in the literature, the use of this metric for forecast combination has not been yet studied.The thesis contributes to the literature when studying the forecasts combination made by the models HAR, MIDAS, ARFIMA and Nearest Neighbor. The thesis also contributes when proposing two new methods of combinations, these methodologies are referred to as LPMFE (Lower Partial Moment Forecast Error) and DLPMFE (Discounted LPMFE). The methods have shown promising results when it is intended to avoid losses above the expected it is not intended to cause provisioning excess in the budget.

Page generated in 0.0441 seconds