• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 41
  • 21
  • 9
  • 5
  • 5
  • 4
  • 4
  • 3
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 95
  • 95
  • 23
  • 23
  • 22
  • 21
  • 16
  • 14
  • 13
  • 12
  • 12
  • 12
  • 12
  • 11
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Finansinio kintamumo modeliavimas apibendrintuoju Gegenbauer-LARCH modeliu / Generalised gegenbauer-larch model for financial volatility modeling

Osipavičiūtė, Aušra 08 September 2009 (has links)
Darbe siekiama aprašyti periodinį ilgos atminties finansinių laiko eilučių elgesį. Remiantis anksčiau sukurtais modeliais, siūlomas h-faktorių Gegenbauer-LARCH modelis, kuris į LARCH tipo proceso sąlyginės dispersijos lygtį įtraukia apibendrintą ilgos atminties filtrą, paremtą Gegenbauer polinomais. Darbe pateikiama anksčiau sukurtų modelių, skirtų finansinių aktyvų grąžų kintamumo modeliavimui, apžvalga. Remiantis ankstesnėmis idėjomis ir darbais, sukonstruojamas naujas Gegenbauer-LARCH modelis, kuriam tikrinama kovariacijos stacionarumo sąlyga. Pateikiamos modeliuotos h-faktorių Gegenbauer-LARCH proceso trajektorijos. Sukurtas modelis taikomas realiems Euro-Dolerio valiutų kurso duomenims. Identifikuotas modelio parametrai vertinami LUDE algoritmu, kuris maksimizuoja didžiausio tikėtinumo funkciją. Atliekama modelio adekvatumo analizė. Darbo pabaigoje pateikiamos išvados ir rekomendacijos. / On the ground of previous works and ideas a new class of models which describe long memory periodic behaviour in a time varying volatility of financial returns is introduced. Generalised periodic long-memory filters, based on Gegenbauer polynomials, are included into volatility equation of LARCH model and capture long memory periodic behaviour of the data. Thus, a new type of model called h-factor Gegenbauer-LARCH is presented. Moreover, a covariance stationarity condition is checked for one factor Gegenbauer-LARCH model. Also, generated processes are demonstrated. Furthermore, h-factor Gegenbauer-LARCH model is applied to Euro-Dollar hourly exchange rate returns. Identified model is estimated by means of LUDE algorithm which maximizes maximum likelihood function. The adequasy of the model is checked by reviewing residuals behaviour. Concerning empirical results the following conclusion is drawn: • Although model captures specific characteristics of the data such as slowly decaying periodic behaviour of autocorrelation function and pronounced peaks in periodogram but residuals analysis shows that model should be improved. Bordignon, Caporin, Lisi suggest that all possible frequencies were included to the model because higher frequencies might not be obvious from autocorrelation function or periodogram. However, we face computer capability problem. As a matter of fact, we cannot estimate a more complex model. Inclusion of autoregresive coefficients into the model did not... [to full text]
82

Kai kurie tiesiniai laiko eilučių modeliai su nestacionaria ilgąja atmintimi / Some linear models of time series with nonstationary long memory

Bružaitė, Kristina 12 March 2009 (has links)
Disertacijoje ištirti trupmeniškai integruotų tiesinių laiko eilučių modelių su nestacionaria ilgąja atmintimi dalinių sumų ribiniai skirstiniai ir tam tikros statistikos, susijusios su dalinių sumų procesais. Philippe, Surgailis, Viano 2006 ir 2008 m. darbuose apibrėžė kintančius laike trupmeniškai integruotus filtrus su baigtine dispersija ir nagrinėjo jų dalinių sumų ribinius skirstinius. Disertacijoje ištirti tokių procesų dalinių sumų ribiniai skirstiniai, kai dispersija begalinė, laikant, kad inovacijos priklauso α–stabilaus dėsnio traukos sričiai (čia 1<α<2). Įrodyta, kad dalinių sumų procesas konverguoja į tam tikrą α–stabilų savastingąjį procesą su nestacionariais pokyčiais. Surgailis, Teyssière, Vaičiulis 2008 m. darbe įvedė pokyčių santykių arba IR (= Increment Ratio) statistiką ir parodė, kad IR statistika gali būti naudojama tikrinti neparametrinėms hipotezėms apie stacionariosios laiko eilutės ilgąją atmintį bei ilgosios atminties parametrą d. Disertacijoje apibendrinti šių autorių gauti rezultatai, t. y. įrodyta IR statistikos centrinė ribinė teorema ir gauti poslinkio įverčiai, kai stebiniai aprašomi tiesiniu laiko eilutės modeliu su trendu. Praplėsta laiko eilučių klasė, kuriai IR statistika yra pagrįsta, t. y. konverguoja į vidurkį. / In the thesis is studied the limit distribution of partial sums of certain linear time series models with nonstationary long memory and certain statistics which involve partial sums processes. Philippe, Surgailis, Viano (2006, 2008) introduced time-varying fractionally integrated filters and studied the limit distribution of partial sums processes of these filters under finite variance set-up. In the thesis is studied the limit distribution of partial sums processes of infinite variance time-varying fractionally integrated filters. We assume that the innovations belong to the domain of attraction of an α-stable law (1<α<2) and show that the partial sums process converges to some α-stable self-similar process. In the thesis is studied the limit of the Increment Ratio (IR) statistic for Gaussian observations superimposed on a slowly varying deterministic trend. The IR statistic was introduced in Surgailis, Teyssière, Vaičiulis (2008) and its limit distribution was studied under the assumption of stationarity of observations. The IR statistic can be used for testing nonparametric hypotheses about d-integrated (-1/2 < d <3/2) behavior of the time series, which can be confused with deterministic trends and change-points. This statistic is written in terms of partial sums process and its limit is closely related to the limit of partial sums. In particularly, the consistency of the IR statistic uses asymptotic independence of distant partial sums, the fact is established in the... [to full text]
83

Some linear models of time series with nonstationary long memory / Kai kurie tiesiniai laiko eilučių modeliai su nestacionaria ilgąja atmintimi

Bružaitė, Kristina 12 March 2009 (has links)
In the thesis is studied the limit distribution of partial sums of certain linear time series models with nonstationary long memory and certain statistics which involve partial sums processes. Philippe, Surgailis, Viano (2006, 2008) introduced time-varying fractionally integrated filters and studied the limit distribution of partial sums processes of these filters under finite variance set-up. In the thesis is studied the limit distribution of partial sums processes of infinite variance time-varying fractionally integrated filters. We assume that the innovations belong to the domain of attraction of an α-stable law (1<α<2) and show that the partial sums process converges to some α-stable self-similar process. In the thesis is studied the limit of the Increment Ratio (IR) statistic for Gaussian observations superimposed on a slowly varying deterministic trend. The IR statistic was introduced in Surgailis, Teyssière, Vaičiulis (2008) and its limit distribution was studied under the assumption of stationarity of observations. The IR statistic can be used for testing nonparametric hypotheses about d-integrated (-1/2 < d <3/2) behavior of the time series, which can be confused with deterministic trends and change-points. This statistic is written in terms of partial sums process and its limit is closely related to the limit of partial sums. In particularly, the consistency of the IR statistic uses asymptotic independence of distant partial sums, the fact is established in the... [to full text] / Disertacijoje ištirti trupmeniškai integruotų tiesinių laiko eilučių modelių su nestacionaria ilgąja atmintimi dalinių sumų ribiniai skirstiniai ir tam tikros statistikos, susijusios su dalinių sumų procesais. Philippe, Surgailis, Viano 2006 ir 2008 m. darbuose apibrėžė kintančius laike trupmeniškai integruotus filtrus su baigtine dispersija ir nagrinėjo jų dalinių sumų ribinius skirstinius. Disertacijoje ištirti tokių procesų dalinių sumų ribiniai skirstiniai, kai dispersija begalinė, laikant, kad inovacijos priklauso α–stabilaus dėsnio traukos sričiai (čia 1<α<2). Įrodyta, kad dalinių sumų procesas konverguoja į tam tikrą α–stabilų savastingąjį procesą su nestacionariais pokyčiais. Surgailis, Teyssière, Vaičiulis 2008 m. darbe įvedė pokyčių santykių arba IR (= Increment Ratio) statistiką ir parodė, kad IR statistika gali būti naudojama tikrinti neparametrinėms hipotezėms apie stacionariosios laiko eilutės ilgąją atmintį bei ilgosios atminties parametrą d. Disertacijoje apibendrinti šių autorių gauti rezultatai, t. y. įrodyta IR statistikos centrinė ribinė teorema ir gauti poslinkio įverčiai, kai stebiniai aprašomi tiesiniu laiko eilutės modeliu su trendu. Praplėsta laiko eilučių klasė, kuriai IR statistika yra pagrįsta, t. y. konverguoja į vidurkį.
84

[en] THE INFLUENCE OF THE SAMPLING INTERVAL IN THE LONG MEMORY ESTIMATION IN TIME SERIES / [es] INFLUENCIA DEL INTERVALO DE OBSERVACIÓN EN LA ESTIMACIÓN DE LA MEMORIA PROLONGADA / [pt] INFLUÊNCIA DO INTERVALO DE OBSERVAÇÃO NA ESTIMAÇÃO DA MEMÓRIA LONGA

LEONARDO ROCHA SOUZA 06 April 2001 (has links)
[pt] Esta tese de doutorado relaciona a estimação da diferenciação fracionária, como medida de memória longa, com o intervalo de tempo entre observações contíguas de uma série temporal. Em teoria, o grau de diferenciação é constante em relação à diminuição da freqüência de observação, não importando se para diminuir a freqüência de observação ignore-se as observações intermediárias ou agregue-se as observações temporalmente. Entretanto, para o caso de se obter séries amostradas a uma freqüência mais baixa através de se ignorar observações intermediárias, observamos nesta tese, através de simulações Monte Carlo, um corportamento diverso. Quando se amostra toda n-ésima observação de uma série, n>1, nota-se um considerável vício de estimação do grau de diferenciação (ou parâmetro de memória longa). O viés é em direção de zero, sendo positivo para valores negativos do parâmetro de memória longa e negativo para valores positivos do parâmetro de memória longa, d. Para valores positivos de d, o viés tem natureza aproximadamente quadrática, diminuindo para valores de d próximos de zero ou 0,5 e sendo mais intenso para valores em torno de 0,25. Para valores negativos de d, o viés é tal que a estimativa fica sempre bem próxima de zero, ou seja, é da magnitude de d. Ao considerarmos o efeito de aliasing (em que componentes de período menor que o intervalo de observação são observados como se tivessem freqüências mais baixas) conseguimos fórmulas heurísticas que explicam satisfatoriamente esse vício, produzindo resultados bastante semelhantes ao verificado nas simulações Monte Carlo. Por outro lado, se a diminuição na freqüência de observação é induzida por agregação temporal, não há vício considerável na estimação, como também mostramos atrvés de simulações Monte Carlo. Propõe-se nesta tese ainda uma maneira de melhorar a estimação da memória longa através da combinação de estimativas da série amostrada a diferentes freqüências. Em alguns casos, consegue-se reduções de até 30% no desvio-padrão da estimativa combinada em relação à original, sem causar viés significativo. / [en] This thesis investigates the relationship between the estimation of the fractional integration, as a measure of long memory, and the time interval between observations of a time series. In theory, the fractional integration is invariant to the frequency of observation. However, skip- sampling induces a considerable bias in the estimation, as shown by Monte Carlo simulations. The aliasing effect explains the bias and suggests formulas for it, which yield results very close to the simulated ones. On the other hand, temporal aggregation does not induce relevant bias to the long memory estimation. In addition, a combination of estimates from the same data sampled at different rates is proposed, achieving in some cases reduction of 30% in the root mean squared estimation error. / [es] Esta tesis de doctorado relaciona la estimación de la diferenciación fraccionaria, como medida de memoria prolongada, con el intervalo de tiempo entre observaciones contíguas de una serie de tiempo. En teoría, el grado de diferenciación es constante en relación a la disminución de la frecuencia de observación, sin importar que para disminuir la frecuencia de observación se ignoren las observaciones intermedias o se agreguen observaciones temporalmente. Sin embargo, en esta tesis se observa, a través de simulaciones Monte Carlo, un comportamiento diverso en el caso de obtener series muestreadas a una frecuencia más baja ignorando observaciones intermedias. Cuando se muestrea la n-ésima observación de una serie, n>1, se nota un considerable sesgo de estimación del grado de diferenciación (o parámetro de memoria longa). El sesgo está en dirección de cero, siendo positivo para valores negativos del parámetro de memoria prolongada y negativo para valores positivos del parámetro de memoria prolongada, d. Para valores positivos de d, el sesgo tiene una naturaleza aproximadamente cuadrática, disminuyendo para valores de d próximos de cero o 0,5 y siendo más intenso para valores en torno de 0,25. Para valores negativos de d, el sesgo es tal que la estimativa está siempre bien próxima de cero, o sea, es de la magnitude de d. Al considerar el efecto de aliasing (en que componentes de período menor que el intervalo de observación son observados como se tuvieran frecuencias más bajas) conseguimos fórmulas heurísticas que explican satisfactoriamente ese sesgo, produciendo resultados bastante semejantes a los obtenidos en las simulaciones Monte Carlo. Por otro lado, si la disminución en la frecuencia de observación se induce por agregación temporal, no hay sesgo considerable en la estimación, como también mostramos a través de simulaciones Monte Carlo. Se propone en esta tesis una forma de mejorar la estimación de la memoria prolongada a través de la combinación de estimativas de la serie amostrada a diferentes frecuencias. En algunos casos, se consiguen reducciones de hasta 30% en la desviación estándar de la estimativa combinada en relación a la original, sin causar sesgo significativo.
85

[en] ASYMMETRIC EFFECTS AND LONG MEMORY IN THE VOLATILITY OF DJIA STOCKS / [pt] EFEITOS DE ASSIMETRIA E MEMÓRIA LONGA NA VOLATILIDADE DE AÇÕES DO ÍNDICE DOW JONES

MARCEL SCHARTH FIGUEIREDO PINTO 16 October 2006 (has links)
[pt] volatilidade dos ativos financeiros reflete uma reação prosseguida dos agentes a choques no passado ou alterações nas condições dos mercados determinam mudanças na dinâmica da variável? Enquanto modelos fracionalmente integrados vêm sendo extensamente utilizados como uma descrição adequada do processo gerador de séries de volatilidade, trabalhos teóricos recentes indicaram que mudanças estruturais podem ser uma relevante alternativa empírica para o fato estilizado de memória longa. O presente trabalho investiga o que alterações nos mercados significam nesse contexto, introduzindo variações de preços como uma possível fonte de mudanças no nível da volatilidade durante algum período, com grandes quedas (ascensões) nos preços trazendo regimes persistentes de variância alta (baixa). Uma estratégia de modelagem sistemática e flexível é estabelecida para testar e estimar essa assimetria através da incorporação de retornos acumulados passados num arcabouço não-linear. O principal resultado revela que o efeito é altamente significante - estima-se que níveis de volatilidade 25% e 50% maiores estão associados a quedas nos preços em períodos curtos - e é capaz de explicar altos valores de estimativas do parâmetro de memória longa. Finalmente, mostra-se que a modelagem desse efeito traz ganhos importantes para aplicações fora da amostra em períodos de volatilidade alta. / [en] Does volatility reflect lasting reactions to past shocks or changes in the markets induce shifts in this variable dynamics? In this work, we argue that price variations are an essential source of information about multiple regimes in the realized volatility of stocks, with large falls (rises) in prices bringing persistent regimes of high (low) variance. The study shows that this asymmetric effect is highly significant (we estimate that falls of different magnitudes over less than two months are associated with volatility levels 20% and 60% higher than the average of periods with stable or rising prices) and support large empirical values of long memory parameter estimates. We show that a model based on those findings significantly improves out of sample performance in relation to standard methods {specially in periods of high volatility.
86

Memória longa em dados intradiários: um estudo sobre projeções baseadas na ordem fracionária de integração dos retornos de ações e índices de ações

Felix, Melchior Vinicius dos Santos 31 July 2014 (has links)
Submitted by Melchior Felix (melchior_felix@yahoo.com.br) on 2014-08-27T23:26:03Z No. of bitstreams: 1 Memória Longa em Dados Intradiários - Melchior Vinicius dos Santos Felix.pdf: 1262687 bytes, checksum: e23c42090eb78ab8e9251f4e82fa6bc1 (MD5) / Approved for entry into archive by JOANA MARTORINI (joana.martorini@fgv.br) on 2014-08-28T18:42:44Z (GMT) No. of bitstreams: 1 Memória Longa em Dados Intradiários - Melchior Vinicius dos Santos Felix.pdf: 1262687 bytes, checksum: e23c42090eb78ab8e9251f4e82fa6bc1 (MD5) / Made available in DSpace on 2014-08-28T19:38:24Z (GMT). No. of bitstreams: 1 Memória Longa em Dados Intradiários - Melchior Vinicius dos Santos Felix.pdf: 1262687 bytes, checksum: e23c42090eb78ab8e9251f4e82fa6bc1 (MD5) Previous issue date: 2014-07-31 / Mandelbrot (1971) demonstrou a importância de considerar dependências de longo prazo na precificação de ativos - o método tradicional para mensurá-las, encontrado em Hurst (1951), faz uso da estatística R/S. Paralelamente a isso, Box e Jenkins (1976; edição original de 1970) apresentaram sua famosa metodologia para determinação da ordem dos parâmetros de modelos desenvolvidos no contexto de processos com memória de curto prazo, conhecidos por ARIMA (acrônimo do inglês Autoregressive Integrated Moving Average). Estimulados pela percepção de que um modelo que pretenda representar fielmente o processo gerador de dados deva explicar tanto a dinâmica de curto prazo quanto a de longo prazo, Granger e Joyeux (1980) e Hosking (1981) introduziram os modelos ARFIMA (de onde o F adicionado vem de Fractionally), uma generalização da classe ARIMA, nos quais a dependência de longo prazo estimada é relacionada ao valor do parâmetro de integração. Pode-se dizer que a partir de então processos com alto grau de persistência passaram a atrair cada vez mais o interesse de pesquisadores, o que resultou no desenvolvimento de outros métodos para estimá-la, porém sem que algum tenha se sobressaído claramente – e é neste ponto que o presente trabalho se insere. Por meio de simulações, buscou-se: (1) classificar diversos estimadores quanto a sua precisão, o que nos obrigou a; (2) determinar parametrizações razoáveis desses, entendidas aqui como aquelas que minimizam o viés, o erro quadrático médio e o desvio-padrão. Após rever a literatura sobre o tema, abordar estes pontos se mostrou necessário para o objetivo principal: elaborar estratégias de negociação baseadas em projeções feitas a partir da caracterização de dependências em dados intradiários, minuto a minuto, de ações e índices de ações. Foram analisadas as séries de retornos da ação Petrobras PN e do Índice Bovespa, com dados de 01/04/2013 a 31/03/2014. Os softwares usados foram o S-Plus e o R. / Mandelbrot (1971) demonstrated the need to take into account long-term dependences when pricing assets – the traditional method to measure it, proposed by Hurst (1951), is based on the R/S statistic. In parallel to this, Box and Jenkins (1976; first edition in 1970) presented their famous methodology to determine the order of the parameters of models developed in the context of short memory processes, known as ARIMA (acronym to Autoregressive Integrated Moving Average). Motivated by the perception that a model that aims to described correctly the data generating process needs to explain both the short-term as well as the longterm dynamics, Granger and Joyeux (1980) and Hosking (1981) introduced the ARFIMA models (the F is due to the added term Fractionally), a generalization of the ARIMA class, in which the estimated long-term dependence is related to the value of the integration parameter. It can be said that since then processes with a high degree of persistence have attracted greater interest of researchers, what resulted in the development of new methods to estimated it, although none of them has clearly excelled – and is at this point that the present work stands itself. Through simulations, we targeted to: (1) rank many estimators according to precision, what showed the necessity to; (2) determine reasonable values for the input parameters, defined as those that minimize the bias, the mean squared error and the standard deviation. Past reviewing the literature about the subject, analyzing these points proved necessary to the main objective: creating trading strategies based on forecasts derived through the characterization of dependences in intradaily quotes, minute by minute, of equities and equity indexes. In the tests were analyzed the Petrobras PN and Bovespa Index returns time series, from the period ranging from April 1st, 2013 to March 31st, 2014. The softwares used were the S-Plus e the R.
87

[en] ESSAYS IN FINANCIAL RISK MANAGEMENT OF EMERGING COUNTRIES / [pt] ENSAIOS EM GERENCIAMENTO DE RISCOS FINANCEIROS DE PAÍSES EMERGENTES

ALEX SANDRO MONTEIRO DE MORAES 14 April 2016 (has links)
[pt] Nesta tese são desenvolvidos três ensaios que avaliam os riscos relativos a alguns países emergentes. No primeiro ensaio, por meio do uso de modelos da família GARCH, verificou-se que o aumento dos pesos relativos atribuídos às observações mais antigas em função do aumento do horizonte de previsão resulta em melhores estimativas de volatilidade. Por meio da utilização de sete modelos de previsão de volatilidade e séries de retornos de ativos do mercado financeiro brasileiro (ações de Petrobrás e Vale, índice Ibovespa, taxa de câmbio Real/Dólar, taxa de juros de 1 ano e taxa de juros de 3 anos de títulos de dívida do governo brasileiro emitidos em reais) compararam-se as estimativas obtidas na amostra (in-sample) com as observações fora da amostra (out-of-sample). Com base nesta comparação, constatou-se que as melhores estimativas de previsão de volatilidade foram obtidas, predominantemente, por dois modelos que permitem que seus parâmetros variem em função do horizonte de previsão: o modelo modificado EGARCH e o modelo ARLS. Concluiu-se que a utilização de modelos de previsão de volatilidade tradicionais, os quais mantêm inalterados os pesos relativos atribuídos às observações antigas e recentes, independente do horizonte de previsão, mostrou-se inapropriada. No segundo ensaio comparou-se os desempenhos dos modelos de memória longa (FIGARCH) e curta (GARCH) na previsão de value-at-risk (VaR) e expected shortfall (ES) para múltiplos períodos à frente para seis índices de ações de mercados emergentes. Utilizou-se, para dados diários de 1999 a 2014, uma adaptação da simulação de Monte Carlo para estimar previsões de VaR e ES para 1, 10 e 20 dias à frente, usando modelos FIGARCH e GARCH para quatro distribuições de erros. Os resultados sugerem que, em geral, os modelos FIGARCH melhoram a precisão das previsões para horizontes mais longos; que a distribuição dos erros pode influenciar a decisão de escolha do melhor modelo; e que apenas para os modelos FIGARCH houve redução do número de subestimações do VaR verdadeiro com o aumento do horizonte de previsão. Com relação ao terceiro ensaio, percebeu-se que aadministração de riscos é um assunto que há muito tempo já faz parte do dia-adia das instituições financeiras e não financeiras, todavia não é comum a utilização de métricas de risco na Administração Pública. Considerando a existência dessa lacuna e a importância do tema para uma adequada gestão dos recursos públicos, principalmente para países emergentes, esse terceiro ensaio teve como propósitos estimar, em um único valor, o risco de liquidez de um Órgão Público, a Marinha do Brasil, e identificar as fontes desse risco. Para isso, utilizou-se o exposure-based Cash-Flow-at-Risk (CFaR) model, o qual, além de resumir a estimação do risco de liquidez a um único valor, ajuda no gerenciamento desse risco pelo fornecimento de informações adicionais sobre a exposição do fluxo de caixa da organização a diversos fatores de risco. Usando dados trimestrais do período compreendido entre o primeiro trimestre de 1999 ao quarto trimestre de 2013, identificaram-se as taxas de câmbio real/dólar, dólar/libra, a taxa SELIC, a Necessidade de Financiamento do Setor Público e a taxa de inflação dos Estados Unidos como os fatores de risco macroeconômicos e de mercado que impactam o fluxo de caixa da Marinha, bem como se calculou seu CFaR com 95 por cento de nível de confiança para o período de um trimestre à frente. / [en] In this thesis we develop three essays on risk management in some emerging countries. On the first one, using models of the GARCH family, we verified that the increase in relative weights assigned to the earlier observations due to the increase of the forecast horizon results in better estimates of volatility. Through the use of seven forecasting models of volatility and return series of financial markets assets (shares of Petrobras and Vale, Bovespa index, exchange rate Real/Dollar, 1-year and 3 years interest rates of Brazilian Government bonds issued in Reais) the estimates obtained in the sample (in-sample) were compared with observations outside the sample (out-of-sample). Based on this comparison, it was found that the best estimates of expected volatility were obtained predominantly by two models that allow its parameters to vary depending on the forecast horizon: the modified EGARCH model (exponential generalized autoregressive conditional heteroskedastic) and the ARLS model proposed by Ederington and Guan (2005). We conclude that the use of traditional forecasting models of volatility, which keeps unchanged relative weights assigned to both old and new observations, regardless of the forecast horizon, was inappropriate. On the second essay we compared the performance of long-memory models (FIGARCH) with short-memory models (GARCH) in forecasting value-at-risk (VaR) and expected shortfall (ES) for multiple periods ahead for six emerging markets stock índices. We used daily data from 1999 to 2014 and an adaptation of the Monte Carlo simulation to estimate VaR and ES forecasts for multiple steps ahead (1, 10 and 20 days ), using FIGARCH and GARCH models for four errors distributions. The results suggest that, in general, the FIGARCH models improve the accuracy of forecasts for longer horizons; that the error distribution used may influence the decision about the best model; and that only for FIGARCH models the occurrence of underestimation of the true VaR is less frequent with increasing time horizon. Regarding the third essay, we realized that risk management is a subject that has long been part of the day-to-day activities of financial and nonfinancial institutions, yet the use of risk metrics is not common among public agencies. Considering this gap, and the importance of the issue for the proper management of public resources, the purpose of this third essay is to estimate, in a single value, the liquidity risk of a public agency, in this case, the Brazilian Navy, and to identify the sources of risk. To do this, the exposure-based Cash-Flow-at- Risk (CFaR) model has been developed, which, in addition to summarizing the liquidity risk estimation in a single value, helps in managing risk by providing additional information about the exposure of the organization s cash flow to various risk factors. Using quarterly data for the period between the first quarter of 1999 and the fourth quarter of 2013, the macroeconomics and market risk factors that impact the Navy s cash flow were identified. Moreover, the CFaR was calculated at a 95 percent confidence level for a period of one quarter ahead.
88

Mémoire longue, volatilité et gestion de portefeuille / Long memory, volatility and portfolio management

Coulon, Jérôme 20 May 2009 (has links)
Cette thèse porte sur l’étude de la mémoire longue de la volatilité des rendements d’actions. Dans une première partie, nous apportons une interprétation de la mémoire longue en termes de comportement d’agents grâce à un modèle de volatilité à mémoire longue dont les paramètres sont reliés aux comportements hétérogènes des agents pouvant être rationnels ou à rationalité limitée. Nous déterminons de manière théorique les conditions nécessaires à l’obtention de mémoire longue. Puis nous calibrons notre modèle à partir des séries de volatilité réalisée journalière d’actions américaines de moyennes et grandes capitalisations et observons le changement de comportement des agents entre la période précédant l’éclatement de la bulle internet et celle qui la suit. La deuxième partie est consacrée à la prise en compte de la mémoire longue en gestion de portefeuille. Nous commençons par proposer un modèle de choix de portefeuille à volatilité stochastique dans lequel la dynamique de la log-volatilité est caractérisée par un processus d’Ornstein-Uhlenbeck. Nous montrons que l’augmentation du niveau d’incertitude sur la volatilité future induit une révision du plan de consommation et d’investissement. Puis dans un deuxième modèle, nous introduisons la mémoire longue grâce au mouvement brownien fractionnaire. Cela a pour conséquence de transposer le système économique d’un cadre markovien à un cadre non-markovien. Nous fournissons donc une nouvelle méthode de résolution fondée sur la technique de Monte Carlo. Puis, nous montrons toute l’importance de modéliser correctement la volatilité et mettons en garde le gérant de portefeuille contre les erreurs de spécification de modèle. / This PhD thesis is about the study of the long memory of the volatility of asset returns. In a first part, we bring an interpretation of long memory in terms of agents’ behavior through a long memory volatility model whose parameters are linked with the bounded rational agents’ heterogeneous behavior. We determine theoretically the necessary condition to get long memory. Then we calibrate our model from the daily realized volatility series of middle and large American capitalization stocks. Eventually, we observe the change in the agents’ behavior between the period before the internet bubble burst and the one after. The second part is devoted to the consideration of long memory in portfolio management. We start by suggesting a stochastic volatility portfolio model in which the dynamics of the log-volatility is characterized by an Ornstein-Uhlenbeck process. We show that when the uncertainty of the future volatility level increases, it induces the revision of the consumption and investment plan. Then in a second model, we introduce a long memory component by the use of a fractional Brownian motion. As a consequence, it transposes the economic system from a Markovian framework to a non-Markovian one. So we provide a new resolution method based on Monte Carlo technique. Then we show the high importance to well model the volatility and warn the portfolio manager against the misspecification errors of the model.
89

Estimation aveugle de chaînes de Markov cachées simples et doubles : Application au décodage de codes graphiques / Blind estimation of hidden and double Markov chain : Application to barcode decoding

Dridi, Noura 25 June 2012 (has links)
Depuis leur création, les codes graphiques constituent un outil d'identification automatique largement exploité en industrie. Cependant, les performances de lecture sont limitées par un flou optique et un flou de mouvement. L'objectif de la thèse est l'optimisation de lecture des codes 1D et 2D en exploitant des modèles de Markov cachés simples et doubles, et des méthodes d'estimation aveugles. En premier lieu, le système de lecture de codes graphiques est modélisé par une chaîne de Markov cachée, et des nouveaux algorithmes pour l'estimation du canal et la détection des symboles sont développés. Ils tiennent compte de la non stationnarité de la chaîne de Markov. De plus une méthode d'estimation de la taille du flou et de sa forme est proposée. La méthode utilise des critères de sélection permettant de choisir le modèle de dégradation le plus adéquat. Enfin nous traitons le problème de complexité qui est particulièrement important dans le cas d'un canal à mémoire longue. La solution proposée consiste à modéliser le canal à mémoire longue par une chaîne de Markov double. Sur la base de ce modèle, des algorithmes offrant un rapport optimisé performance-complexité sont présentés / Since its birth, the technology of barcode is well investigated for automatic identification. When reading, a barcode can be degraded by a blur , caused by a bad focalisation and/ or a camera movement. The goal of this thesis is the optimisation of the receiver of 1D and 2D barcode from hidden and double Markov model and blind statistical estimation approaches. The first phase of our work consists of modelling the original image and the observed one using Hidden Markov model. Then, new algorithms for joint blur estimation and symbol detection are proposed, which take into account the non-stationarity of the hidden Markov process. Moreover, a method to select the most relevant model of the blur is proposed, based on model selection criterion. The method is also used to estimate the blur length. Finally, a new algorithm based on the double Markov chain is proposed to deal with digital communication through a long memory channel. Estimation of such channel is not possible using the classical detection algorithms based on the maximum likelihood due to the prohibitive complexity. New algorithm giving good trade off between complexity and performance is provided
90

An econometric analysis of intra-daily stock market liquidity, volatility and news impacts

Groß-Klußmann, Axel 23 August 2012 (has links)
In dieser Dissertation befassen wir uns mit ökonometrischen Modellen und empirischen Eigenschaften von Intra-Tages (Hochfrequenz-) Aktienmarktdaten. Der Fokus liegt hierbei auf der Analyse des Einflusses, den die Veröffentlichung von Wirtschaftsnachrichten auf die Aktienmarktaktivität hat, der Vorhersage der Geld-Brief-Spanne sowie der Modellierung von Volatilitätsmaßen auf Intra-Tages-Zeitintervallen. Zunächst quantifizieren wir die Marktreaktionen auf Marktneuigkeiten innerhalb eines Handelstages. Zu diesem Zweck benutzen wir linguistisch vorab bearbeitete Unternehmensnachrichtendaten mit Indikatoren über die Relevanz, Neuheit und Richtung dieser Nachrichten. Mit einem VAR Modell für 20-Sekunden Marktdaten der London Stock Exchange weisen wir durch Nachrichten hervorgerufene Marktreaktionen in Aktienkursrenditen, Volatilität, Handelsvolumina und Geld-Brief-Spannen nach. In einer zweiten Analyse führen wir ein long memory autoregressive conditional Poisson (LMACP)-Modell zur Modellierung hoch-persistenter diskreter positivwertiger Zeitreihen ein. Das Modell verwenden wir zur Prognose von Geld-Brief-Spannen, einem zentralen Parameter im Aktienhandel. Wir diskutieren theoretische Eigenschaften des LMACP-Modells und evaluieren rollierende Prognosen von Geld-Brief-Spannen an den NYSE und NASDAQ Börsenplätzen. Wir zeigen, dass Poisson-Zeitreihenmodelle in diesem Kontext signifikant bessere Vorhersagen liefern als ARMA-, ARFIMA-, ACD- und FIACD-Modelle. Zuletzt widmen wir uns der optimalen Messung von Volatilität auf kleinen 20 Sekunden bis 5 Minuten Zeitintervallen. Neben der Verwendung von realized volatility-Ansätzen konstruieren wir Volatilitätsmaße durch Integration von spot volatility-Schätzern, sodass auch Beobachtungen außerhalb der kleinen Zeitintervalle in die Volatilitätsschätzungen eingehen. Ein Vergleich der Ansätze in einer Simulationsstudie zeigt, dass Volatilitätsmaße basierend auf spot volatility-Schätzern den RMSE minimieren. / In this thesis we present econometric models and empirical features of intra-daily (high frequency) stock market data. We focus on the measurement of news impacts on stock market activity, forecasts of bid-ask spreads and the modeling of volatility measures on intraday intervals. First, we quantify market reactions to an intraday stock-specific news flow. Using pre-processed data from an automated news analytics tool we analyze relevance, novelty and direction signals and indicators for company-specific news. Employing a high-frequency VAR model based on 20 second data of a cross-section of stocks traded at the London Stock Exchange we find distinct responses in returns, volatility, trading volumes and bid-ask spreads due to news arrivals. In a second analysis we introduce a long memory autoregressive conditional Poisson (LMACP) model to model highly persistent time series of counts. The model is applied to forecast quoted bid-ask spreads, a key parameter in stock trading operations. We discuss theoretical properties of LMACP models and evaluate rolling window forecasts of quoted bid-ask spreads for stocks traded at NYSE and NASDAQ. We show that Poisson time series models significantly outperform forecasts from ARMA, ARFIMA, ACD and FIACD models in this context. Finally, we address the problem of measuring volatility on small 20 second to 5 minute intra-daily intervals in an optimal way. In addition to the standard realized volatility approaches we construct volatility measures by integrating spot volatility estimates that include information on observations outside of the intra-daily intervals of interest. Comparing the alternative volatility measures in a simulation study we find that spot volatility-based measures minimize the RMSE in the case of small intervals.

Page generated in 0.0357 seconds