• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 20
  • 2
  • Tagged with
  • 22
  • 22
  • 22
  • 17
  • 16
  • 16
  • 16
  • 11
  • 10
  • 8
  • 7
  • 7
  • 7
  • 7
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Mercados de risco e a teoria dos valores extremos: estudo empírico de casos

Rocha, Alane Siqueira January 2004 (has links)
ROCHA, Alane Siqueira. Mercados de risco e a teoria dos valores extremos: estudo empírico de casos. Fortaleza, 2004. Dissertação (mestrado profissional) - Programa de Pós Graduação em Economia, CAEN, Universidade Federal do Ceará, Fortaleza, 2006. / Submitted by Mônica Correia Aquino (monicacorreiaaquino@gmail.com) on 2013-07-24T01:32:10Z No. of bitstreams: 1 2004_dissert_asrocha.pdf: 642492 bytes, checksum: 65dcc6f8fad5de0cf849b00bfe587b9a (MD5) / Approved for entry into archive by Mônica Correia Aquino(monicacorreiaaquino@gmail.com) on 2013-07-24T01:32:23Z (GMT) No. of bitstreams: 1 2004_dissert_asrocha.pdf: 642492 bytes, checksum: 65dcc6f8fad5de0cf849b00bfe587b9a (MD5) / Made available in DSpace on 2013-07-24T01:32:23Z (GMT). No. of bitstreams: 1 2004_dissert_asrocha.pdf: 642492 bytes, checksum: 65dcc6f8fad5de0cf849b00bfe587b9a (MD5) Previous issue date: 2004 / Este trabalho analisa a influência exercida pelo planejamento estratégico, gerido através do Balanced Scorecard (BSC), para garantir uma atuação eficaz sobre as estratégias propostas de gerenciamento da cadeia de suprimentos e formação de parcerias com fornecedores. Pretende-se, para tanto, conduzir um estudo de caso singular em uma empresa do setor da construção civil, a Porto Freire Engenharia e Incorporação Ltda, e verificar se a associação de um planejamento estratégico focado na obtenção de vantagem competitiva (através de liderança nos custos) pode ser atingida tendo por base a gestão da sua cadeia de suprimentos e, ainda, como a métrica do Balanced Scorecard pode auxiliar no alcance deste objetivo estratégico. Na indústria da construção civil, fatores como o elevado número de itens que compõem o custo de produção podem vir a dificultar a identificação de insumos e serviços mais significativos nesse conjunto, os quais são fontes potenciais de otimização dentro da cadeia de suprimentos. Para solucionar esta dificuldade é apresentada, ainda, a análise realizada pela organização da sua curva de insumos. Ao final do estudo evidenciou-se que os objetivos propostos foram atingidos, mesmo que apresentando resultados inferiores às metas estabelecidas. Evidenciou-se, também, a necessidade de complementação a rede de parcerias, através do apoio de outras técnicas aplicadas à cadeia de suprimentos, como just-in-time e pensamento enxuto, como alternativas para a redução de custos. Considerou-se, por fim, que com as devidas correções de rumo, já identificadas no Planejamento Estratégico da organização, a Porto Freire atingirá seu objetivo maior, representado pela vantagem competitiva de liderança de custo e a satisfação e fidelização dos seus clientes.
2

Modelagem estocástica em risco operacional aplicando teoria dos valores extremos

Silva, João Vagnes de Moura January 2006 (has links)
Dissertação (mestrado)—Universidade de Brasília, Departamento de Economia, 2006. / Submitted by mariana castro (nanacastro0107@hotmail.com) on 2009-09-24T22:19:27Z No. of bitstreams: 1 Dissertacao de Mestrado JOAO VAGNES DE MOURA SILVA.pdf: 694855 bytes, checksum: 6143c420c6291384525e6e9e873ea359 (MD5) / Approved for entry into archive by Gomes Neide(nagomes2005@gmail.com) on 2010-06-10T17:22:37Z (GMT) No. of bitstreams: 1 Dissertacao de Mestrado JOAO VAGNES DE MOURA SILVA.pdf: 694855 bytes, checksum: 6143c420c6291384525e6e9e873ea359 (MD5) / Made available in DSpace on 2010-06-10T17:22:37Z (GMT). No. of bitstreams: 1 Dissertacao de Mestrado JOAO VAGNES DE MOURA SILVA.pdf: 694855 bytes, checksum: 6143c420c6291384525e6e9e873ea359 (MD5) Previous issue date: 2006 / Nos últimos anos, a modelagem de risco operacional tornou-se fator crítico de sucesso para o gerenciamento de riscos em instituições financeiras. Com o advento do novo acordo de capital – Basiléia II, diversos modelos de mensuração de risco operacional têm sido discutidos. Este trabalho preocupa-se em discutir métodos avançados e modernos na mensuração de riscos operacionais, em especial avaliando a aplicabilidade da Teoria dos Valores Extremos – EVT, de forma a se medir o Valor em risco – VaR operacional – e quantificar adequadamente a necessidade de alocação de capital. Será demonstrado que a modelagem estocástica aplicada a dados empíricos de severidade de perdas operacionais, utilizando-se a EVT como ferramenta, produz resultados em gestão de risco que atendem aos requisitos de robustez, confiabilidade e segurança definidos pelo Comitê de Basiléia. Finalmente, justificando a abordagem quantitativa, o trabalho traz aplicação da Teoria dos Valores Extremos em gerenciamento de risco operacional, modelando duas séries de dados referentes à categoria de perdas com fraudes eletrônicas de um grande banco brasileiro, no período de janeiro de 2004 a dezembro de 2005, além da análise dos resultados obtidos. _________________________________________________________________________________________ ABSTRACT / In recent years, the modeling of operational risk became a critical factor of success to an efficient risk management in financial institutions. Many operational risk models have been reviewed with the advent of the New Agreement of Capital – Basel II. This work is focused on advanced and modern method of operational Risk measurement, in particular, the applicability of Extreme Value Theory – EVT as a consistent model to evaluate Operational Value at Risk and to quantify the allocation of capital necessity. It will be demonstrated that EVT as a stochastic modeling toll is suitable to empirical data of operational losses severity, producing robust, security and reliable risk management results as expected by the Basel Committee. Finally, justifying the quantitative approach, the study brings application of EVT in management of operational risk, shaping two data series of electronic frauds losses of a great Brazilian bank, from January 2004 to December 2005, in addition to the results analysis.
3

Análise de frequência de vazões mínimas

Granemann, Adelita Ramaiana Bennemann January 2016 (has links)
Orientador : Profa. Dra. Miriam Rita Moro Mine / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Tecnologia, Programa de Pós-Graduação em Engenharia de Recursos Hídricos e Ambiental. Defesa: Curitiba, 01/12/2014 / Inclui referências : f.79-83 / Área de concentração:Recursos Hídricos / Resumo: Na teoria de valores extremos, a análise de máximos sempre atrai mais atenção do que a de mínimos. Ainda há muitos detalhes a serem descobertos e esclarecidos para mínimos em relação às propriedades das funções de distribuições de probabilidade. O reconhecimento crescente da importância das vazões mínimas para a viabilidade de ecossistemas, para a sustentabilidade da economia e como sentinela das mudanças climáticas, faz com que o estudo de extremos mínimos torne-se cada vez mais importante. O objetivo desta dissertação é compensar em parte a falta de tratamento teórico sobre extremos mínimos e, especificamente, vazões mínimas. O método está dividido em duas abordagens: a análise convencional e a análise assintótica. Na análise convencional foram ajustadas as distribuições de Weibull e Lognormal de dois parâmetros às séries de vazões mínimas anuais e mínimas médias móveis de 7 dias de duração. Em seguida, foram aplicados os testes de aderência Qui-Quadrado e Kolmogorov-Smirnov. O estudo da abordagem da análise assintótica foi baseado no artigo de Gottschalk et al., 2013, e nesta pesquisa é dada ênfase ao Método do Bloco (BM). Duas distribuições "mãe", aqui entendidas como as distribuições de todas as vazões médias diárias, com comportamento de potência para vazões mínimas, são investigadas: i) Distribuição Gama; ii) Distribuição Lognormal de dois parâmetros. Busca-se demonstrar que essas distribuições pertencem ao domínio mínimo de atração da distribuição de Weibull, isto é, amostras de mínimos dessas duas distribuições, assintoticamente tenderão à distribuição de Weibull. A teoria estudada nesta dissertação é aplicada a 11 estações fluviométricas da bacia hidrográfica do rio Iguaçu com séries de dados de 48 anos. A partir da análise convencional, conclui-se que a distribuição Lognormal foi a que apresentou melhor ajuste segundo o teste ??2, na quase totalidade das estações. Porém, para a maioria das estações, a distribuição de Weibull também obteve um bom ajuste com o mesmo teste de aderência. Verificouse que a distribuição Gama, com relação aos mínimos, tende a uma função de potência em consequência da distribuição de Weibull, e a Lognormal não apresenta bom ajuste para 3 das estações da bacia do rio Iguaçu. Isto não foi suficiente para rejeitar a distribuição Lognormal como uma boa candidata para modelar vazões mínimas, devido à análise dos parâmetros. Observou-se que a assimetria das séries de vazões médias diárias das estações da bacia do rio Iguaçu é maior do que a assimetria da distribuição de Weibull, e tem bom ajuste à distribuição Lognormal. Os parâmetros ??, ?? e ????, das séries de vazões mínimas anuais moduladas, se ajustaram bem à distribuição Lognormal. Em conformidade com os estudos da análise convencional prefere-se indicar a LN2 do que a W2 para estudos de vazões mínimas na bacia hidrográfica do rio Iguaçu. / Abstract: In extreme value theory analysis maximums, always attracts more attention than the minimums. There are still many details to be discovered and clarified to minimums in relation to the properties of distribution functions. The growing recognition of the importance of minimum flows for the viability of ecosystems, sustainability of the economy and as a sentinel of climate change, makes the minimum extremes study become increasingly important. The aim of this work is to offset in part the lack of theoretical treatment of extreme minimum and specifically minimum flows. The method has two approaches, the conventional analysis and the asymptotic analysis. In conventional analysis were adjusted the Weibull and Lognormal 2 parameters distributions to the series of annual minimum flows and minimum averages of 7 days. Then were applied the tests Qui-Square and Kolmogorov-Smirnov. The study of the asymptotic analysis was based on the paper of Gottschalk et al., 2013 and this research emphasis is given to the block method (BM). Two parent distributions here understood as the distributions of all average daily flow rates with power behavior for low flows are investigated: i) Gamma distribution; ii) Lognormal distribution. The aim is to demonstrate that these distributions belong to a minimum domain of attraction of the Weibull distribution, that is, minimal samples of these two distributions asymptotically tend to Weibull distribution. The theory studied in this thesis is applied to 11 gauged stations of the Iguaçu river basin with 48-year data series. From the conventional analysis it is concluded that the Lognormal distribution presents the best fit according to the ??2 test. However, for most stations Weibull distribution has also achieved a good fit with the same test. It was found that the Gamma distribution with respect to the minimum tends to a power function as a result of the Weibull distribution and the Lognormal presents no good fit for three stations of the Iguaçu River basin. This was not enough to reject the Lognormal distribution as a good candidate to model minimum flows, because of the parameters analysis. It was observed that the asymmetry of the average daily flow of the Iguaçu River basin gauged stations series is higher than the asymmetry of the Weibull distribution, and has good fit to Lognormal distribution. The parameters ??, ?? and ????, of the annual minimum flows modulated series, had goof fit to the Lognormal distribution. In accordance with the studies of conventional analysis is preferred to indicate the LN2 than W2 for studies of minimum flows in the catchment area of the Iguaçu River. / Abstract: In extreme value theory analysis maximums, always attracts more attention than the minimums. There are still many details to be discovered and clarified to minimums in relation to the properties of distribution functions. The growing recognition of the importance of minimum flows for the viability of ecosystems, sustainability of the economy and as a sentinel of climate change, makes the minimum extremes study become increasingly important. The aim of this work is to offset in part the lack of theoretical treatment of extreme minimum and specifically minimum flows. The method has two approaches, the conventional analysis and the asymptotic analysis. In conventional analysis were adjusted the Weibull and Lognormal 2 parameters distributions to the series of annual minimum flows and minimum averages of 7 days. Then were applied the tests Qui-Square and Kolmogorov-Smirnov. The study of the asymptotic analysis was based on the paper of Gottschalk et al., 2013 and this research emphasis is given to the block method (BM). Two parent distributions here understood as the distributions of all average daily flow rates with power behavior for low flows are investigated: i) Gamma distribution; ii) Lognormal distribution. The aim is to demonstrate that these distributions belong to a minimum domain of attraction of the Weibull distribution, that is, minimal samples of these two distributions asymptotically tend to Weibull distribution. The theory studied in this thesis is applied to 11 gauged stations of the Iguaçu river basin with 48-year data series. From the conventional analysis it is concluded that the Lognormal distribution presents the best fit according to the ??2 test. However, for most stations Weibull distribution has also achieved a good fit with the same test. It was found that the Gamma distribution with respect to the minimum tends to a power function as a result of the Weibull distribution and the Lognormal presents no good fit for three stations of the Iguaçu River basin. This was not enough to reject the Lognormal distribution as a good candidate to model minimum flows, because of the parameters analysis. It was observed that the asymmetry of the average daily flow of the Iguaçu River basin gauged stations series is higher than the asymmetry of the Weibull distribution, and has good fit to Lognormal distribution. The parameters ??, ?? and ????, of the annual minimum flows modulated series, had goof fit to the Lognormal distribution. In accordance with the studies of conventional analysis is preferred to indicate the LN2 than W2 for studies of minimum flows in the catchment area of the Iguaçu River.
4

Distribuição de probabilidades do valor extremo e tamanho amostral para o melhoramento genético do quantil máximo em plantas / Probability distributions of extreme value and sample size for the genetic improvement of maximum quantile in plants

Escobar, José Alfredo Diaz 29 February 2016 (has links)
Submitted by Marco Antônio de Ramos Chagas (mchagas@ufv.br) on 2016-04-27T16:55:17Z No. of bitstreams: 1 texto completo.pdf: 1072719 bytes, checksum: 850c174d9e195a77f095a6773032eab1 (MD5) / Made available in DSpace on 2016-04-27T16:55:17Z (GMT). No. of bitstreams: 1 texto completo.pdf: 1072719 bytes, checksum: 850c174d9e195a77f095a6773032eab1 (MD5) Previous issue date: 2016-02-29 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Dentre os objetivos dos programas de melhoramento genético de plantas de propagação assexuada (como a cana-de-açúcar e o eucalipto) e autógamas encontra-se o de selecionar indivíduos extremos ou segregantes transgressivos. Assim, é conveniente encontrar progênies com distribuições de caudas longas ou mesmo assimétricas, já que elas têm uma maior tendência de gerar indivíduos excepcionais. Os métodos de seleção comumente utilizados no melhoramento dessas espécies enquadram-se na classe BLUP sob os conceitos de média aritmética e média harmônica, os quais não levam em consideração a ocorrência de valores extremos dentro das famílias. Diante do exposto, este trabalho teve como objetivo propor e avaliar uma metodologia estatística para o melhoramento do máximo ou valor extremo das distribuições, e não necessariamente das médias das distribuições. Essa abordagem baseia-se nos quantis superiores da GEV (Distribuição de Valores Extremos Generalizada) dos BLUP ́s genotípicos individuais entre e dentro de famílias, como forma de prever o aumento da ocorrência de valores extremos em função do aumento do tamanho da família (seleção de indivíduos extremos dentro de família) e também do número de famílias utilizado para representar uma população (seleção de indivíduos extremos em toda a população). A metodologia consistiu em usar dados simulados e reais, típicos das variáveis consideradas no melhoramento genético (por exemplo, distribuição normal com ampla variabilidade e presença de valores extremos). A partir dessa base de dados, distribuições de valores extremos generalizadas são ajustadas aos máximos de cada família, visando verificar qual a distribuição mais adequada (Gumbel, Fréchet, ou Weibull). Os resultados revelaram que a distribuição Weibull se ajusta melhor à bases de dados com 100 ou mais famílias e mais de 20 indivíduos por família e a distribuição Gumbel se ajusta melhor à bases de dados menores. Uma base de dados experimentais referentes à avaliação de famílias, mediante o uso de uma distribuição de valor extremo para predição do máximo das distribuições dos indivíduos, permite a previsão do comportamento da eficiência seletiva para os máximos associados a vários tamanhos de famílias e de populações experimentais. Isso possibilita ao melhorista a otimização da experimentação no melhoramento visando a seleção de indivíduos extremos. Para essas previsões, emprega-se o período de retorno associado à ocorrência de um evento raro (nível de retorno) típico da distribuição ajustada. No caso, o período de retorno é interpretado como o tamanho amostral necessário para a ocorrência do nível de retorno do evento raro, interpretado como a magnitude do valor extremo. Simulações estocásticas e reamostragens de dados experimentais indicaram consistentemente que a avaliação de 200 famílias em cada ciclo seletivo maximiza a eficiência do melhoramento visando a seleção de indivíduos extremos. Uma boa opção prática seria a avaliação de 200 famílias com 100 indivíduos, perfazendo um total de 20000 indivíduos. Segundo a distribuição Weibull, o aumento da eficiência seletiva com o aumento do tamanho de família é em torno de 1,10 quando se passa de 20 para 100 indivíduos por família e de 1,12 quando se passa de 100 para 200 indivíduos e esses números são aproximadamente constantes independentemente do número de famílias avaliadas. Os modelos Gumbel e Weibull mostraram-se adequados para analisar as variáveis massa média de colmos (MMC em kg) e teor de Brix (B em %), sendo que a Gumbel mostrou-se adequada apenas nos casos de números de famílias muito pequenos. Assim, recomenda-se a Weibull para inferências práticas. A metodologia é adequada também para classificar as famílias ou progênies pela capacidade de geração de indivíduos superiores ou excepcionais e informar os tamanhos amostrais a serem praticados em cada família para capturar esses indivíduos. / Among the objectives of programs of genetic improvement of asexual propagation of plants (such as sugarcane and eucalyptus) and autogamous is to select extreme or segregating individuals transgressive. It is therefore appropriate to find progenies distributions of long or asymmetrical tails, as they are more likely to generate exceptional individuals. Selective methods commonly used in the improvement of these species fall under the BLUP (Best Linear Unbiased Predictor) class under the concepts of arithmetic mean and harmonic mean, which do not take into account the occurrence of extreme values within families. Given the above, this study aimed to propose and evaluate a statistical methodology to improve the maximum or extreme value distributions, and not necessarily the means of distribution. This approach is based on the upper quantiles of GEV a (Generalized Extremes Values Distribution) of BLUP's individual genotypic between and within families, as a way to predict the increased occurrence of extreme values due to the increase in family size (selection of extreme individuals within family), and also the number of families used to represent a population (selection of extreme individuals in the population). The methodology consisted of using simulated and real data, typical of the variables considered in genetic improvement (eg, normal distribution with wide variability and the presence of extreme values). From this database, generalized extreme value distributions are adjusted to the maximum of each family, in order to ascertain the most appropriate distribution (Gumbel, Fréchet, or Weibull). The results showed that the Weibull distribution best fits the data bases with 100 or more families and more than 20 individuals per family and the Gumbel distribution fits better at smaller databases. A basis of experimental data relating to the evaluation of families, through the use of an extreme value distribution for predicting the maximum of the distribution of individuals, allows a prediction of the selection efficiency behavior to the maximum associated with various families and sizes of experimental populations. This enables the breeder to optimize the experiment in breeding for the selection of extreme individuals. To these predictions, is employed the return period associated with the occurrence of a rare event (return level) typical of the fitted distribution. In this case, the return period is interpreted as the sample size required for the occurrence of the level of return the rare event, interpreted as the magnitude of the extreme value. Stochastic simulations and experimental data resampling consistently indicated that the evaluation of 200 families in each selection cycle to maximize efficiency improvement in order to select extreme individuals. A good practical option would be the evaluation of 200 families with 100 individuals, a total of 20,000 individuals. According to the Weibull distribution, the increase in selection efficiency with increasing family size is about 1.10 when going from 20 to 100 individuals per family and 1.12 when going from 100 to 200 individuals and these numbers they are approximately constant regardless of the number of families evaluated. The Gumbel and Weibull models have shown to be adequate to analyze the average mass variable stem (MMC kg) and Brix content (B %), and the Gumbel was adequate only in the case of very small families numbers. Thus, it is recommended to Weibull for practical inferences. The methodology is also suitable to classify the families or the progenies ability to generate superior or exceptional individuals and inform the sample sizes to be practiced in every family to capture these individuals.
5

Impacto de eventos climáticos extremos sobre o preço de ações de indústrias de interesse nacional

Lucas, Edimilson Costa 19 October 2015 (has links)
Submitted by Edimilson Costa Lucas (costalucas@yahoo.com) on 2015-11-10T13:28:51Z No. of bitstreams: 1 EdimilsonCostaLucas_TESE.pdf: 2525096 bytes, checksum: 88b5fc4a39e14115350d9a7fddece121 (MD5) / Approved for entry into archive by Maria Tereza Fernandes Conselmo (maria.conselmo@fgv.br) on 2015-11-11T12:34:10Z (GMT) No. of bitstreams: 1 EdimilsonCostaLucas_TESE.pdf: 2525096 bytes, checksum: 88b5fc4a39e14115350d9a7fddece121 (MD5) / Made available in DSpace on 2015-11-11T12:38:48Z (GMT). No. of bitstreams: 1 EdimilsonCostaLucas_TESE.pdf: 2525096 bytes, checksum: 88b5fc4a39e14115350d9a7fddece121 (MD5) Previous issue date: 2015-10-19 / The occurrence of extreme weather events, such as increased temperature, hurricanes, floods and droughts has been increasingly common around of the world. The finance literature has documented efforts directed to the assessment of economic impacts from climate change that can bring significant consequences for the world economy. However, especially in Brazil, a key emerging market, little has been studied mainly with a view to assessing the impacts of climate events in the company level. Thus, this thesis analyzes, in an unprecedented manner, the impact of weather events on the value of companies belonging to two high national interest industries, in the form of two essays. First it analyzes the impact of extreme rainfall on the stock price of the Brazilian food sector. Therefore, it is conducted the research using daily data in share prices of six companies of this industry. From the location to the main area of activity of these companies, they are considered their daily data on extreme rainfall. With the use of hybrid methodology ARMA-GARCH-GPD, it was found that the evaluated companies, the extreme rainfall impacted significantly in more than half of the 198 days of extreme rainfall between 02/28/2005 and 12/30/2014, resulting in average losses daily around 1.97% on the day after the heavy rainfall. In terms of market value, this represents total average loss of around US$ 682.15 million in a single day. Second it evaluates the impact of climate variables and location on the value of companies in the energy sector in Brazil, from data on companies in the Brazilian electricity sector, as well as rainfall, temperature and geographical location of the companies. From the analysis of data in static panel and spatial panel, the results suggest that temperature and precipitation have significant effect on the value of these companies. This study can contribute in the process of structuring and creating a weather derivatives market in Brazil. / A ocorrência de eventos climáticos extremos, tais como aumento da temperatura, furacões, enchentes e secas, tem sido cada vez mais frequente ao redor do mundo. A literatura de finanças tem documentado esforços dirigidos à avaliação de impactos econômicos oriundos das variações climáticas, com consequências significantes na economia mundial. Entretanto, especialmente no Brasil, um dos principais mercados emergentes, pouco tem sido pesquisado, sobretudo com vistas à avaliação dos impactos de eventos climáticos no nível das empresas. Sendo assim, esta tese analisa, de forma inédita, o impacto de eventos climáticos sobre o valor de empresas pertencentes a duas indústrias de elevado interesse nacional, sob a forma de dois ensaios. Em primeiro lugar analisa-se o impacto de chuvas extremas sobre o preço de ações do setor de alimentos brasileiro. Para tanto, é conduzida a pesquisa empregando dados diários do preço de ações de seis empresas dessa indústria. A partir da localização da principal região de atuação dessas empresas, são considerados os respectivos dados diários referentes às chuvas extremas. Com o emprego da metodologia híbrida ARMA-GARCH-GPD, constatou-se que, nas empresas avaliadas, as chuvas extremas impactaram significantemente em mais da metade dos 198 dias de chuvas extremas ocorridos entre 28/02/2005 e 30/12/2014, acarretando perdas médias diárias ao redor de 1,97% no dia posterior a chuva extrema. Em termos de valor de mercado, isso representa perda média total ao redor de US$682,15 mi em um único dia. Em segundo lugar avalia-se o impacto de variáveis climáticas e localização sobre o valor das empresas do setor de energia do Brasil, a partir de dados referentes às empresas do setor elétrico brasileiro, bem como precipitação pluviométrica, temperatura e localização geográfica das empresas. A partir da análise de dados em painel estático e painel espacial, os resultados sugerem que temperatura e precipitação pluviométrica têm efeito significante sobre o valor dessas empresas. O presente estudo pode vir a contribuir no processo de estruturação e criação de um mercado de derivativos climáticos no Brasil.
6

Teoria de valores extremos aplicada a finanças: dois ensaios

Panzieri Filho, Adonírio 30 November 2001 (has links)
Made available in DSpace on 2010-04-20T20:08:30Z (GMT). No. of bitstreams: 0 Previous issue date: 2001-11-30T00:00:00Z / This thesis is composed of two essays which apply the Extreme Value Theory to finance, elaborated and presented in an independent manner, as summarized below. First essay: The effect of the day of the week on equity markets as seen by the Extreme Value Theory. Second essay: The EVT applied to stress tests: reformulation of the Longin's method and the proposition of a measure of extremal dependence. / Esta tese é composta de dois ensaios que aplicam a Teoria de Valores Extremos a finanças, elaborados e relatados de forma independente, resumidos a seguir. Primeiro ensaio: O efeito do dia da semana em mercados acionários visto pela Teoria de Valores Extremos. Apresentamos uma nova abordagem sobre duas questões já bastante discutidas na literatura financeira: a dos efeitos do dia da semana sobre os retornos de mercados acionários e a da estimativa do índice caudal de distribuições de retornos financeiros. A novidade da abordagem consiste exatamente no cruzamento das duas questões. Desta maneira formulamos um novo problema: as caudas das distribuições dos retornos de um determinado mercado acionário são as mesmas em todos os dias da semana? Analisamos este problema para duas amostras de retornos diários de índices de mercados acionários, o IBOVESPA e NASDAQ composto. Usando a Teoria de Valores Extremos, parametrizamos as caudas das distribuições dos retornos segundo os dias da semana e testamos se essas caudas possuem a mesma forma (um índice caudal que leva à mesma família de distribuições). Durante a análise do problema principal, surgiram outras questões que também foram estudadas nesta pesquisa: Existe assimetria entre as caudas (caudas das distribuições de retornos esquerda e direita de tipos diferentes)? Os índices caudais das distribuições de retornos diários do IBOVESPA são os mesmos nos períodos pré e pós Plano Real? Os nossos resultados poderiam ter sido alcançados pela simples análise da curtose? Se os retornos diários do índice NASDAQ composto são, à primeira vista, mais bem comportados do que os do IBOVESPA então sua parametrização é mais ‘fácil’ e suas caudas são mais ‘finas’ do que as do IBOVESPA? Essas questões foram respondidas ao final deste relatório quando também comparamos nossos resultados com os de outras pesquisas que analisaram as duas questões originais separadamente. Os principais resultados obtidos levaram-nos a conclusões distintas sobre os comportamentos das caudas das distribuições dos retornos do NASDAQ composto e do IBOVESPA. Para o NASDAQ composto, concluímos que ambas as caudas são ‘grossas’ quando considerados todos os dias da semana em conjunto. Olhando cada dia da semana separadamente, encontramos a presença de caudas ‘grossas e ‘finas’ indicando um efeito de dia da semana. Por outro lado a amostra do IBOVESPA para todos os dias da semana apresentou resultados consistentes de caudas finas tanto à direita quanto à esquerda. Tomados separadamente os dias da semana não identificamos efeito de dia da semana para o IBOVESPA. Segundo ensaio: A TVE aplicada a testes de stress: reformuIação do método de Longin e proposição de uma medida de dependência extremai. Este ensaio foi elaborado em três etapas. Partimos da reformulação do método de teste de stress para posições de mercado decompostas em fatores de risco proposto por Longin [30, 29, 31]. Este método que utiliza uma técnica da Teoria de Valores Extremos (TVE) bivariada para o cálculo de Valor em Risco (VaR), foi modificado quanto à: técnica da TVE utilizada na parametrização das distribuições marginais e; modelagem da estrutura de dependência das distribuições bivariadas. Como resultado dessas alterações, obtivemos um novo método de cálculo de VaR de carteiras para situações de retornos extremamente altos ou extremamente baixos (teste de stress) e uma nova medida de dependência para eventos extremos, a qual denominamos de coeficiente implícito de dependência extremaI. A segunda etapa do estudo consistiu na avaliação da qualidade do método de cálculo de VaR aqui proposto. Como este método é uma aproximação de um método ‘tradicional’ construída para uma carteira bivariada, analisamos se as estimativas obtidas pelos dois métodos tendem a divergir quando se agrega mais ativos na carteira. Nossos resultados foram de que o método proposto não produz bons resultados quando se agrega mais do que quatro ativos básicos carteira. Por outro lado, concluímos que o coeficiente implícito de dependência extremai é uma boa medida da dependência entre variações de preços de pares de ativos em situações de crise ou euforia de mercados. Como última etapa do estudo, usamos o coeficiente implícito de dependência extremai para avaliar a evolução da dependência (em situações extremas de crise ou euforia) de um conjunto de amostras de retornos diários de mercados acionários e de renda fixa internacionais. Identificamos relação de dependência crescente em situações de crises mais extremas quando estudamos amostras de retornos de títulos representativos dos mercados de dívida externa do Brasil e da Argentina ou quando estudamos amostras de retornos de mercados de dívida externa em relação a índices de mercados acionários desses dois países. Porém, não obtivemos evidência de que para pares de mercados acionários a dependência aumente, seja em situações de booms ou crises extremas. Esta última conclusão é especialmente relevante por dois motivos. Em primeiro lugar, por nossa análise incluir mercados muito vinculados como os do Brasil e da Argentina. Em segundo, por nossos resultados contrariarem a conclusão de estudo de Longin e Solnik [32, 33], pioneiro no uso da TVE na análise da evolução de dependência entre mercados financeiros, de que a dependência dos mercados acionários aumenta quando há tendência de quedas, mas cai quando há tendência de altas.
7

[en] EXTREME VALUE THEORY: VALUE AT RISK FOR VARIABLE-INCOME ASSETS / [pt] TEORIA DOS VALORES EXTREMOS: VALOR EM RISCO PARA ATIVOS DE RENDA VARIÁVEL

GUSTAVO LOURENÇO GOMES PIRES 26 June 2008 (has links)
[pt] A partir da década de 90, a metodologia de Valor em Risco (VaR) se difundiu pelo mundo, tanto em instituições financeiras quanto em não financeiras, como uma boa prática de mensuração de riscos. Um dos fatos estilizados mais pronunciados acerca das distribuições de retornos financeiros diz respeito à presença de caudas pesadas. Isso torna os modelos paramétricos tradicionais de cálculo de Valor em Risco (VaR) inadequados para a estimação de VaR de baixas probabilidades, dado que estes se baseiam na hipótese de normalidade para as distribuições dos retornos. Sendo assim, o objetivo do presente trabalho é investigar o desempenho de modelos baseados na Teoria dos Valores Extremos para o cálculo do VaR. Os resultados indicam que os modelos baseados na Teoria dos Valores Extremos são adequados para a modelagem das caudas, e consequentemente para a estimação de Valor em Risco quando os níveis de probabilidade de interesse são baixos. / [en] Since the 90 decade, the use of Value at Risk (VaR) methodology has been disseminated among both financial and non-financial institutions around the world, as a good practice in terms of risks management. The existence of fat tails is one of the striking stylized facts of financial returns distributions. This fact makes the use of traditional parametric models for Value at Risk (VaR) estimation unsuitable for the estimation of low probability events. This is because traditional models are based on the conditional normality assumption for financial returns distributions. The main purpose of this dissertation is to investigate the performance of VaR models based on Extreme Value Theory. The results indicates that Extreme Value Theory based models are suitable for low probability VaR estimation.
8

Inferencia Bayesiana para valores extremos / Bayesian inference for extremes

Bernardini, Diego Fernando de, 1986- 15 August 2018 (has links)
Orientador: Laura Leticia Ramos Rifo / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Computação Cientifica / Made available in DSpace on 2018-08-15T01:44:09Z (GMT). No. of bitstreams: 1 Bernardini_DiegoFernandode_M.pdf: 1483229 bytes, checksum: ea77acd21778728138eea2f27e59235b (MD5) Previous issue date: 2010 / Resumo: Iniciamos o presente trabalho apresentando uma breve introdução a teoria de valores extremos, estudando especialmente o comportamento da variável aleatória que representa o máximo de uma sequência de variáveis aleatórias independentes e identicamente distribuídas. Vemos que o Teorema dos Tipos Extremos (ou Teorema de Fisher-Tippett) constitui uma ferramenta fundamental no que diz respeito ao estudo do comportamento assintóticos destes máximos, permitindo a modelagem de dados que representem uma sequência de observações de máximos de um determinado fenômeno ou processo aleatório, através de uma classe de distribuições conhecida como família de distribuições de Valor Extremo Generalizada (Generalized Extreme Value - GEV). A distribuição Gumbel, associada ao máximo de distribuições como a Normal ou Gama entre outras, é um caso particular desta família. Torna-se interessante, assim, realizar inferência para os parâmetros desta família. Especificamente, a comparação entre os modelos Gumbel e GEV constitui o foco principal deste trabalho. No Capítulo 1 estudamos, no contexto da inferência clássica, o método de estimação por máxima verossimilhança para estes parâmetros e um procedimento de teste de razão de verossimilhanças adequado para testar a hipótese nula que representa o modelo Gumbel contra a hipótese que representa o modelo completo GEV. Prosseguimos, no Capítulo 2, com uma breve revisão em teoria de inferência Bayesiana obtendo inferências para o parâmetro de interesse em termos de sua distribuição a posteriori. Estudamos também a distribuição preditiva para valores futuros. No que diz respeito à comparação de modelos, estudamos inicialmente, neste contexto bayesiano, o fator de Bayes e o fator de Bayes a posteriori. Em seguida estudamos o Full Bayesian Significance Test (FBST), um teste de significância particularmente adequado para testar hipóteses precisas, como a hipótese que caracteriza o modelo Gumbel. Além disso, estudamos outros dois critérios para comparação de modelos, o BIC (Bayesian Information Criterion) e o DIC (Deviance Information Criterion). Estudamos as medidas de evidência especificamente no contexto da comparação entre os modelos Gumbel e GEV, bem como a distribuição preditiva, além dos intervalos de credibilidade e inferência a posteriori para os níveis de retorno associados a tempos de retorno fixos. O Capítulo 1 e parte do Capítulo 2 fornecem os fundamentos teóricos básicos deste trabalho, e estão fortemente baseados em Coles (2001) e O'Hagan (1994). No Capítulo 3 apresentamos o conhecido algoritmo de Metropolis-Hastings para simulação de distribuições de probabilidade e o algoritmo particular utilizado neste trabalho para a obtenção de amostras simuladas da distribuição a posteriori dos parâmetros de interesse. No capítulo seguinte formulamos a modelagem dos dados observados de máximos, apresentando a função de verossimilhança e estabelecendo a distribuição a priori para os parâmetros. Duas aplicações são apresentadas no Capítulo 5. A primeira delas trata das observações dos máximos trimestrais das taxas de desemprego nos Estados Unidos da América, entre o primeiro trimestre de 1994 e o primeiro trimestre de 2009. Na segunda aplicação estudamos os máximos semestrais dos níveis de maré em Newlyn, no sudoeste da Inglaterra, entre 1990 e 2007. Finalmente, uma breve discussão é apresentada no Capítulo 6. / Abstract: We begin this work presenting a brief introduction to the extreme value theory, specifically studying the behavior of the random variable which represents the maximum of a sequence of independent and identically distributed random variables. We see that the Extremal Types Theorem (or Fisher-Tippett Theorem) is a fundamental tool in the study of the asymptotic behavior of those maxima, allowing the modeling of data which represent a sequence of maxima observations of a given phenomenon or random process, through a class of distributions known as Generalized Extreme Value (GEV) family. We are interested in making inference about the parameters of this family. Specifically, the comparison between the Gumbel and GEV models constitute the main focus of this work. In Chapter 1 we study, in the context of classical inference, the method of maximum likelihood estimation for these parameters and likelihood ratio test procedure suitable for testing the null hypothesis associated to the Gumbel model against the hypothesis that represents the complete GEV model. We proceed, in Chapter 2, with a brief review on Bayesian inference theory. We also studied the predictive distribution for future values. With respect to the comparison of models, we initially study the Bayes factor and the posterior Bayes factor, in the Bayesian context. Next we study the Full Bayesian Significance Test (FBST), a significance test particularly suitable to test precise hypotheses, such as the hypothesis characterizing the Gumbel model. Furthermore, we study two other criteria for comparing models, the BIC (Bayesian Information Criterion) and the DIC (Deviance Information Criterion). We study the evidence measures specifically in the context of the comparison between the Gumbel and GEV models, as well as the predictive distribution, beyond the credible intervals and posterior inference to the return levels associated with fixed return periods. Chapter 1 and part of Chapter 2 provide the basic theoretical foundations of this work, and are strongly based on Coles (2001) and O'Hagan (1994). In Chapter 3 we present the well-known Metropolis-Hastings algorithm for simulation of probability distributions, and the particular algorithm used in this work to obtain simulated samples from the posterior distribution for the parameters of interest. In the next chapter we formulate the modeling of the observed data of maximum, presenting the likelihood function and setting the prior distribution for the parameters. Two applications are presented in Chapter 5. The first one deals with observations of the quarterly maximum for unemployment rates in the United States of America, between the first quarter of 1994 and first quarter of 2009. In the second application we studied the semiannual maximum of sea levels at Newlyn, in southwest of England, between 1990 and 2007. Finally, a brief discussion is presented in Chapter 6. / Mestrado / Estatistica / Mestre em Estatística
9

Value at Risk no mercado financeiro internacional: avaliação da performance dos modelos nos países desenvolvidos e emergentes / Value at Risk in international finance: evaluation of the models performance in developed and emerging countries

Gaio, Luiz Eduardo 01 April 2015 (has links)
Diante das exigências estipuladas pelos órgãos reguladores pelos acordos internacionais, tendo em vistas as inúmeras crises financeiras ocorridas nos últimos séculos, as instituições financeiras desenvolveram diversas ferramentas para a mensuração e controle do risco inerente aos negócios. Apesar da crescente evolução das metodologias de cálculo e mensuração do risco, o Value at Risk (VaR) se tornou referência como ferramenta de estimação do risco de mercado. Nos últimos anos novas técnicas de cálculo do Value at Risk (VaR) vêm sendo desenvolvidas. Porém, nenhuma tem sido considerada como a que melhor ajusta os riscos para diversos mercados e em diferentes momentos. Não existe na literatura um modelo conciso e coerente com as diversidades dos mercados. Assim, o presente trabalho tem por objetivo geral avaliar os estimadores de risco de mercado, gerados pela aplicação de modelos baseados no Value at Risk (VaR), aplicados aos índices das principais bolsas dos países desenvolvidos e emergentes, para os períodos normais e de crise financeira, de modo a apurar os mais efetivos nessa função. Foram considerados no estudo os modelos VaR Não condicional, pelos modelos tradicionais (Simulação Histórica, Delta-Normal e t-Student) e baseados na Teoria de Valores Extremos; o VaR Condicional, comparando os modelos da família ARCH e Riskmetrics e o VaR Multivariado, com os modelos GARCH bivariados (Vech, Bekk e CCC), funções cópulas (t-Student, Clayton, Frank e Gumbel) e por Redes Neurais Artificiais. A base de dados utilizada refere-se as amostras diárias dos retornos dos principais índices de ações dos países desenvolvidos (Alemanha, Estados Unidos, França, Reino Unido e Japão) e emergentes (Brasil, Rússia, Índia, China e África do Sul), no período de 1995 a 2013, contemplando as crises de 1997 e 2008. Os resultados do estudo foram, de certa forma, distintos das premissas iniciais estabelecidas pelas hipóteses de pesquisa. Diante de mais de mil modelagens realizadas, os modelos condicionais foram superiores aos não condicionais, na maioria dos casos. Em específico o modelo GARCH (1,1), tradicional na literatura, teve uma efetividade de ajuste de 93% dos casos. Para a análise Multivariada, não foi possível definir um modelo mais assertivo. Os modelos Vech, Bekk e Cópula - Clayton tiveram desempenho semelhantes, com bons ajustes em 100% dos testes. Diferentemente do que era esperado, não foi possível perceber diferenças significativas entre os ajustes para países desenvolvidos e emergentes e os momentos de crise e normal. O estudo contribuiu na percepção de que os modelos utilizados pelas instituições financeiras não são os que apresentam melhores resultados na estimação dos riscos de mercado, mesmo sendo recomendados pelas instituições renomadas. Cabe uma análise mais profunda sobre o desempenho dos estimadores de riscos, utilizando simulações com as carteiras de cada instituição financeira. / Given the requirements stipulated by regulatory agencies for international agreements, in considering the numerous financial crises in the last centuries, financial institutions have developed several tools to measure and control the risk of the business. Despite the growing evolution of the methodologies of calculation and measurement of Value at Risk (VaR) has become a reference tool as estimate market risk. In recent years new calculation techniques of Value at Risk (VaR) have been developed. However, none has been considered the one that best fits the risks for different markets and in different times. There is no literature in a concise and coherent model with the diversity of markets. Thus, this work has the objective to assess the market risk estimates generated by the application of models based on Value at Risk (VaR), applied to the indices of the major stock exchanges in developed and emerging countries, for normal and crisis periods financial, in order to ascertain the most effective in that role. Were considered in the study models conditional VaR, the conventional models (Historical Simulation, Delta-Normal and Student t test) and based on Extreme Value Theory; Conditional VaR by comparing the models of ARCH family and RiskMetrics and the Multivariate VaR, with bivariate GARCH (VECH, Bekk and CCC), copula functions (Student t, Clayton, Frank and Gumbel) and Artificial Neural Networks. The database used refers to the daily samples of the returns of major stock indexes of developed countries (Germany, USA, France, UK and Japan) and emerging (Brazil, Russia, India, China and South Africa) from 1995 to 2013, covering the crisis in 1997 and 2008. The results were somewhat different from the initial premises established by the research hypotheses. Before more than 1 mil modeling performed, the conditional models were superior to non-contingent, in the majority of cases. In particular the GARCH (1,1) model, traditional literature, had a 93% adjustment effectiveness of cases. For multivariate analysis, it was not possible to set a more assertive style. VECH models, and Bekk, Copula - Clayton had similar performance with good fits to 100% of the tests. Unlike what was expected, it was not possible to see significant differences between the settings for developed and emerging countries and the moments of crisis and normal. The study contributed to the perception that the models used by financial institutions are not the best performing in the estimation of market risk, even if recommended by renowned institutions. It is a deeper analysis on the performance of the estimators of risk, using simulations with the portfolios of each financial institution.
10

Aplicação da Teoria dos valores extremos em estratégias "Long-Short"

Monte-mor, Danilo Soares 17 December 2010 (has links)
Made available in DSpace on 2016-12-23T14:00:36Z (GMT). No. of bitstreams: 1 Danilo Soares Monte-Mor.pdf: 964390 bytes, checksum: 749870f88ee1c9c692cf782e397379ec (MD5) Previous issue date: 2010-12-17 / Cada vez mais tem surgido no mercado de investimento fundos de retorno absoluto (Hedge Funds) que têm como objetivo principal melhorar seus desempenhos através de estratégias de arbitragem, como é o caso das estratégias long-short. É o comportamento desproporcional e até mesmo antagônico dos preços dos ativos que permite aos players estruturar estratégias para gerar retornos adicionais, superiores aos custos de oportunidade e independentes ao movimento do mercado. Neste trabalho foi utilizada a Teoria de Valores Extremos (TVE), um importante ramo da probabilidade, para que fossem modeladas as séries da relação direta entre preços de dois pares de ativos. Os quantis obtidos a partir de tal modelagem, juntamente com os quantis fornecidos pela normal, foram superpostos aos dados para períodos subsequentes ao período analisado. A partir da comparação desses dados foi criada uma nova estratégia quantitativa long-short de arbitragem, a qual denominamos GEV Long-Short Strategy / Increasingly has appeared on the market of investment Absolute Return Funds (Hedge Funds), which have the main objective to improve their performance through arbitrage strategies, as long-short strategies. It is the disproportionate evolution and even antagonistic of active prices that allows the players to structure strategies to generate additional returns, higher than the opportunity costs and independent of the movement of the market. In this work we used Extreme Value Theory (EVT), an important segment of probability, to model the series of direct relationship between prices of two pairs of assets. The quantiles obtained from such modeling and the quantile provided by normal were superimposed on data for periods subsequent to the period analyzed. From the comparison of such data we created a new quantitative long-short arbitrage strategy, called GEV Long-Short Strategy

Page generated in 0.5085 seconds