61 |
Proposta de algoritmos para aumento de dados via arquétiposCAVALCANTI, Pórtya Piscitelli 11 July 2016 (has links)
Arquétipos, na estatística, são os elementos extremos mais representativos de uma amostra ou população, a partir dos quais todos os outros podem ser reescritos. A Análise de Arquétipos (AA) é uma técnica multivariada que visa reduzir a dimensionalidade dos dados, por meio de combinações convexas dos próprios dados, proporcionando encontrar e selecionar seus arquétipos. Existem aplicações da AA em diversas áreas do conhecimento, contudo ainda não foi explorado o seu potencial no aumento de dados amostrais. Quando um conjunto de dados é caracterizado como incompleto ou não possui o tamanho necessário para cometer o erro desejado no procedimento de inferência estatística, surge a ideia, ou necessidade, de aumentar essa amostra. Para esse fim, a técnica de aumento de dados consiste em introduzir dados não observados ou variáveis latentes por meio de métodos iterativos ou algoritmos de amostragem. Sendo assim, como os arquétipos permitem reescrever os elementos amostrais com um erro mínimo, gerando elementos não observados, esses poderiam ser utilizados para o aumento de dados. Então, o objetivo deste trabalho foi propor e avaliar a eficiência do aumento de dados por meio dos arquétipos. Foram programados três algoritmos para aumento de dados amostrais via arquétipos (Algoritmos 1, 2 e 3 - A1, A2 e A3, respectivamente), e foram realizados dois estudos de simulação para avaliar e comparar cada algoritmo quanto à sua eficiência; sendo testada a distribuição da variável aleatória e as estimativas de seus parâmetros, e também para verificar se esse aumento pode ser executado sucessivas vezes. Além disso, foi feita a aplicação dos algoritmos em um conjunto de dados reais sobre análise sensorial. Os três algoritmos apresentaram resultados semelhantes, destacando-se o A3, por ter apresentado um desempenho apropriado em todos os cenários. Esse algoritmo permitiu aumentar 10% do tamanho da amostra inicial, sem alterar a distribuição de probabilidade, bem como as estimativas de seus parâmetros. O estudo sobre aumentos sucessivos de dados também indicou o A3 como o mais eficiente, que foi capaz de aumentar a amostra em 110% de seu tamanho inicial, através de 11 aumentos sucessivos de 10% cada. O estudo com dados reais permitiu aumentar o tamanho da amostra e proporcionar maior precisão na inferência praticada. Portanto, parece seguro realizar o aumento de dados via arquétipos sugerindo-se o algoritmo 3. / In statistics, archetypes are the most representative extreme observations of a sample or population, from which all others can be written. The Archetypal Analysis (AA) is a multivariate technique that aims to reduce the dimensionality of data through convex combinations of data itself, providing to find and select their archetypes. There are applications of AA in several areas of knowledge, but its potential in sample data augmentation still has not been exploited. When our data set is characterized as missing data or does not have the size needed to make the desired error in statistical inference procedure, there is the idea or need to increase this sample. For this purpose, data augmentation technique consists to introduce non observed data or latent variables by iterative methods or sampling algorithms. Thus, as archetypes allow rewriting the sample elements with a minimum error, generating elements not observed, these could be used to augment data. So the aim of this work was to propose and evaluate the efficiency of data augmentation through archetypes. Three algorithms were programmed to augment sample data using the archetypes (Algorithms 1, 2 and 3 - A1, A2 and A3, respectively), and two simulation studies were conducted to assess and compare the algorithms about the efficacy; testing the random variable distribution, and the estimatives of its parameters, and also to check whether this augment can be run successive times. In addition, was made an application of the algorithms into a real sensory analysis data. All algorithms showed similar results, highlighting the A3, that present an appropriate performance in all scenarios. This algorithm allowed to augment 10% of the initial sample size, without changing the probability distribution, as well as estimatives of its parameters. The study about successive augments also indicated A3 as the most efficient, that was able to augment the sample up to 110% of their initial size by 11 successive augments of 10%. The study with real data allowed to augment the sample size and improve the precision in practiced inference. So it seems safe to perform data augmentation by archetypes suggesting the algorithm 3.
|
62 |
Abordagem matemática na análise de dados de área aplicada à variável malária em Moçambique / Mathematical approach in the area of data analysis applied to the variable malaria in MozambiqueChipenete, Cláudio Francisco 07 October 2015 (has links)
Submitted by Marco Antônio de Ramos Chagas (mchagas@ufv.br) on 2016-01-12T15:42:33Z
No. of bitstreams: 1
texto completo.pdf: 897031 bytes, checksum: 0ce7b977e0fd78e93525a626ede6769f (MD5) / Made available in DSpace on 2016-01-12T15:42:33Z (GMT). No. of bitstreams: 1
texto completo.pdf: 897031 bytes, checksum: 0ce7b977e0fd78e93525a626ede6769f (MD5)
Previous issue date: 2015-10-07 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Ao se analisar os dados de área, um dos principais interesses é entender sua estrutura ou distribuição no espaço e, se existe alguma dependência ou estrutura bem definida entre as diversas áreas na região em estudo. Para mensurar essa dependência fez-se uma análise de padrões utilizando a autocorrelação espacial. O principal objetivo do trabalho foi abordar no enfoque matemático, as técnicas e procedimentos estatísticos na análise espacial de dados de área utilizando o método tradicional para o cálculo do índice de Moran e o método de três passos. Buscou-se também verificar e analisar a existência de algum padrão espacial definido em Moçambique associado a variável malária. A malária tem sido uma das principais causas de internamento nos hospitais e centros de saúde nos últimos anos, igualmente, das mortes da população. Analisar sua distribuição e relacionamento entre diferentes distritos do país poderá contribuir para minimizar os efeitos dessa doença. Os dados foram obtidos do Inquérito Demográfico e de Saúde de Moçambique (IDS) realizado em 2011. Na análise estatística foi possível identificar regiões cujos distritos se assemelhavam por possuírem taxas médias baixas de malária, formando agrupamentos, a saber, nas regiões sul, extremo sul, e norte de Moçambique. Para os demais distritos, verificou-se uma distribuição aleatória de casos da malária. No entanto, foi possível identificar distritos representados pelas cidades de Maputo, Matola e Beira com maior taxa de malária em relação aos demais. / In the area of data analysis, the main interest is to understand how these data are distributed in space and if there is any relationship or dependency between the various areas in the study area for a given phenomenon. To measure this dependence became a pattern analysis using the spatial autocorrelation. The main objective was to address the mathematical approach of the technical and statistical procedures in the area spatial analysis of data using the traditional method for calculating the Moran index and the three-step method. It sought to verify and analyze the existence of a spatial pattern set in Mozambique variable associated with malaria. Malaria has been a major cause of hospitalization in hospitals and health centers in recent years, also the deaths of the population. Analyze their distribution and relationship between different districts of the country could help to minimize the effects of this disease. Data were obtained from the Demographic and Health of Mozambique (DHS) conducted in 2011. Statistical analysis was possible to identify regions whose districts were similar because they have average rates of malaria low, forming groupings, namely, in the south, far south and northern Mozambique. For other districts, there is a random distribution of cases of malaria. However, it was possible to identify districts represented by the cities of Maputo, Matola and Beira with the highest malaria rates in relation to the other.
|
63 |
Metodologia gráfica para dados de eventos recorrentes via bootstrap. / Recurrent events; Bootstrap; Asymptotic theory; Coverage probabilityAnacleto Junior, Osvaldo 05 January 2005 (has links)
Made available in DSpace on 2016-06-02T20:05:58Z (GMT). No. of bitstreams: 1
DissOAJ.pdf: 355178 bytes, checksum: 9e8e8eedffffb70dab1d4b56a2ee5d45 (MD5)
Previous issue date: 2005-01-05 / Financiadora de Estudos e Projetos / Experiments related to recurrent events provide information about the number of events,
time to their ocurrence and their costs. Nelson (1995) presents a methodology to obtain
confidence intervals for the cost and the number of cumulative events. Apart from this,
it is possible to construct confidence intervals via computer-intensive methods, where
the bootstrap is a particular case. In this dissertation we present these two procedures
and make a comparison, checking the coverage probability and the sample size influence
in the precision of the intervals provided by the two methods. One of the advantages
of the methodology presented in this dissertation is the possibility for its application in
several areas and its easy computational implementation. An example from engineering
illustrates the methodology. / Experimentos com dados de eventos recorrentes fornecem informações sobre o número
de eventos, o tempo até a ocorrência do evento e custos dos mesmos. Um exemplo consiste
em dados relacionados à garantia de equipamentos manufaturados, onde o objetivo básico
é estimar o custo médio acumulado e o número médio acumulado de eventos. Nelson
(1995) propõe uma metodologia para obtenção de intervalos de confiança para o custo e o
número médio acumulado de eventos baseada na teoria assintótica. Além desta metodologia,
é possível obter intervalos de confiança via métodos computacionalmente intensivos,
em particular, bootstrap. O objetivo deste trabalho é apresentar estes dois métodos, assim
como realizar uma comparação dos mesmos a partir da verificação da probabilidade
de cobertura e a influência do tamanho da amostra na precisão dos intervalos de confi-
ança construídos a partir dos dois procedimentos apresentados. Dentre as vantagens da
metodologia aqui apresentada, é a possibilidade de sua aplicação em diversas áreas do
conhecimento, assim como sua facilidade de implementação computacional. Um exemplo,
proveniente da área de engenharia, é apresentado.
|
64 |
Reamostragem bootstrap em amostragem por conjuntos ordenados e intervalos de confiança não paramétricos para a média.Taconeli, Cesar Augusto 27 January 2005 (has links)
Made available in DSpace on 2016-06-02T20:06:11Z (GMT). No. of bitstreams: 1
DissCAT.pdf: 1246450 bytes, checksum: 08bdf53e7efc64e4dcca7835dee4b601 (MD5)
Previous issue date: 2005-01-27 / Financiadora de Estudos e Projetos / Ranked set sampling is an efficient and practice way to obtain more precise estimative
when the sample size is small because of the high cost or difficulties to measure the interest
variable. Using rough and cheap qualitative or quantitative information, the sample units are
ranked before their effective measurement.
In 1952, McIntyre introduced the ranked set sample design to estimate the average yields
from plots of cropland, using the ranked set sample mean, X . Cesario and Barreto (2003) have
shown a parametric version of bootstrap confidence intervals for normal distribution mean.
Because of the restriction of small sample size, the distributional assumption may not be
reasonable, producing no liable estimates. So the study and proposition of precise interval
estimators of the population mean could be relevant and are the main interest of this work.
Using resampling methods, we propose in this work an extension of bootstrap resampling
for ranked set sampling. A simulation study is conduced to the properties of single random
sample bootstrap confidence intervals and the similar using our version for ranked set sampling.
The analysis of the simulation study have shown the gain of precision for using the ranked set
sampling bootstrap confidence intervals in the population mean. / A amostragem por conjuntos ordenados é uma alternativa prática e eficiente no que
concerne à obtenção de estimativas mais precisas frente à impossibilidade de extração de uma
amostra numerosa, seja devido a dificuldades na mensuração da variável de interesse ou a um
elevado custo inerente a obtenção de tais medidas. A aplicação deste delineamento amostral
torna-se viável caso seja possível ordenar amostras extraídas aleatoriamente de maneira eficiente,
de acordo com o valor da variável de interesse, sem de fato medi-las, mas baseado apenas em um
critério pré-estabelecido, que pode ser alguma variável concomitante altamente correlacionada ou
mesmo mediante algum julgamento pessoal.
Introduzida por McIntyre (1952), a amostragem por conjuntos ordenados propicia a
estimação de diversos parâmetros com um relevante ganho em termos de precisão. Um estimador
para a média populacional é a média da amostra por conjuntos ordenados ( X ), proposto por
McIntyre com aplicações, inicialmente, na estimação da produção média de pastagens. Cesário e
Barreto (2003) apresentam uma alternativa paramétrica na obtenção de intervalos de confiança
bootstrap para a média de populações com distribuição normal via amostragem por conjuntos
ordenados.
Dada a restrição quanto à seleção de grandes amostras, a suposição de alguma distribuição
para a variável de interesse muitas vezes não é razoável, gerando estimativas pouco confiáveis.
Neste contexto, o estudo e a proposição de estimadores intervalares não paramétricos para a
média, elaborados a partir de um esquema de seleção de amostras capaz de gerar estimativas
precisas sob circunstâncias adversas, como é a amostragem por conjuntos ordenados, mostra-se
altamente relevante, sendo o objeto de estudo deste trabalho.
Os intervalos de confiança analisados são obtidos através de um esquema original de reamostragem
bootstrap, fundamentado em amostragem por conjuntos ordenados, seguindo
algoritmos propostos neste trabalho. A análise das propriedades destes intervalos foi realizada a
partir de um amplo estudo via simulação, que evidenciou uma significativa melhora das
estimativas propostas, quando comparado àquelas convencionais, baseadas em amostragem
aleatória simples, especialmente em relação à precisão de tais estimativas.
|
65 |
Um estimador com estrutura de U-estatística para o índice caudal de distribuições de cauda pesadaLopes, Luciene Pinheiro January 2007 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Matemática, 2007. / Submitted by Fernanda Weschenfelder (nandaweschenfelder@gmail.com) on 2009-12-07T17:15:07Z
No. of bitstreams: 1
2007_LucienePinheiroLopes_parcial.PDF: 645786 bytes, checksum: c70e3639dbab3d758a210f34f8071fc8 (MD5) / Approved for entry into archive by Daniel Ribeiro(daniel@bce.unb.br) on 2010-01-16T00:11:03Z (GMT) No. of bitstreams: 1
2007_LucienePinheiroLopes_parcial.PDF: 645786 bytes, checksum: c70e3639dbab3d758a210f34f8071fc8 (MD5) / Made available in DSpace on 2010-01-16T00:11:03Z (GMT). No. of bitstreams: 1
2007_LucienePinheiroLopes_parcial.PDF: 645786 bytes, checksum: c70e3639dbab3d758a210f34f8071fc8 (MD5)
Previous issue date: 2007 / No presente trabalho, estudamos o estimador proposto por Fan (2004), para o índice caudal de distribuições no domínio de atração de leis _-estáveis, com 0 < _ < 2. Este estimador tem estrutura de U-estatística, é robusto e assintoticamente não viesado. Utilizando as ferramentas da teoria clássica de U-estatística, são demonstradas a consistência e normalidade assintótica do estimador. _____________________________________________________________________________________ ABSTRACT / In this work we study the estimator proposed by Fan (2004) for the tail index of distributions in the domain of attraction of a _-stable law with 0 < _ < 2. This estimator has U-statistic structure and is robust and asymptotically unbiased. By using the classical tools theory of U-statistic, the consistency and the asymptotic normality of the estimator are proved.
|
66 |
Cálculo exato do ponto crítico de modelos de aglomerados aleatórios (q ≥ 1) sobre a rede bidimensionalVila Gabriel, Roberto January 2013 (has links)
Dissertação(mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Matemática, 2013. / Submitted by Alaíde Gonçalves dos Santos (alaide@unb.br) on 2013-10-08T12:16:21Z
No. of bitstreams: 1
2013_RobertoVilaGabriel.pdf: 3245364 bytes, checksum: b4dd6dc2376cbbe449b55b6bcfd55654 (MD5) / Approved for entry into archive by Guimaraes Jacqueline(jacqueline.guimaraes@bce.unb.br) on 2013-10-16T14:03:06Z (GMT) No. of bitstreams: 1
2013_RobertoVilaGabriel.pdf: 3245364 bytes, checksum: b4dd6dc2376cbbe449b55b6bcfd55654 (MD5) / Made available in DSpace on 2013-10-16T14:03:06Z (GMT). No. of bitstreams: 1
2013_RobertoVilaGabriel.pdf: 3245364 bytes, checksum: b4dd6dc2376cbbe449b55b6bcfd55654 (MD5) / Este trabalho está baseado no artigo: The self-dual point of the two-dimensional random-cluster model is critical for q ≥ 1, escrito pelos matemáticos Vincent Beffara e Hugo Duminil-Copin publicado no periódico Probability Theory and Related Fields em 2012. Neste trabalho os autores provam uma conjectura bastante antiga sobre o valor do ponto crítico do Modelo de Aglomerados Aleatórios na rede Z2. Eles mostraram que o ponto auto-dual, psd(q) = √q /(1 + √q ); para q ≥ 1 é crítico na rede quadrada. Como uma aplicação deste resultado, eles mostraram também que as funções de conectividade, na fase subcrítica, decaem exponencialmente com respeito à distância entre dois pontos. _______________________________________________________________________________________ ABSTRACT / This work is based on the paper: The self-dual point of the two-dimensional randomcluster model is critical for, q ≥ 1, by Vincent Beffara and Hugo Duminil-Copin, Probability Theory and Related Fields 2012. In this work the authors proved an old conjecture about the critical point of the Random-Cluster Model in the square lattice. They shown that the self dual point,
psd(q) = √q /(1 + √q ); for q ≥ 1 is critical on the square lattice. As an application they shown that the connectivity functions, in the subcritical phase, decays exponentially fast with the distance of the points.
|
67 |
FGM e suas generalizações sob um ponto de vista bayesiano / A bayesian approach for FGM and its generalizationsSchultz, José Adolfo de Almeida 18 August 2018 (has links)
Orientador: Verónica Andrea González-Lopez / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matemática, Estatística e Computação Científica / Made available in DSpace on 2018-08-18T10:24:16Z (GMT). No. of bitstreams: 1
Schultz_JoseAdolfodeAlmeida_M.pdf: 781903 bytes, checksum: 6f13c49a1d8a278498ea105b9b9a7a31 (MD5)
Previous issue date: 2011 / Resumo: O resumo poderá ser visualizado no texto completo da tese digital / Abstract: The abstract is available with the full electronic digital document / Mestrado / Inferencia Bayesiana / Mestre em Estatística
|
68 |
Modelo de Grubbs em grupos / Grubbs' model with subgroupsZeller, Camila Borelli 23 February 2006 (has links)
Orientador: Filidor Edilfonso Vilca Labra / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Computação Cientifica / Made available in DSpace on 2018-08-05T23:55:16Z (GMT). No. of bitstreams: 1
Zeller_CamilaBorelli_M.pdf: 3683998 bytes, checksum: 26267086098b12bd76b1d5069f688223 (MD5)
Previous issue date: 2006 / Resumo: Neste trabalho, apresentamos um estudo de inferência estatística no modelo de Grubbs em grupos, que representa uma extensão do modelo proposto por Grubbs (1948,1973) que é freqüentemente usado para comparar instrumentos ou métodos de medição. Nós consideramos a parametrização proposta por Bedrick (2001). O estudo é baseado no método de máxima verossimilhança. Testes de hipóteses são considerados e baseados nas estatísticas de wald, escore e razão de verossimilhanças. As estimativas de máxima verossimilhança do modelo de Grubbs em grupos são obtidas usando o algoritmo EM e considerando que as observações seguem uma distribuição normal. Apresentamos um estudo de análise de diagnóstico no modelo de Grubbs em grupos com o interesse de avaliar o impacto que um determinado subgrupo exerce na estimativa dos parâmetros. Vamos utilizar a metodologia de influência local proposta por Cook (1986), considerando o esquema de perturbação: ponderação de casos. Finalmente, apresentamos alguns estudos de simulação e ilustramos os resultados teóricos obtidos usando dados encontrados na literatura / Abstract: In this work, we presented a study of statistical inference in the Grubbs's model with subgroups, that represents an extension of the model proposed by Grubbs (1948,1973) that is frequently used to compare instruments or measurement methods. We considered the parametrization proposed by Bedrick (2001). The study is based on the maximum likelihood method. Tests of hypotheses are considered and based on the wald statistics, score and likelihood ratio statistics. The maximum likelihood estimators of the Grubbs's model with subgroups are obtained using the algorithm EM and considering that the observations follow a normal distribution. We also presented a study of diagnostic analysis in the Grubb's model with subgroups with the interest of evaluating the effect that a certain one subgroup exercises in the estimate of the parameters. We will use the methodology of local influence proposed by Cook (1986) considering the schemes of perturbation of case weights. Finally, we presented some simulation studies and we illustrated the obtained theoretical results using data found in the literature / Mestrado / Mestre em Estatística
|
69 |
Teste grafico para o ajuste de copulas arquimedianas usando variaveis BIPIT : um estudo de simulação / Test chart for the adjustment Archimedean copulas using variables BIPIT : a study of simulationBianchi, Marta Cristina Colozza 07 July 2008 (has links)
Orientador: Veronica Andrea Gonzales-Lopez / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Computação Cientifica / Made available in DSpace on 2018-08-11T07:35:52Z (GMT). No. of bitstreams: 1
Bianchi_MartaCristinaColozza_M.pdf: 1867659 bytes, checksum: dbaca8bf802bf1568b0603fd248dc31f (MD5)
Previous issue date: 2008 / Resumo: A crescente utilização de cópulas para modelagem de dependência em dados multivariados leva ao estudo de metodologias para o ajuste de cópulas. Este estudo é recente, assim como a plena utilização da teoria de cópulas para modelagem padrão. Grande parte das metodologias existentes ainda encontra-se em fase de estudo e somente alguns métodos foram validados recentemente. Há a necessidade de mecanismos de fácil acesso a detecção de estruturas de dependência ainda escassos na literatura. Nesta dissertação, é apresentado um método gráfico para o ajuste de cópulas, adaptado do QQplot, denominado Kendall Plot. Este método torna-se mais completo que o QQplot ao se postular a adição de bandas de confiança ao gráfico Kendall Plot, que permitem tomar uma decisão em relação a uma estrutura de dependência fixa, expressa por uma cópula, a ser testada para a amostra disponível. A redução de dimensão dos dados a uma variável unidimensional denominada BIPIT, que carrega informação a respeito da estrutura de dependência dos dados, permite a utilização da adaptação do QQplot com o fim de se testar estruturas de dependência / Abstract: The growing utilization of copulas to the dependency fitting of multi-variated data leads to the study of methodologies for copulas fitting. This study is recent, such as the complete utilization of the theory of copulas to standard fitting. Many of the existing methodologies are still in studies and only some have been recently validated. There is a need for easy-access mechanisms to detect dependency structures still missing in the statistical literature. It is presented in this dissertation a graphic method to the copulas fitting adapted from QQplot denominated Kendall Plot. This method is more complete than the QQplot due to the addition of confidence bands to the Kendall Plot graphic that allows the researcher to make a decision related to a fixed dependency structure, expressed by a copula, to be tested to the available sample. The reduction of the data dimension to a one-dimensional random variable, called BIPIT, which carries information about dependency data structure, allows the utilization of the QQplot adaptation for testing dependency structures / Mestrado / Teoria de Copulas / Mestre em Estatística
|
70 |
Construção de distribuições multivariadas com dependências assimétricas = modelos hierárquicos arquimedianos, modelos pair-cópula e cópula t-sudent / Construction of multivariate distributions wits asymmetric dependence : hierarchical arquimedean copula, pair-copula and t-student copulaSakamoto, Caroline de Freitas, 1987- 20 August 2018 (has links)
Orientador: Luiz Koodi Hotta / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matemática, Estatística e Computação Científica / Made available in DSpace on 2018-08-20T03:56:46Z (GMT). No. of bitstreams: 1
Sakamoto_CarolinedeFreitas_M.pdf: 4538610 bytes, checksum: 977f3115a7248c40284073adc86889ac (MD5)
Previous issue date: 2012 / Resumo: A construção de distribuições multivariadas com dependências assimétricas, especialmente com dependências complexas nas caudas, é um requisito necessário em muitas aplicações, particularmente em finanças. A teoria de cópulas pode ser bastante útil nesta tarefa. Neste sentido, algumas das propostas sugeridas na literatura são os modelos hierárquicos arquimedianos, os modelos pair-cópula e a cópula t-Student assimétrica. Esta dissertação está focada no estudo e aplicação de modelos de cópulas com dimensões maiores que três através dos modelos Pair-Cópula, que têm sido de fundamental importância para estender o conceito de dependência do caso bivariado para o caso multivariado. A metodologia de Pair-Cópula propõe a utilização de diagramas vine para a organização dos possíveis modelos. A ênfase é dada para o diagrama D-vine, que permite diversas permutações entre as séries. Por meio de simulação, é verificado o impacto dessas diferentes permutações do diagrama D-vine, e também do uso de diferentes funções de cópulas sob o cálculo do Valor em Risco (VaR). São realizadas comparações com cópulas multivariadas arquimedianas, normal e t-Student multivariadas. é apresentada uma aplicação de cópulas tetravariadas a dados reais de retornos financeiros / Abstract: The construction of multivariate distributions with asymmetric dependencies, especially with complex dependencies in the tails, is a necessary requirement in many applications, particularly in finance. The theory of copulas can be very useful in this task. In this sense, some of the proposals suggested in the literature are the Archimedean hierarchical models, Pair-Copula models and asymmetric t-Student copula. This dissertation is focused on the study and application of models of more than three dimensions through the Pair-Copula models, which have been essential to extend the concept of dependence of bivariate case to the multivariate case. The Pair-Copula methodology proposes the use of vine tree for the organization the possible models. Emphasis is given to the D-vine tree, which allows permutation among the variables. The influence and the importance of the order of the variables in the D-vine in the estimation of the Value at Risk (VaR) is investigated by simulation. The pair-copula model is compared with the t-Student multivariate distribution, the multivariate Archimedean copula, and paircopula models using different copula functions. The model is also applied to estimate the VaR of a portfolio with four assets / Mestrado / Estatistica / Mestre em Estatística
|
Page generated in 0.041 seconds