Spelling suggestions: "subject:"abordagem bayesiana"" "subject:"abordagem bayesianas""
1 |
Distribuição Weibull discreta exponenciada para dados com presença de censura : uma abordagem clássica e bayesiana / Exponentiated discrete Weibull distribution for censored data : a classical and bayesian approachCardial, Marcílio Ramos Pereira 27 March 2017 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Estatística, 2017. / Submitted by Raquel Almeida (raquel.df13@gmail.com) on 2017-05-25T18:14:50Z
No. of bitstreams: 1
2017_MarcílioRamosPereiraCardial.pdf: 859702 bytes, checksum: a5faefeaa2144ea4d0b78a886b29b065 (MD5) / Approved for entry into archive by Raquel Viana (raquelviana@bce.unb.br) on 2017-06-06T20:43:26Z (GMT) No. of bitstreams: 1
2017_MarcílioRamosPereiraCardial.pdf: 859702 bytes, checksum: a5faefeaa2144ea4d0b78a886b29b065 (MD5) / Made available in DSpace on 2017-06-06T20:43:26Z (GMT). No. of bitstreams: 1
2017_MarcílioRamosPereiraCardial.pdf: 859702 bytes, checksum: a5faefeaa2144ea4d0b78a886b29b065 (MD5)
Previous issue date: 2017-06-06 / Este trabalho faz um estudo inferencial da distribuição Weibull Discreta Exponenciada para dados de sobrevivência discretos. A distribuição em estudo é uma extensão da distribuição Weibull Discreta de Nakagawa e Osaki. Esta generalização da distribuição Weibull Discreta fornece um ajuste paramétrico em que se permite trabalhar com taxas de falha crescente, decrescente, constante, forma de banheira e unimodal. A formulação do modelo foi realizada no contexto de Análise de Sobrevivência, que considera a existência de dados censurados, e a inferência foi realizada nas abordagens clássica e bayesiana. Na abordagem clássica, a partir do método de máxima verossimilhança, foram utilizados métodos computacionais de otimização para encontrar as estimativas pontuais e intervalares e utilizou-se o Teste de Razão de Verossimilhanças (TRV) para realização de testes de hipóteses como forma de seleção de modelos. Na abordagem bayesiana foram utilizadas técnicas de MCMC (Markov Chain Monte Carlo) para obtenção das estimativas pontuais dos parâmetros do modelo e seus respectivos intervalos de credibilidade HPD (Highest Posterior Density) e o teste de significância genuinamente bayesiano (FBST - Full Bayesian Significance Test). A metodologia apresentada foi aplicada em dados simulados e ilustrada em dois conjuntos de dados reais: o primeiro refere-se ao tempo de sobrevivência de pacientes diagnosticados com câncer de pescoço e cabeça e o segundo considera o tempo até o alivio da dor em pacientes com dor lombar crônica não específica. Todas as simulações e estimativas foram obtidas por meio do software livre R. / This work presented an inferential study of the Exponentiated Discrete Weibull distribution for discrete survival data. This distribution is an extension of the Nakagawa e Osaki's Discrete Weibull distribution. This generalization of the Discrete Weibull distribution provides a parametric adjustment that allows to work with increasing, decreasing, constant, bathtub shape and unimodal hazard rates. The model was formulated in the context of Survival Analysis, which considers the existence of censored data, and inferences were made in the classical and bayesian approaches. In the classical approach, from the maximum likelihood method, computational optimization methods were used to find the point and interval estimates and the Likelihood Ratio Test was used to perform hypothesis tests as a form of model selection. In addition, in the Bayesian approach, the use of the MCMC (Markov Chain Monte Carlo) techniques was used to obtain the point estimates of the model's parameters and their respective HPD (Highest Posterior Density) credible intervals and the FBST (Full Bayesian Significance Test). The methodology presented was applied in simulated data and illustrated in two real data sets: the first refers to the survival time of patients diagnosed with head and neck cancer and the second performed an analysis of the time to relieving pain in patients with chronic non-specific back pain. All simulations and estimates were obtained by the free software R.
|
2 |
Estimação clássica e bayesiana para dados em painelReinaldo, Luciana Moura 30 June 2017 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Estatística, 2017. / Submitted by Raquel Almeida (raquel.df13@gmail.com) on 2017-08-09T16:59:56Z
No. of bitstreams: 1
2017_LucianaMouraReinaldo.pdf: 2070623 bytes, checksum: 699f92bb8bd9d6292a427abe2ab42ee9 (MD5) / Approved for entry into archive by Raquel Viana (raquelviana@bce.unb.br) on 2017-09-13T22:28:40Z (GMT) No. of bitstreams: 1
2017_LucianaMouraReinaldo.pdf: 2070623 bytes, checksum: 699f92bb8bd9d6292a427abe2ab42ee9 (MD5) / Made available in DSpace on 2017-09-13T22:28:40Z (GMT). No. of bitstreams: 1
2017_LucianaMouraReinaldo.pdf: 2070623 bytes, checksum: 699f92bb8bd9d6292a427abe2ab42ee9 (MD5)
Previous issue date: 2017-09-13 / Estudos das mais diversas áreas de conhecimento utilizam várias metodologias de análises de dados quantitativos para verificar tendências e evoluções no comportamento de unidades de observação. Nesse sentido, a utilização de modelos que envolvam dados provenientes de várias unidades experimentais ao longo do tempo vem crescendo gradativamente na pesquisa científica. A metodologia de dados em painel permite a análise longitudinal de diversas unidades de observação em um único painel, possibilitando a identificação de padrões e a própria evolução das unidades de observação. Esse trabalho tem por objetivo sistematizar o conhecimento das estratégias de inferência relacionadas aos dados em painel, com o intuito de proporcionar uma linguagem clara e acessível àqueles que, embora não sendo econometristas, necessitam se apropriar dos métodos de análise dos dados em painel para aplicá-los na sua prática de pesquisa. Para facilitar a compreensão dos métodos, foram apresentados alguns exemplos implementados em um software gratuito, R, um ambiente de cálculos estatísticos, utilizando conjuntos de dados contidos nesse software e uma base de dados reais aplicando tanto a abordagem de inferência clássica quanto a abordagem de inferência bayesiana. / Studies of the most diverse areas of knowledge use several methodologies of quantitative data analysis to verify trends and evolutions in the behavior of observation units. In this sense, the use of models involving data from several experimental units over time has been growing gradually in scientific research. The panel data methodology allows the longitudinal analysis of several units of observation in a single panel, allowing the identification of patterns and the evolution of observation units themselves. This work aims to systematize the knowledge of inference strategies related to panel data, with the aim of providing a clear and accessible language to those who, although not being econometricians, need to appropriate the methods of panel data analysis to apply them in their research practice. To facilitate the comprehension of the method, we have presented some examples implemented in a free software, R, a environment for statistical computing, from datasets contained in this software and a real database using as much the classical approach as the bayesian inference approach.
|
3 |
Modelos dinâmicos com pontos de mudança para dados de contagemSilva, Paulo Henrique Dourado da 15 May 2015 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Estatística, 2015. / Submitted by Albânia Cézar de Melo (albania@bce.unb.br) on 2015-11-30T12:42:27Z
No. of bitstreams: 1
2015_PauloHenriqueDouradoSilva.pdf: 9041166 bytes, checksum: 3d672fa250aa071f9747498f35ab5395 (MD5) / Approved for entry into archive by Patrícia Nunes da Silva(patricia@bce.unb.br) on 2016-01-11T10:54:59Z (GMT) No. of bitstreams: 1
2015_PauloHenriqueDouradoSilva.pdf: 9041166 bytes, checksum: 3d672fa250aa071f9747498f35ab5395 (MD5) / Made available in DSpace on 2016-01-11T10:54:59Z (GMT). No. of bitstreams: 1
2015_PauloHenriqueDouradoSilva.pdf: 9041166 bytes, checksum: 3d672fa250aa071f9747498f35ab5395 (MD5) / Nesta dissertação foram desenvolvidos modelos dinâmicos para dados de contagem quando estes apresentam quebras estruturais. Os métodos aqui desenvolvidos são baseados nos modelos de regressão dinâmica proposto por McCormick et al. (2012), e nos filtros de partículas propostos por Chopin (2007), Fearnhead e Liu (2007) e Caron et al.(2012). Inicialmente apresentam-se os principais aspectos metodológicos a respeito dos modelos dinâmicos, tais como os modelos dinâmicos lineares e os modelos
dinâmicos lineares generalizados. Posteriormente, sãao abordados os principais métodos existentes na literatura sobre filtros de partículas.
A partir desses estudos, propomos, também, extensões inéditas para o modelo de regressãao dinâmica e para o filtro de partículas de Chopin (2007) para a estimação de parâmetros estáticos, além dos estados do sistema. Tais algoritmos são denominados como Algoritmo de McCormick com parâmetros estáticos (McPE) e Filtro de Chopin com Aprendizado de Partículas (FChAP). Nesta dissertação desenvolvemos extensões para dados que apresentam superdispersão e/ou inalação de zeros por meio das distribuções Binomial Negativa, Poisson Inacionada de zeros e Binomial Negativa Inacionada de zeros. Tais modelos foram ilustrados por meio de dados simulados e, posteriormente, foram feitas aplicações a cinco séries temporais reais de dados de contagem. / In this thesis were developed dynamic models for count data when they have
structural breaks, based on dynamic regression models proposed by McCormick et al. (2012), and particle lters proposed by Chopin (2007), Fearnhead and Liu (2007) and Caron et al. (2012). Initially we present the main methodological aspects about the dynamic models such as Dynamic Linear Models and Generalized Linear Dynamic Models. Subsequently, we present the main existing methods in the literature on particle lters. From these studies, we propose new extensions for dynamic regression model and the particle lter methods proposed by Chopin (2007) for the estimation of static parameters, in addition to the states. We named these new algorithms by McCormick algorithm with static parameters (McPE) and Chopin Filter with Particles Learning (FChAP). Based on McPE and FChAP, it was possible to develop extensions for data that show overdispersion and / or zero in ation through the Negative Binomial, Zero
In ated Poisson (ZIP) and Zero In
ated Negative Binomial (ZINB) distributions.Those models were illustrated using both simulated data and ve real counting time series data.
|
4 |
Distribui??o de valores extremos generalizada inflada de zeros / Generalized extremes values distribution zeros inflatedGramosa, Alexandre Henrique Quadros 05 May 2017 (has links)
Submitted by Automa??o e Estat?stica (sst@bczm.ufrn.br) on 2017-07-04T12:00:24Z
No. of bitstreams: 1
AlexandreHenriqueQuadrosGramosa_DISSERT.pdf: 8637409 bytes, checksum: 7f934f7acad126da23bfa58d9e13a240 (MD5) / Approved for entry into archive by Arlan Eloi Leite Silva (eloihistoriador@yahoo.com.br) on 2017-07-11T14:21:03Z (GMT) No. of bitstreams: 1
AlexandreHenriqueQuadrosGramosa_DISSERT.pdf: 8637409 bytes, checksum: 7f934f7acad126da23bfa58d9e13a240 (MD5) / Made available in DSpace on 2017-07-11T14:21:03Z (GMT). No. of bitstreams: 1
AlexandreHenriqueQuadrosGramosa_DISSERT.pdf: 8637409 bytes, checksum: 7f934f7acad126da23bfa58d9e13a240 (MD5)
Previous issue date: 2017-05-05 / Eventos Extremos geralmente s?o respons?veis por produzirem grandes ganhos ou
grandes perdas ? sociedade. J? existe uma distribui??o espec?fica, conhecida como
Distribui??o de Valores Extremos Generalizada (GEV), desenvolvida para predizer e
prevenir tais acontecimentos. Entretanto, em muitas situa??es com dados extremos,
existem a presen?a de zeros excessivos no banco de dados, dificultando a an?lise e a
precis?o na estima??o. A Distribui??o Inflada de Zeros (ZID) ? recomendada para fazer
a modelagem desses dados que apresentam zeros inflacionados. ? objetivo deste trabalho
criar uma nova distribui??o para modelar dados de valores extremos e inflados de
zeros. Portanto, foi realizado uma mistura das distribui??es GEV e ZID, e tamb?m feito
uma abordagem Bayesiana, na busca de obter um melhor ajuste em aplica??es com dados
de m?ximos inflacionados de zeros. Foram escolhidas para an?lises, a precipita??o
di?ria de chuvas na cidade de Natal do estado do Rio Grande do Norte e nas cidades
de Paulistana, Picos, S?o Jo?o do Piau? e Teresina do estado do Piau?. Foi utilizado
tamb?m a distribui??o GEV padr?o para modelar estes mesmos dados coletados, a
t?tulo de compara??o, e assim, por meio de medidas e estima??es feitas pelas duas
distribui??es, verificar a qualidade do ajuste encontrado pela nova distribui??o de Valores
Extremos Inflados de Zeros (IGEV). Logo, verificou-se que o modelo foi bem desenvolvido,
conseguindo estimar bem os dados de m?ximos, mesmo uma quantidade
excessiva de zeros, sendo que a GEV padr?o n?o conseguiu encontrar a distribui??o
de equil?brio quando os dados dados possuem muitos zeros. Al?m disso, quando os
dados de valores extremos n?o tem zeros inflacionados, o novo modelo converge para
a GEV padr?o, identificando a aus?ncia dos zeros. / Extreme events are usually responsible for producing big gains or big losses to society.
There is already a specific distribution, known as Generalized Extreme Values
Distribution (GEV), developed to predict and prevent such events. However, in many
situations with extreme data, there are the presence of excessive zeros in the database,
making analysis difficult and difficult to estimate. Influenced Zero Distribution (ZID)
is recommended to model such data that has inflated zeros. It is the objective of this
work to create a new distribution to model data of extreme and inflated values of zeros.
Therefore, a mixture of the GEV and ZID distributions was made, as well as a
Bayesian approach, in order to obtain a better fit in applications with data of inflated
maximums of zeros. The daily precipitation of rainfall in the city of Natal in the state
of Rio Grande do Norte and in the cities of Paulistana, Picos, S?ao Jo?ao do Piau?? and Teresina
in the state of Piau?? were chosen for analysis. It was also used the standard GEV
distribution to model the same data collected by way of comparison, and thus, through
measurements and estimates made by the two distributions, to verify the quality of the
adjustment found by the new distribution of Extremes Inflated Zeros Values (IGEV).
Therefore, it was verified that the model was well developed, being able to estimate
well the maximum data, even an excessive amount of zeros, and the standard GEV
could not find the equilibrium distribution when the data given have many zeros. In
addition, when the data of extreme values does not have inflated zeros, the new model
converges to the standard GEV, identifying the absence of zeros.
|
5 |
Abordagem bayesiana para o processo espaço-temporal log gaussiano de Cox com aplicação no setor florestalXAVIER, Érika Fialho Morais 10 April 2013 (has links)
Submitted by (ana.araujo@ufrpe.br) on 2016-07-05T14:28:06Z
No. of bitstreams: 1
Erika Fialho Morais Xavier.pdf: 1751380 bytes, checksum: e29a62ff6bec1c7d6748c7552494f545 (MD5) / Made available in DSpace on 2016-07-05T14:28:06Z (GMT). No. of bitstreams: 1
Erika Fialho Morais Xavier.pdf: 1751380 bytes, checksum: e29a62ff6bec1c7d6748c7552494f545 (MD5)
Previous issue date: 2013-04-10 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / Through the analysis of Poisson processes has been possible to perform satisfactorily some studies with data point processes counting. However, these processes are limited to the study of situations with homogeneous patterns, hardly found in actual data. This research has proposed the study of Log Gaussian Cox Processes, process that makes possible the study of patterns points heterogeneous data, with a based from Poisson process with on the realization of a Gaussian random field. We did two applications for the process, the first with simulated data of outbreaks of fire in Castilla-La Mancha, Kingdom of Spain, in order to explore the properties of the graph and computational of LGCP, and study the heterogeneity proposed by the process. The second focuses on real data of fire points and average rainfal in the Amazon Biome, Brazil, detected by satellite NOAA 15, between the years 2007 and 2011. The Inference for these processes are carried out under the Bayesian approach, using the Monte Carlo Markov Chain (MCMC). The proposed objectives of this work were completed satisfactorily, enabling future predictions about the data in the study. / Através da análise de Processos de Poisson tem sido possível realizar de forma satisfatória diversos estudos a partir de processos pontuais, com dados provenientes de contagem. Entretanto, estes processos limitam-se ao estudo de situações com padrões homogêneos, difícilmente encontrados em dados reais. Este trabalho propôs o estudo dos Processos Log Gaussianos de Cox (LGCP), processo que torna possível o estudo de dados com padrões pontuais heterogeneos a partir de uma generalização do processo de Poisson, baseado na realizaçãoo de um campo aleatório Gaussiano. Foram realizadas duas aplicações para o processo, a primeira em dados simulados de focos de incêndio em Castilla-La Mancha, Reino da Espanha, com a finalidade de explorar as propriedades gráfico-computacionais do LGCP, bem como a heterogeneidade proposta pelo processo. A segunda em dados reais de focos de calor e precipitação média de chuva no Bioma Amazônia, Brasil, detectados pelo satélite NOAA 15, entre os anos de 2007 e 2011. A inferência para esses processos é realizada sob a abordagem Bayesiana, utilizando o método de Monte Carlo em Cadeias de Markov (MCMC). Os objetivos propostos neste trabalho foram cumpridos de forma satisfatória, possibilitando previsões futuras a respeito dos dados em estudo.
|
6 |
Idade e crescimento do tubarão Aneqim, Isurus Oxyrinchus (Rafinesque 1810), no Atlântico sudoesteMelleras, Florencia Doño January 2013 (has links)
Dissertação(mestrado) - Universidade Federal do Rio Grande, Programa de Pós–Graduação em Oceanografia Biológica, Instituto de Oceanografia, 2013. / Submitted by Cristiane Gomides (cristiane_gomides@hotmail.com) on 2013-11-19T12:52:38Z
No. of bitstreams: 1
florencia.pdf: 2100442 bytes, checksum: 41f46ff0b9c28e5fa20e9fad129e691f (MD5) / Approved for entry into archive by Angelica Miranda (angelicacdm@gmail.com) on 2013-11-20T21:43:14Z (GMT) No. of bitstreams: 1
florencia.pdf: 2100442 bytes, checksum: 41f46ff0b9c28e5fa20e9fad129e691f (MD5) / Made available in DSpace on 2013-11-20T21:43:14Z (GMT). No. of bitstreams: 1
florencia.pdf: 2100442 bytes, checksum: 41f46ff0b9c28e5fa20e9fad129e691f (MD5)
Previous issue date: 2013 / O tubarão anequim Isurus oxyrinchus é uma espécie frequente na captura incidental da pesca oceânica de espinhel no Atlântico Sul. Apesar disso, estudos de idade e crescimento não têm sido realizados para a espécie na região. O presente estudo forneceu as primeiras estimativas de idade e crescimento do tubarão anequim no Atlântico Sudoeste através da análise de secções vertebrais de 245 exemplares (126 fêmeas, 116 machos e 3 com sexo indeterminado), com uma amplitude de tamanhos de 78 a 330 cm de comprimento furcal (CF). A relação entre o raio da vértebra e o CF foi linear. As análises do incremento marginal não foram conclusivas em relação à periodicidade de formação das bandas de crescimento na área do estudo. Assumindo uma periodicidade anual (uma banda de crescimento por ano), a amplitude de idades estimada foi de 0 a 28 anos. O modelo de crescimento de Schnute, escolhido por sua flexibilidade e ajustado sob uma abordagem bayesiana, forneceu uma boa descrição do crescimento individual para ambos os sexos até os 15 anos de idade. O crescimento no primeiro ano de vida foi 33.9 cm (ICr95% = 19.9 – 40.8) para as fêmeas e 30.5 cm (ICr95% = 25.6 - 35.4) para os machos. Até aproximadamente 15 anos de idade, fêmeas e machos apresentaram crescimento semelhante, atingindo ~217 cm CF. A forma sigmoide que apresentaram as curvas de crescimento de ambos os sexos indicou que existe uma mudança no padrão de crescimento em torno dos 7 anos de idade. Os resultados inconclusivos sobre a periodicidade na deposição das bandas de crescimento na área de estudo fazem com que seja necessária a aplicação de técnicas mais robustas de validação no futuro. Enquanto isso, uma abordagem preventiva que assuma um padrão de deposição anual no Atlântico Sudoeste pode ser utilizada para a avaliação e manejo dos estoques dessa espécie, caracterizada por uma baixa fertilidade e uma maturidade tardia. / The shortfin mako shark Isurus oxyrinchus is a frequent by-catch species in oceanic longline fisheries in the South Atlantic. Despite this, no age and growth studies have been conducted for the species in the region. This study provided the first age and growth estimates of female and male shortfin mako sharks from the western South Atlantic through the analysis of vertebral sections of 245 specimens (126 females, 116 males and 3 with undetermined sex), ranging in size from 78 to 330 cm fork length (FL). A significant linear relationship was found between FL and vertebral radius for sexes combined. Marginal increment analyses were inconclusive about periodicity of growth band deposition and an annual periodicity (one growth band per year) was assumed to make age estimations. Specimens were estimated to be between 0 and 28 years of age. The Schnute growth model (SGM), chosen for its flexibility and fitted with a Bayesian approach, provided a good description of the individual growth for both sexes up to 15 years of age. Shortfin mako growth during the first year of life was 33.9 cm (ICr95% = 19.9 – 40.8) for females and 30.5 cm (ICr95% = 25.6 - 35.4) for males. Until approximately 15 years of age, both sexes showed similar growth and reached ~217 cm FL. Sigmoid shaped growth curves obtained for both sexes indicated a change in the growth pattern close to 7 years of age. Inconclusive results about periodicity of growth band deposition in the study area make necessary the application of more robust validation techniques in the future. Meanwhile, a precautionary approach that assumes an annual deposition pattern in the western South Atlantic can be used for the assessment and management of stocks of this species, characterized by low fecundity and late maturity.
|
7 |
Família Kumaraswamy-G para analisar dados de sobrevivência de longa duração / Kumaraswamy-G family to analyze long-term survival dataD\'Andrea, Amanda Morales Eudes 25 February 2015 (has links)
Em análise de sobrevivência estuda-se o tempo até a ocorrência de um determinado evento de interesse e na literatura, a abordagem mais usual é a paramétrica, em que os dados seguem uma distribuição de probabilidade. Diversas distribuições conhecidas são utilizadas para acomodar dados de tempos de falha, porém, grande parte destas distribuições não é capaz de acomodar funções de risco não monótonas. Kumaraswamy (1980) propôs uma nova distribuição de probabilidade e, baseada nela, mais recentemente Cordeiro e de Castro (2011) propuseram uma nova família de distribuições generalizadas, a Kumaraswamy generalizada (Kum-G). Esta distribuição além de ser flexível, contém distribuições com funções de risco unimodal e em forma de banheira. O objetivo deste trabalho é apresentar a família de distribuições Kum-Ge seus casos particulares para analisar dados de tempo de vida dos indivíduos em risco, considerando que uma parcela da população nunca apresentará o evento de interesse, além de considerarmos que covariáveis influenciem na função de sobrevivência e na proporção de curados da população. Algumas propriedades destes modelos serão abordadas, bem como métodos adequa- dos de estimação, tanto na abordagem clássica quanto na bayesiana. Por fim, são apresentadas aplicações de tais modelos a conjuntos de dados existentes na literatura. / In survival analysis is studied the time until the occurrence of a particular event of interest and in the literature, the most common approach is parametric, that the data follow a probability distribution. Various known distributions are used to accommodate failure times data, however, most of these distributions is not able to accommodate non monotonous hazard functions. Kumaraswamy (1980) proposed a new probability distribution and, based on it, most recently Cordeiro e de Castro (2011) proposed a new family of generalized distributions, Kumaraswamy generalized (Kum-G). This distribution besides being flexible, has distributions with unimodal and tub form of hazard functions. The objective of this paper is to present the family of Kum-G distributions and their particular cases to analyze lifetime data of individuals at risk, considering that part of the population never present the event of interest, and considering that covariates influencing in the survival function and the cured proportion of the population. Some properties of these models will be discussed as well as appropriate estimation methods, in the classical and Bayesian approaches. Finally, applications of such models are presented to data sets existingin the literature.
|
8 |
Seleção de modelos econométricos não aninhados: J-Teste e FBST / Non nested econometric model selection: J-Test and FBSTCerezetti, Fernando Valvano 26 October 2007 (has links)
A comparação e seleção de modelos estatísticos desempenham um papel fundamental dentro da análise econométrica. No que se trata especificamente da avaliação de modelos não aninhados, o procedimento de teste denominado de J-Teste aparece como uma ferramenta de uso freqüente nessa literatura. De acordo com apontamentos, entre os anos de 1984 e 2004 o J-Teste foi citado em 497 artigos pertinentes. Diferentemente do J-Teste, as abordagens Bayesianas possuem um potencial de aplicabilidade ainda pouco explorado na literatura, dado que são metodologicamente coerentes com os procedimentos inferenciais da econometria. Nesse sentido, o objetivo do presente trabalho é o de avaliar a aplicabilidade do procedimento de teste Bayesiano FBST para a comparação de modelos econométricos não aninhados. Implementando-se o FBST para os mesmos dados de estudos estatísticos relevantes na Teoria Econômica, tais como Bremmer (2003) (Curva de Phillips) e Caporale e Grier (2000) (determinação da taxa de juros real), constata-se que os resultados obtidos apontam para conclusões semelhantes daquelas delineadas com a utilização do J-Teste. Além disso, ao se utilizar a noção de função poder para avaliar ambos os procedimentos de teste, observa-se que sob certas condições as chances de erro expressas pelo Erro Tipo I e Erro Tipo II se tornam relativamente próximas. / The comparison and selection of statistical models play an important role in econometric analysis. Dealing with evaluation of non nested models, the test procedure called J-Test is a frequently used tool in the literature. Accordingly to statistics, between the years 1894 and 2004 the J-Test was cited on 497 pertinent articles. Differently from J-Test, the Bayesian theories have an unexplored applicability potential in the literature, once they are methodologically coherent with the standard procedures of inference in econometrics. In this sense, the objective of this essay is to evaluate the applicability of the Bayesian procedure FBST to comparison of non nested econometric models. Implementing the FBST to the same data of some relevant statistical studies in Economic Theory, like Bremmer (2003) (Phillips Curve) and Caporale and Grier (2000) (real interest rate determination), it can be seen that the results obtained point to the same conclusions as that attained with J-Test utilization. Besides that, when implementing the power function to evaluate both test procedures, it can be observed that under some conditions the error chances expressed by Error Type I and Error Type II become relatively close.
|
9 |
Seleção de modelos econométricos não aninhados: J-Teste e FBST / Non nested econometric model selection: J-Test and FBSTFernando Valvano Cerezetti 26 October 2007 (has links)
A comparação e seleção de modelos estatísticos desempenham um papel fundamental dentro da análise econométrica. No que se trata especificamente da avaliação de modelos não aninhados, o procedimento de teste denominado de J-Teste aparece como uma ferramenta de uso freqüente nessa literatura. De acordo com apontamentos, entre os anos de 1984 e 2004 o J-Teste foi citado em 497 artigos pertinentes. Diferentemente do J-Teste, as abordagens Bayesianas possuem um potencial de aplicabilidade ainda pouco explorado na literatura, dado que são metodologicamente coerentes com os procedimentos inferenciais da econometria. Nesse sentido, o objetivo do presente trabalho é o de avaliar a aplicabilidade do procedimento de teste Bayesiano FBST para a comparação de modelos econométricos não aninhados. Implementando-se o FBST para os mesmos dados de estudos estatísticos relevantes na Teoria Econômica, tais como Bremmer (2003) (Curva de Phillips) e Caporale e Grier (2000) (determinação da taxa de juros real), constata-se que os resultados obtidos apontam para conclusões semelhantes daquelas delineadas com a utilização do J-Teste. Além disso, ao se utilizar a noção de função poder para avaliar ambos os procedimentos de teste, observa-se que sob certas condições as chances de erro expressas pelo Erro Tipo I e Erro Tipo II se tornam relativamente próximas. / The comparison and selection of statistical models play an important role in econometric analysis. Dealing with evaluation of non nested models, the test procedure called J-Test is a frequently used tool in the literature. Accordingly to statistics, between the years 1894 and 2004 the J-Test was cited on 497 pertinent articles. Differently from J-Test, the Bayesian theories have an unexplored applicability potential in the literature, once they are methodologically coherent with the standard procedures of inference in econometrics. In this sense, the objective of this essay is to evaluate the applicability of the Bayesian procedure FBST to comparison of non nested econometric models. Implementing the FBST to the same data of some relevant statistical studies in Economic Theory, like Bremmer (2003) (Phillips Curve) and Caporale and Grier (2000) (real interest rate determination), it can be seen that the results obtained point to the same conclusions as that attained with J-Test utilization. Besides that, when implementing the power function to evaluate both test procedures, it can be observed that under some conditions the error chances expressed by Error Type I and Error Type II become relatively close.
|
10 |
GARMA models, a new perspective using Bayesian methods and transformations / Modelos GARMA, uma nova perspectiva usando métodos Bayesianos e transformaçõesAndrade, Breno Silveira de 16 December 2016 (has links)
Generalized autoregressive moving average (GARMA) models are a class of models that was developed for extending the univariate Gaussian ARMA time series model to a flexible observation-driven model for non-Gaussian time series data. This work presents the GARMA model with discrete distributions and application of resampling techniques to this class of models. We also proposed The Bayesian approach on GARMA models. The TGARMA (Transformed Generalized Autoregressive Moving Average) models was proposed, using the Box-Cox power transformation. Last but not least we proposed the Bayesian approach for the TGARMA (Transformed Generalized Autoregressive Moving Average). / Modelos Autoregressivos e de médias móveis generalizados (GARMA) são uma classe de modelos que foi desenvolvida para extender os conhecidos modelos ARMA com distribuição Gaussiana para um cenário de series temporais não Gaussianas. Este trabalho apresenta os modelos GARMA aplicados a distribuições discretas, e alguns métodos de reamostragem aplicados neste contexto. É proposto neste trabalho uma abordagem Bayesiana para os modelos GARMA. O trabalho da continuidade apresentando os modelos GARMA transformados, utilizando a transformação de Box-Cox. E por último porém não menos importante uma abordagem Bayesiana para os modelos GARMA transformados.
|
Page generated in 0.0567 seconds