• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 251
  • 14
  • 10
  • 1
  • Tagged with
  • 279
  • 195
  • 138
  • 103
  • 76
  • 63
  • 61
  • 59
  • 56
  • 54
  • 51
  • 51
  • 47
  • 42
  • 38
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Modelos de regressão beta com erro nas variáveis / Beta regression model with measurement error

Carrasco, Jalmar Manuel Farfan 25 May 2012 (has links)
Neste trabalho de tese propomos um modelo de regressão beta com erros de medida. Esta proposta é uma área inexplorada em modelos não lineares na presença de erros de medição. Abordamos metodologias de estimação, como máxima verossimilhança aproximada, máxima pseudo-verossimilhança aproximada e calibração da regressão. O método de máxima verossimilhança aproximada determina as estimativas maximizando diretamente o logaritmo da função de verossimilhança. O método de máxima pseudo-verossimilhança aproximada é utilizado quando a inferência em um determinado modelo envolve apenas alguns mas não todos os parâmetros. Nesse sentido, dizemos que o modelo apresenta parâmetros de interesse como também de perturbação. Quando substituímos a verdadeira covariável (variável não observada) por uma estimativa da esperança condicional da variável não observada dada a observada, o método é conhecido como calibração da regressão. Comparamos as metodologias de estimação mediante um estudo de simulação de Monte Carlo. Este estudo de simulação evidenciou que os métodos de máxima verossimilhança aproximada e máxima pseudo-verossimilhança aproximada tiveram melhor desempenho frente aos métodos de calibração da regressão e naïve (ingênuo). Utilizamos a linguagem de programação Ox (Doornik, 2011) como suporte computacional. Encontramos a distribuição assintótica dos estimadores, com o objetivo de calcular intervalos de confiança e testar hipóteses, tal como propõem Carroll et. al.(2006, Seção A.6.6), Guolo (2011) e Gong e Samaniego (1981). Ademais, são utilizadas as estatísticas da razão de verossimilhanças e gradiente para testar hipóteses. Num estudo de simulação realizado, avaliamos o desempenho dos testes da razão de verossimilhanças e gradiente. Desenvolvemos técnicas de diagnóstico para o modelo de regressão beta com erros de medida. Propomos o resíduo ponderado padronizado tal como definem Espinheira (2008) com o objetivo de verificar as suposições assumidas ao modelo e detectar pontos aberrantes. Medidas de influência global, tais como a distância de Cook generalizada e o afastamento da verossimilhança, são utilizadas para detectar pontos influentes. Além disso, utilizamos a técnica de influência local conformal sob três esquemas de perturbação (ponderação de casos, perturbação da variável resposta e perturbação da covariável com e sem erros de medida). Aplicamos nossos resultados a dois conjuntos de dados reais para exemplificar a teoria desenvolvida. Finalmente, apresentamos algumas conclusões e possíveis trabalhos futuros. / In this thesis, we propose a beta regression model with measurement error. Among nonlinear models with measurement error, such a model has not been studied extensively. Here, we discuss estimation methods such as maximum likelihood, pseudo-maximum likelihood, and regression calibration methods. The maximum likelihood method estimates parameters by directly maximizing the logarithm of the likelihood function. The pseudo-maximum likelihood method is used when the inference in a given model involves only some but not all parameters. Hence, we say that the model under study presents parameters of interest, as well as nuisance parameters. When we replace the true covariate (observed variable) with conditional estimates of the unobserved variable given the observed variable, the method is known as regression calibration. We compare the aforementioned estimation methods through a Monte Carlo simulation study. This simulation study shows that maximum likelihood and pseudo-maximum likelihood methods perform better than the calibration regression method and the naïve approach. We use the programming language Ox (Doornik, 2011) as a computational tool. We calculate the asymptotic distribution of estimators in order to calculate confidence intervals and test hypotheses, as proposed by Carroll et. al (2006, Section A.6.6), Guolo (2011) and Gong and Samaniego (1981). Moreover, we use the likelihood ratio and gradient statistics to test hypotheses. We carry out a simulation study to evaluate the performance of the likelihood ratio and gradient tests. We develop diagnostic tests for the beta regression model with measurement error. We propose weighted standardized residuals as defined by Espinheira (2008) to verify the assumptions made for the model and to detect outliers. The measures of global influence, such as the generalized Cook\'s distance and likelihood distance, are used to detect influential points. In addition, we use the conformal approach for evaluating local influence for three perturbation schemes: case-weight perturbation, respose variable perturbation, and perturbation in the covariate with and without measurement error. We apply our results to two sets of real data to illustrate the theory developed. Finally, we present our conclusions and possible future work.
102

Senhora, de José de Alencar: do folhetim ao romance

Cruz, Catarina Reis Matos da 11 May 2010 (has links)
Made available in DSpace on 2016-04-28T19:59:22Z (GMT). No. of bitstreams: 1 Catarina Reis Matos da Cruz.pdf: 2678362 bytes, checksum: 5bdce63d62e3c25c80ecfdd222ea1ea6 (MD5) Previous issue date: 2010-05-11 / Secretaria da Educação do Estado de São Paulo / This dissertation aims to develop an interpretative analytical study of the novel, Senhora , novelist José de Alencar in confrontation with the feuilleton, journalistic genre of 19th century. The central aim is to verify the presence of the characteristics of the feuilleton composition in novel Senhora , realizing that the writer began his literary career with journalism experience. The themes are: Chapter I presents the landscape of the feuilleton genre until the formation of novel. Chapter II deals with the storytelling feuilleton process and novel Senhora in parallel, by means of the likelihood. Chapter III shows us the fictional romance and society from Rio de Janeiro in middle of nineteenth century in approximation and detachment from the romance-feuilleton. The theoretical support parameters are: Marlyse Meyer (1996), Ribeiro (1996), Roberto Schwartz (2000), Tzvetan Todorov (2008), Antonio Candido (1982), (1975) and (2007) Mikhail Bakhtin (1993) and (2003), among others. We priorized the method of hypothetical-deductive approach because search assumes that Alencar would have used the methodology and procedures feuilleton narrative structural (romance-feuilleton) in Senhora novel. The procedures of analysis and synthesis are constants in the interpretation of the novel, resulting in a search descriptive self-explanatory, between the romance-feuilleton and Senhora novel and similar structures of both / A presente dissertação tem o objetivo geral de desenvolver um estudo analítico interpretativo do romance Senhora, do romancista José de Alencar em confronto com o folhetim, gênero jornalístico do século XIX. O objetivo central é verificar a presença das características da composição folhetinesca no romance Senhora, entendendo que o escritor iniciou sua carreira literária com a experiência jornalística. A temática está assim distribuída: o capítulo I apresenta o panorama do gênero folhetim até a formação do romance. O capítulo II trata do processo narrativo folhetinesco e do romance Senhora em paralelo, por meio da verossimilhança. O capítulo III mostra-nos as personagens do romance e a sociedade fluminense da época em aproximação e distanciamento na intriga. Os parâmetros teóricos de suporte analítico são: Marlyse Meyer (1996), Ribeiro (1996), Roberto Schwartz (2000), Tzvetan Todorov (2008), Antonio Candido (1982), (1975) e (2007) Mikhail Bakhtin (1993) e (2003), dentre outros. Priorizamos o método de abordagem hipotético-dedutivo, pois a pesquisa parte da hipótese que Alencar teria utilizado a metodologia e os procedimentos estruturais da narrativa folhetinesca (romance-folhetim) no romance Senhora. Os procedimentos da análise e síntese são constantes na interpretação do romance, resultando numa pesquisa descritivo-explicativa, entre o romance-folhetim e o romance Senhora e suas estruturas similares
103

Estimação e teste de hipótese baseados em verossimilhanças perfiladas / "Point estimation and hypothesis test based on profile likelihoods"

Silva, Michel Ferreira da 20 May 2005 (has links)
Tratar a função de verossimilhança perfilada como uma verossimilhança genuína pode levar a alguns problemas, como, por exemplo, inconsistência e ineficiência dos estimadores de máxima verossimilhança. Outro problema comum refere-se à aproximação usual da distribuição da estatística da razão de verossimilhanças pela distribuição qui-quadrado, que, dependendo da quantidade de parâmetros de perturbação, pode ser muito pobre. Desta forma, torna-se importante obter ajustes para tal função. Vários pesquisadores, incluindo Barndorff-Nielsen (1983,1994), Cox e Reid (1987,1992), McCullagh e Tibshirani (1990) e Stern (1997), propuseram modificações à função de verossimilhança perfilada. Tais ajustes consistem na incorporação de um termo à verossimilhança perfilada anteriormente à estimação e têm o efeito de diminuir os vieses da função escore e da informação. Este trabalho faz uma revisão desses ajustes e das aproximações para o ajuste de Barndorff-Nielsen (1983,1994) descritas em Severini (2000a). São apresentadas suas derivações, bem como suas propriedades. Para ilustrar suas aplicações, são derivados tais ajustes no contexto da família exponencial biparamétrica. Resultados de simulações de Monte Carlo são apresentados a fim de avaliar os desempenhos dos estimadores de máxima verossimilhança e dos testes da razão de verossimilhanças baseados em tais funções. Também são apresentadas aplicações dessas funções de verossimilhança em modelos não pertencentes à família exponencial biparamétrica, mais precisamente, na família de distribuições GA0(alfa,gama,L), usada para modelar dados de imagens de radar, e no modelo de Weibull, muito usado em aplicações da área da engenharia denominada confiabilidade, considerando dados completos e censurados. Aqui também foram obtidos resultados numéricos a fim de avaliar a qualidade dos ajustes sobre a verossimilhança perfilada, analogamente às simulações realizadas para a família exponencial biparamétrica. Vale mencionar que, no caso da família de distribuições GA0(alfa,gama,L), foi avaliada a aproximação da distribuição da estatística da razão de verossimilhanças sinalizada pela distribuição normal padrão. Além disso, no caso do modelo de Weibull, vale destacar que foram derivados resultados distribucionais relativos aos estimadores de máxima verossimilhança e às estatísticas da razão de verossimilhanças para dados completos e censurados, apresentados em apêndice. / The profile likelihood function is not genuine likelihood function, and profile maximum likelihood estimators are typically inefficient and inconsistent. Additionally, the null distribution of the likelihood ratio test statistic can be poorly approximated by the asymptotic chi-squared distribution in finite samples when there are nuisance parameters. It is thus important to obtain adjustments to the likelihood function. Several authors, including Barndorff-Nielsen (1983,1994), Cox and Reid (1987,1992), McCullagh and Tibshirani (1990) and Stern (1997), have proposed modifications to the profile likelihood function. They are defined in a such a way to reduce the score and information biases. In this dissertation, we review several profile likelihood adjustments and also approximations to the adjustments proposed by Barndorff-Nielsen (1983,1994), also described in Severini (2000a). We present derivations and the main properties of the different adjustments. We also obtain adjustments for likelihood-based inference in the two-parameter exponential family. Numerical results on estimation and testing are provided. We also consider models that do not belong to the two-parameter exponential family: the GA0(alfa,gama,L) family, which is commonly used to model image radar data, and the Weibull model, which is useful for reliability studies, the latter under both noncensored and censored data. Again, extensive numerical results are provided. It is noteworthy that, in the context of the GA0(alfa,gama,L) model, we have evaluated the approximation of the null distribution of the signalized likelihood ratio statistic by the standard normal distribution. Additionally, we have obtained distributional results for the Weibull case concerning the maximum likelihood estimators and the likelihood ratio statistic both for noncensored and censored data.
104

Métodos de estimação baseados na função de verossimilhança para modelos lineares elípticos / Estimation methods based on the likelihood function in Elliptical Linear Models

Pérez, Natalia Andrea Milla 14 September 2018 (has links)
O objetivo desta tese é estudar métodos de estimação baseados na função de verossimilhança em modelos mistos lineares elípticos. Derivamos inicialmente os métodos de máxima verossimilhança, máxima verossimilhança restrita e de máxima verossimilhança perfilada modificada para o modelo linear normal. Estendemos os métodos para os modelos lineares elípticos e encontramos diferenças entre as equações resultantes de cada método. A principal motivação deste trabalho é que o método de máxima verossimilhança restrita tem sido aplicado para obter estimadores menos viesados para os componentes de variância-covariância, em contraste com os estimadores de máxima verossimilhança. O método tem sido muito utilizado em modelos com estruturas de variância-covariância como é o caso dos modelos mistos lineares. Assim, procuramos estender o método para os modelos mistos lineares elípticos bem como comparar com outros procedimentos de estimação, máxima verossimilhança e máxima verossimilhança perfilada modificada. Estudamos em particular os modelos mistos lineares com erros t-Student e exponencial potência. / The aim of this thesis is to study estimation methods based on the likelihood functions in elliptical linear mixed models. First, we review the modified profile maximum likelihood and the restricted maximum likelihood methods as well as the traditional maximum likelihood method in normal linear models. Then, we extend the methodologies for elliptical linear models and we compare the estimating equations derived for each method. The main motivation of the work is that the restricted maximum likelihood method has been largely applied in normal linear mixed models in order to reduce the bias of the maximum likelihood variance-component estimators. So, we intend to investigate the possible extension for elliptical linear mixed models as well as to compare with the modified profile maximum likelihood and the maximum likelihood methods. Particular studies for Student-t and power exponential linear mixed models are presented.
105

Modelos de regressão beta com erro nas variáveis / Beta regression model with measurement error

Jalmar Manuel Farfan Carrasco 25 May 2012 (has links)
Neste trabalho de tese propomos um modelo de regressão beta com erros de medida. Esta proposta é uma área inexplorada em modelos não lineares na presença de erros de medição. Abordamos metodologias de estimação, como máxima verossimilhança aproximada, máxima pseudo-verossimilhança aproximada e calibração da regressão. O método de máxima verossimilhança aproximada determina as estimativas maximizando diretamente o logaritmo da função de verossimilhança. O método de máxima pseudo-verossimilhança aproximada é utilizado quando a inferência em um determinado modelo envolve apenas alguns mas não todos os parâmetros. Nesse sentido, dizemos que o modelo apresenta parâmetros de interesse como também de perturbação. Quando substituímos a verdadeira covariável (variável não observada) por uma estimativa da esperança condicional da variável não observada dada a observada, o método é conhecido como calibração da regressão. Comparamos as metodologias de estimação mediante um estudo de simulação de Monte Carlo. Este estudo de simulação evidenciou que os métodos de máxima verossimilhança aproximada e máxima pseudo-verossimilhança aproximada tiveram melhor desempenho frente aos métodos de calibração da regressão e naïve (ingênuo). Utilizamos a linguagem de programação Ox (Doornik, 2011) como suporte computacional. Encontramos a distribuição assintótica dos estimadores, com o objetivo de calcular intervalos de confiança e testar hipóteses, tal como propõem Carroll et. al.(2006, Seção A.6.6), Guolo (2011) e Gong e Samaniego (1981). Ademais, são utilizadas as estatísticas da razão de verossimilhanças e gradiente para testar hipóteses. Num estudo de simulação realizado, avaliamos o desempenho dos testes da razão de verossimilhanças e gradiente. Desenvolvemos técnicas de diagnóstico para o modelo de regressão beta com erros de medida. Propomos o resíduo ponderado padronizado tal como definem Espinheira (2008) com o objetivo de verificar as suposições assumidas ao modelo e detectar pontos aberrantes. Medidas de influência global, tais como a distância de Cook generalizada e o afastamento da verossimilhança, são utilizadas para detectar pontos influentes. Além disso, utilizamos a técnica de influência local conformal sob três esquemas de perturbação (ponderação de casos, perturbação da variável resposta e perturbação da covariável com e sem erros de medida). Aplicamos nossos resultados a dois conjuntos de dados reais para exemplificar a teoria desenvolvida. Finalmente, apresentamos algumas conclusões e possíveis trabalhos futuros. / In this thesis, we propose a beta regression model with measurement error. Among nonlinear models with measurement error, such a model has not been studied extensively. Here, we discuss estimation methods such as maximum likelihood, pseudo-maximum likelihood, and regression calibration methods. The maximum likelihood method estimates parameters by directly maximizing the logarithm of the likelihood function. The pseudo-maximum likelihood method is used when the inference in a given model involves only some but not all parameters. Hence, we say that the model under study presents parameters of interest, as well as nuisance parameters. When we replace the true covariate (observed variable) with conditional estimates of the unobserved variable given the observed variable, the method is known as regression calibration. We compare the aforementioned estimation methods through a Monte Carlo simulation study. This simulation study shows that maximum likelihood and pseudo-maximum likelihood methods perform better than the calibration regression method and the naïve approach. We use the programming language Ox (Doornik, 2011) as a computational tool. We calculate the asymptotic distribution of estimators in order to calculate confidence intervals and test hypotheses, as proposed by Carroll et. al (2006, Section A.6.6), Guolo (2011) and Gong and Samaniego (1981). Moreover, we use the likelihood ratio and gradient statistics to test hypotheses. We carry out a simulation study to evaluate the performance of the likelihood ratio and gradient tests. We develop diagnostic tests for the beta regression model with measurement error. We propose weighted standardized residuals as defined by Espinheira (2008) to verify the assumptions made for the model and to detect outliers. The measures of global influence, such as the generalized Cook\'s distance and likelihood distance, are used to detect influential points. In addition, we use the conformal approach for evaluating local influence for three perturbation schemes: case-weight perturbation, respose variable perturbation, and perturbation in the covariate with and without measurement error. We apply our results to two sets of real data to illustrate the theory developed. Finally, we present our conclusions and possible future work.
106

O método de máxima Lq-verossimilhança em modelos com erros de medição

Cavalieri, Jacqueline 29 February 2012 (has links)
Made available in DSpace on 2016-06-02T20:06:05Z (GMT). No. of bitstreams: 1 4180.pdf: 1039417 bytes, checksum: d09a61a4895fb47d1c2456468800fc2f (MD5) Previous issue date: 2012-02-29 / Financiadora de Estudos e Projetos / In this work we consider a new estimator proposed by Ferrari & Yang (2010), called the maximum Lq-likelihood estimator (MLqE), to estimate the parameters of the measurement error models, in particular, the structural model. The new estimator extends the classical maximum likelihood estimator (MLE) and its based on the minimization, by means of the Kullback-Leibler (KL) divergence, of the discrepancy between a distribuiton in a family and one that modifies the true distribution by the degree of distortion q. Depending on the choice of q, the transformed distribution can diminish or emphasize the role of extreme observations, unlike the ML method that equally weights each observation. For small and moderate sample sizes, the MLqE can trade bias for precision, causing a reduction of the mean square error (MSE). The structural model has the characteristic of non-identifiability. For this reason, we must make assumptions on the parameters to overcome the non-identifiability. We perform a analytical study and a simulation study to compare MLqE and MLE. To gauge performance of the estimators, we compute measures of overall performance, bias, standard deviation, standard error, MSE, probability of coverage and length of confidence intervals. / Neste trabalho utilizaremos um novo estimador proposto por Ferrari & Yang (2010), denominado de estimador de máxima Lq-verossimilhança (EMLqV), na estimação dos parâmetros de modelos com erros de medição estruturais normais. O novo estimador é uma generalização do estimador de máxima verossimilhança (EMV) usual e sua construção baseia-se na comparação, utilizando divergência de Kullback-Leibler (KL), entre duas distribuições, a distribuição inalterada e a distribuição modificada pelo grau de distorção da função de verossimilhança (q). Conforme a escolha para q, a distribuição modificada poderá atenuar ou exaltar o papel das observações extremas, diferentemente do EMV usual que atribui os mesmos pesos a todas as observações. Na comparação entre as duas distribuições pela divergência de KL é inserida certa quantidade de viés no estimador resultante, que é controlada pelo parâmetro q. O aumento do viés do estimador MLqV pode ser compensado com a redução de sua variância, pela escolha apropriada de q. O modelo estrutural possui a característica de ser inidentificável. Para torná-lo identificável faremos suposições sobre os parâmetros do modelo, analisando cinco casos de identificabilidade do modelo. A comparação entre os métodos MLqV e MV na estimação dos parâmetros do modelo será baseada em resultados analíticos e em simulações, sendo calculadas medidas de desempenho global, viés, desvio padrão (DP), erro padrão estimado (EP), erro quadrático médio (EQM), probabilidade de cobertura e amplitude dos intervalos de confiança.
107

Estimação e teste de hipótese baseados em verossimilhanças perfiladas / "Point estimation and hypothesis test based on profile likelihoods"

Michel Ferreira da Silva 20 May 2005 (has links)
Tratar a função de verossimilhança perfilada como uma verossimilhança genuína pode levar a alguns problemas, como, por exemplo, inconsistência e ineficiência dos estimadores de máxima verossimilhança. Outro problema comum refere-se à aproximação usual da distribuição da estatística da razão de verossimilhanças pela distribuição qui-quadrado, que, dependendo da quantidade de parâmetros de perturbação, pode ser muito pobre. Desta forma, torna-se importante obter ajustes para tal função. Vários pesquisadores, incluindo Barndorff-Nielsen (1983,1994), Cox e Reid (1987,1992), McCullagh e Tibshirani (1990) e Stern (1997), propuseram modificações à função de verossimilhança perfilada. Tais ajustes consistem na incorporação de um termo à verossimilhança perfilada anteriormente à estimação e têm o efeito de diminuir os vieses da função escore e da informação. Este trabalho faz uma revisão desses ajustes e das aproximações para o ajuste de Barndorff-Nielsen (1983,1994) descritas em Severini (2000a). São apresentadas suas derivações, bem como suas propriedades. Para ilustrar suas aplicações, são derivados tais ajustes no contexto da família exponencial biparamétrica. Resultados de simulações de Monte Carlo são apresentados a fim de avaliar os desempenhos dos estimadores de máxima verossimilhança e dos testes da razão de verossimilhanças baseados em tais funções. Também são apresentadas aplicações dessas funções de verossimilhança em modelos não pertencentes à família exponencial biparamétrica, mais precisamente, na família de distribuições GA0(alfa,gama,L), usada para modelar dados de imagens de radar, e no modelo de Weibull, muito usado em aplicações da área da engenharia denominada confiabilidade, considerando dados completos e censurados. Aqui também foram obtidos resultados numéricos a fim de avaliar a qualidade dos ajustes sobre a verossimilhança perfilada, analogamente às simulações realizadas para a família exponencial biparamétrica. Vale mencionar que, no caso da família de distribuições GA0(alfa,gama,L), foi avaliada a aproximação da distribuição da estatística da razão de verossimilhanças sinalizada pela distribuição normal padrão. Além disso, no caso do modelo de Weibull, vale destacar que foram derivados resultados distribucionais relativos aos estimadores de máxima verossimilhança e às estatísticas da razão de verossimilhanças para dados completos e censurados, apresentados em apêndice. / The profile likelihood function is not genuine likelihood function, and profile maximum likelihood estimators are typically inefficient and inconsistent. Additionally, the null distribution of the likelihood ratio test statistic can be poorly approximated by the asymptotic chi-squared distribution in finite samples when there are nuisance parameters. It is thus important to obtain adjustments to the likelihood function. Several authors, including Barndorff-Nielsen (1983,1994), Cox and Reid (1987,1992), McCullagh and Tibshirani (1990) and Stern (1997), have proposed modifications to the profile likelihood function. They are defined in a such a way to reduce the score and information biases. In this dissertation, we review several profile likelihood adjustments and also approximations to the adjustments proposed by Barndorff-Nielsen (1983,1994), also described in Severini (2000a). We present derivations and the main properties of the different adjustments. We also obtain adjustments for likelihood-based inference in the two-parameter exponential family. Numerical results on estimation and testing are provided. We also consider models that do not belong to the two-parameter exponential family: the GA0(alfa,gama,L) family, which is commonly used to model image radar data, and the Weibull model, which is useful for reliability studies, the latter under both noncensored and censored data. Again, extensive numerical results are provided. It is noteworthy that, in the context of the GA0(alfa,gama,L) model, we have evaluated the approximation of the null distribution of the signalized likelihood ratio statistic by the standard normal distribution. Additionally, we have obtained distributional results for the Weibull case concerning the maximum likelihood estimators and the likelihood ratio statistic both for noncensored and censored data.
108

Computação bayesiana aproximada: aplicações em modelos de dinâmica populacional / Approximate Bayesian Computation: applications in population dynamics models

Martins, Maria Cristina 29 September 2017 (has links)
Processos estocásticos complexos são muitas vezes utilizados em modelagem, com o intuito de capturar uma maior proporção das principais características dos sistemas biológicos. A descrição do comportamento desses sistemas tem sido realizada por muitos amostradores baseados na distribuição a posteriori de Monte Carlo. Modelos probabilísticos que descrevem esses processos podem levar a funções de verossimilhança computacionalmente intratáveis, impossibilitando a utilização de métodos de inferência estatística clássicos e os baseados em amostragem por meio de MCMC. A Computação Bayesiana Aproximada (ABC) é considerada um novo método de inferência com base em estatísticas de resumo, ou seja, valores calculados a partir do conjunto de dados (média, moda, variância, etc.). Essa metodologia combina muitas das vantagens da eficiência computacional de processos baseados em estatísticas de resumo com inferência estatística bayesiana uma vez que, funciona bem para pequenas amostras e possibilita incorporar informações passadas em um parâmetro e formar uma priori para análise futura. Nesse trabalho foi realizada uma comparação entre os métodos de estimação, clássico, bayesiano e ABC, para estudos de simulação de modelos simples e para análise de dados de dinâmica populacional. Foram implementadas no software R as distâncias modular e do máximo como alternativas de função distância a serem utilizadas no ABC, além do algoritmo ABC de rejeição para equações diferenciais estocásticas. Foi proposto sua utilização para a resolução de problemas envolvendo modelos de interação populacional. Os estudos de simulação mostraram melhores resultados quando utilizadas as distâncias euclidianas e do máximo juntamente com distribuições a priori informativas. Para os sistemas dinâmicos, a estimação por meio do ABC apresentou resultados mais próximos dos verdadeiros bem como menores discrepâncias, podendo assim ser utilizado como um método alternativo de estimação. / Complex stochastic processes are often used in modeling in order to capture a greater proportion of the main features of natural systems. The description of the behavior of these systems has been made by many Monte Carlo based samplers of the posterior distribution. Probabilistic models describing these processes can lead to computationally intractable likelihood functions, precluding the use of classical statistical inference methods and those based on sampling by MCMC. The Approxi- mate Bayesian Computation (ABC) is considered a new method for inference based on summary statistics, that is, calculated values from the data set (mean, mode, variance, etc.). This methodology combines many of the advantages of computatio- nal efficiency of processes based on summary statistics with the Bayesian statistical inference since, it works well for small samples and it makes possible to incorporate past information in a parameter and form a prior distribution for future analysis. In this work a comparison between, classical, Bayesian and ABC, estimation methods was made for simulation studies considering simple models and for data analysis of population dynamics. It was implemented in the R software the modular and maxi- mum as alternative distances function to be used in the ABC, besides the rejection ABC algorithm for stochastic differential equations. It was proposed to use it to solve problems involving models of population interaction. The simulation studies showed better results when using the Euclidean and maximum distances together with informative prior distributions. For the dynamic systems, the ABC estimation presented results closer to the real ones as well as smaller discrepancies and could thus be used as an alternative estimation method.
109

Caracterização e extensões da distribuição Burr XII: propriedades e aplicações / Characterization and extensions of the Burr XII distribution: Properties and Applications

Paranaíba, Patrícia Ferreira 21 September 2012 (has links)
A distribuição Burr XII (BXII) possui, como casos particulares, as distribuições normal, log-normal, gama, logística, valor extremo tipo I, entre outras. Por essa razão, ela é considerada uma distribuição flexível no ajuste dos dados. As ideias de Eugene; Lee e Famoye (2002) e Cordeiro e Castro (2011) foram utilizadas para o desenvolvimento de duas novas distribuições de probabilidade a partir da distribuição BXII. Uma delas é denominada beta Burr XII (BBXII) e possui cinco parâmetros. Desenvolveu-se o modelo de regressão log-beta Burr XII (LBBXII). A outra distribuição é denominada de Kumaraswamy Burr XII (KwBXII) e possui cinco parâmetros. A vantagem desses novos modelos reside na capacidade de acomodar várias formas da função risco, além disso, eles também se mostraram úteis na discriminação de modelos. Para cada um dos modelos foram calculados os momentos, função geradora de momentos, os desvios médios, a confiabilidade e a função densidade de probabilidade da estatística de ordem. Foi realizado um estudo de simulação para avaliar o desempenho desses modelos. Para a estimação dos parâmetros, foram utilizados os métodos de máxima verossimilhança e bayesiano e, finalmente, para ilustrar a aplicação das novas distribuições foram analisados alguns conjuntos de dados reais. / The Burr XII (BXII) distribution has as particular cases the normal, lognormal, gamma, logistic and extreme-value type I distributions, among others. For this reason, it is considered a flexible distribution for fitting data. In this paper, the ideas of Eugene; Lee e Famoye (2002) and Cordeiro and Castro (2011) is used to develop two new probability distributions based on the BBXII distribution. The first is called beta Burr XII (BBXII) and has five parameters. Based in these, we develop the extended generalized log-beta Burr XII regression model. The other distribution is called Kumaraswamy Burr XII (KwBXII) and has five parameters. The advantage of these new models rests in their capacity to accommodate various risk function forms. They are also useful in model discrimination. We calculate the moments, moments generating function, mean deviations, reliability and probability density function of the order statistics. A simulation study was conducted to evaluate the performance of these models. To estimate the parameters we use the maximum likelihood and Bayesian methods. Finally, to illustrate the application of the new distributions, we analyze some real data sets.
110

Estimation and Identification of a DSGE model: an Application of the Data Cloning Methodology / Estimação e identificação de um Modelo DSGE: uma applicação da metodologia data cloning

Chaim, Pedro Luiz Paulino 18 January 2016 (has links)
We apply the data cloning method developed by Lele et al. (2007) to estimate the model of Smets and Wouters (2007). The data cloning algorithm is a numerical method that employs replicas of the original sample to approximate the maximum likelihood estimator as the limit of Bayesian simulation-based estimators. We also analyze the identification properties of the model. We measure the individual identification strength of each parameter by observing the posterior volatility of data cloning estimates, and access the identification problem globally through the maximum eigenvalue of the posterior data cloning covariance matrix. Our results indicate that the model is only poorly identified. The system displays bad global identification properties, and most of its parameters seem locally ill-identified. / Neste trabalho aplicamos o método data cloning de Lele et al. (2007) para estimar o modelo de Smets e Wouters (2007). O algoritmo data cloning é um método numérico que utiliza réplicas da amostra original para aproximar o estimador de máxima verossimilhança como limite de estimadores Bayesianos obtidos por simulação. Nós também analisamos a identificação dos parâmetros do modelo. Medimos a identificação de cada parâmetro individualmente ao observar a volatilidade a posteriori dos estimadores de data cloning. O maior autovalor da matriz de covariância a posteriori proporciona uma medida global de identificação do modelo. Nossos resultados indicam que o modelo de Smets e Wouters (2007) não é bem identificado. O modelo não apresenta boas propriedades globais de identificação, e muitos de seus parâmetros são localmente mal identificados.

Page generated in 0.0689 seconds