Spelling suggestions: "subject:"bayesian inference"" "subject:"eayesian inference""
251 |
Ajuste de modelos de degradabilidade ruminal por meio da técnica de produção de gases utilizando as metodologias clássica e bayesiana / Adjustment of ruminal degradability models applying the technique of gas production by using classical and Bayesian methodologiesSouza, Gabriel Batalini de 15 March 2013 (has links)
Dado o poder agropecuário nacional e sabendo que a pastagem tem papel fundamental na nutrição animal, torna-se primordial o estudo dos mecanismos da digestão ruminal das forragens, para um aproveitamento mais racional das pastagens pelos animais, propiciando uma fermentação ruminal ótima e possibilitando o balanceamento de rações de forma mais adequada. Esta abordagem é possível por meio dos modelos de degradação ruminal, que são classificados como modelos de regressão não lineares. Neste trabalho são abordadas as metodologias clássica e bayesiana para ajustar os modelos que descrevem a cinética de degradação ruminal por meio da técnica de produção de gases. Na abordagem clássica foram considerados os modelos não sigmoidal proposto por Orskov&McDonald (1979), o Logístico proposto por Schofield (1994) e o Gompertz proposto por Lavrencic (1997), considerando a necessidade de fatores autorregressivos de primeira e segunda ordem mediante o teste de razão de verossimilhança (TRV); os modelos foram avaliados por meio dos critérios de Akaike (AIC), coeficiente de determinação ajustado (R2 aj) e quadrado médio residual (QMR). Em uma segunda etapa realizou-se o ajuste do modelo não sigmoidal sem fator autorregressivo utilizando a abordagem bayesiana, em que a condição de convergência das cadeias foi analisada por meio dos critérios de Geweke (1992), Heidelberger&Welch (1993), Raftery& Lewis (1992) e o Erro de Monte Carlo (EMC). Dentre os modelos utilizados, o que melhor se ajustou aos dados analisados foi o modelo não sigmoidal proposto por Orskov e McDonald (1979), sem o fator autorregressivo, obtendo estimativas condizentes com a realidade do fenômeno. Os resultados obtidos por meio da abordagem bayesiana também foram satisfatórios, mostrando que a técnica, apesar de pouco difundida em estudos de degradação ruminal é uma metodologia bastante viável e tem muito a agregar em estudos da área. / Given the national agricultural power and knowing that grazing plays an important role in animal nutrition, it becomes primordial to study the mechanisms of ruminal digestion of forages, for a more rational use of pastures by the animals, providing an optimal rumen fermentation and allowing a more adequate and balanced feed. This approach is possible by using the rumen degradation models, which are classified as non-linear regression models. This essay discusses the classical and Bayesian methods to adjust the models that describe the kinetics of degradation by rumen gas production technique. In the classical approach, the \"Non Sigmoidal models\", proposed by Orskov& McDonald (1979), the \"Logistic\", proposed by Schofield (1994), and \"Gompertz\", proposed by Lavrencic (1997), were considered, taking into account the need for autoregressive factors of first and second order, by the \"likelihood ratio test \" (TRV). These models were evaluated using the Akaike criteria (AIC), the coefficient of determination adjusted (R2aj) and \"the residual average square\" (QMR). In the following stage, the adjustment of the non sigmoidal model without the autoregressive factor were performed, using the Bayesian approach. For these matters, the condition of the convergence of chains was analyzed using Geweke (1992), Heidelberger & Welch (1993), Raftery& Lewis (1992) and Monte Carlo error(EMC) criteria.Among the models used, the one that best settle to the data analyzed was the non sigmoidal model without the autoregressive factor, proposed by Orskov and McDonald (1979), obtaining consistent estimates with the reality of the phenomenon. The results obtained through the Bayesian approach were also satisfactory, showing that the technique, although less diffused in studies of rumen methodology, is very viable and has a lot to add in these area studies.
|
252 |
Modelo bayesiano para dados de sobrevivência com riscos semicompetitivos baseado em cópulas / Bayesian model for survival data with semicompeting risks based on copulasPatiño, Elizabeth González 23 March 2018 (has links)
Motivados por um conjunto de dados de pacientes com insuficiência renal crônica (IRC), propomos uma nova modelagem bayesiana que envolve cópulas da família Arquimediana e um modelo misto para dados de sobrevivência com riscos semicompetitivos. A estrutura de riscos semicompetitivos é bastante comum em estudos clínicos em que dois eventos são de interesse, um intermediário e outro terminal, de forma tal que a ocorrência do evento terminal impede a ocorrência do intermediário mas não vice-versa. Nesta modelagem provamos que a distribuição a posteriori sob a cópula de Clayton é própria. Implementamos os algoritmos de dados aumentados e amostrador de Gibbs para a inferência bayesiana, assim como os criterios de comparação de modelos: LPML, DIC e BIC. Realizamos um estudo de simulação para avaliar o desempenho da modelagem e finalmente aplicamos a metodologia proposta para analisar os dados dos pacientes com IRC, além de outros de pacientes que receberam transplante de medula óssea. / Motivated by a dataset of patients with chronic kidney disease (CKD), we propose a new bayesian model including the Arquimedean copula and a mixed model for survival data with semicompeting risks. The structure of semicompeting risks appears frequently in clinical studies where two-types of events are involved: a nonterminal and a terminal event such that the occurrence of terminal event precludes the occurrence of the non-terminal event but not viceversa. In this work we prove that the posterior distribution is proper when the Clayton copula is used. We implement the data augmentation algorithm and Gibbs sampling for the bayesian inference, as well as some bayesian model selection criteria: LPML, BIC and DIC. We carry out a simulation study for assess the model performance and finally, our methodology is illustrated with the chronic kidney disease study.
|
253 |
Estratégias de imputação de genótipos de marcadores SNP para estudos de associação genômica em animais da raça Nelore / Strategies of genotypes imputation for genome-wide association studies in Nellore cattleSilva, Fabiane de Lima 07 November 2013 (has links)
Temperamento em bovinos é definido como a reação dos animais em resposta ao contato com o ser humano, geralmente atribuído ao medo ocasionado no manejo. Animais agitados são mais difíceis de manejar nas fazendas. Estudos na literatura mostram que características de temperamento influenciam o desempenho produtivo dos rebanhos, devido à sua correlação com outras características dentre elas, ganho de peso diário, taxa de prenhez, qualidade e rendimento de carcaça. Todavia, estudos visando o melhor entendimento dos mecanismos biológicos, e da arquitetura genética destas características são escassos. Com a evolução das tecnologias de genotipagem em alta densidade com marcadores de polimorfismo único (SNP), observou-se um aumento de pesquisas nas áreas de seleção genômica (GS) e associação genômica (GWAS). Entretanto, devido ao alto custo que a genotipagem em larga escala apresenta, torna-se inviável a genotipagem para todos os animais candidatos à seleção. Porém, existe a possibilidade de utilizar painéis de baixa densidade de SNP e inferir estes genótipos desconhecidos para painéis de alta densidade. Neste contexto foram desenvolvidos dois estudos. No primeiro, o objetivo foi identificar regiões cromossômicas associadas com características de temperamento em animais da raça Nelore. As características avaliadas foram: velocidade de saída (VS) e mediana do escore composto (EC_mediana), em que 599 e 575 animais foram utilizados, respectivamente. Todos os animais foram genotipados com Illumina BovineHD BeadChip (800K), e para o GWAS dois modelos estatísticos foram aplicados. O primeiro modelo utilizado foi genômico de única etapa (ssGBLUP), em que os efeitos dos SNP são derivados da predição dos valores genéticos genômicos dos animais. O segundo modelo foi linear misto, similar ao modelo anterior, porém várias análises, SNP por SNP (regressão simples) foram realizadas. Nos dois modelos foram incluídos os efeitos de grupo de contemporâneo como fixo, idade do animal como covariável e efeito poligênico do animal e ambiente permanente como aleatórios. Os componentes de variância foram estimados pelo método de máxima verossimilhança restrita. Os coeficientes de herdabilidade apresentaram baixa magnitude com estimativas de 0,02 e 0,05 para VS e EC_mediana, respectivamente. Diferentes regiões cromossômicas foram associados com as características estudadas nesta população, de acordo com os modelos utilizados, contribuindo para o entendimento da arquitetura genética dessas características. No segundo, o objetivo foi avaliar a acurácia de imputação também nesta população, usando dois painéis de baixa densidade (3K e 6K) e um de média densidade (50K) imputados para o painel de alta densidade (800K). Os animais genotipados com 800K foram divididos em população de validação e população de referência. Na população de validação, os animais tiveram seus genótipos mascarados para os chips Illumina 3K, 6K e 50K. A imputação de 3K, 6K e 50K para 800K foi realizada utilizando os softwares de imputação fastPHASE e Beagle. O software fastPHASE apresentou maiores valores de acurácia de imputação em comparação ao Beagle. O painéis 6K e 50K apresentaram maiores valores de acurácia. / Temperament in cattle is generally defined as the reaction of an animal in response to contact with human, usually attributed to the fear. Animals agitated are harder to manage in farms. Studies in the literature reported that temperamental traits have been found to influence the productive performance of herds, due to its correlation with other traits such as carcass quality, daily gains, pregnancy rate and feed efficiency. However, almost nothing is known regarding the genetic landscape controlling temperamental animal variation in cattle. With the advances in genotyping technologies for high density genotyping platforms to markers of single nucleotide polymorphisms (SNP), there was an increase in research in the areas of genomic selection (GS) and genome-wide association studies (GWAS). However, genotyping many animals with a high-density marker panel can be expensive and economically unfeasible. An alternative in this context is to use a lower density marker panel on a larger number of animals, and impute the missing genotypes. In this context two studies were developed. In the first study, the objective was to identify chromosomal regions associated with temperament traits in Nellore cattle. The temperamental traits evaluated in this study were: exit velocity (VS) and the median score temperament (EC_mediana) assessed in 599 and 575 animals, respectively. All animals were genotyped with Illumina BeadChip BovineHD (800K), and two GWAS statistical models were applied. The first model used was genomic single step (ssGBLUP) in which the effects of SNP are derived from the genomic prediction values of the animals. The second was linear mixed model, similar to the previous model, but a series of models, one for each SNP (single regression), were performed. In both models were included the effects of contemporary group as fixed, the animal\'s age as a covariate effect and polygenic animal and permanent environment as random effect. Variance components were estimated by restricted maximum likelihood. The heritability coefficients showed low magnitude estimative of 0.02 and 0.05 for VS and EC_mediana, respectively. Different chromosomal regions were associated with the traits studied in this population, according with the models used, and moreover to contribute in the understanding of the genetic architecture of these traits. In the second study, the objective was to evaluate the accuracy of imputation in a same population, using two panels of low-density (3K and 6K) and one medium-density (50K) panel markers imputed up to higher density of 800K. The animals genotyped with 800K markers panel were split into a reference population and validation population. The validation population the animals had markers masked to Illumina chip 3K, 6K e 50K. Imputation from 3K, 6K and 50K up to 770K markers was performed using fastPHASE and Beagle. The software fastPHASE had higher imputation accuracy compared to Beagle. The 6K and 50K panels showed higher accuracy.
|
254 |
Caracterização e extensões da distribuição Burr XII: propriedades e aplicações / Characterization and extensions of the Burr XII distribution: Properties and ApplicationsParanaíba, Patrícia Ferreira 21 September 2012 (has links)
A distribuição Burr XII (BXII) possui, como casos particulares, as distribuições normal, log-normal, gama, logística, valor extremo tipo I, entre outras. Por essa razão, ela é considerada uma distribuição flexível no ajuste dos dados. As ideias de Eugene; Lee e Famoye (2002) e Cordeiro e Castro (2011) foram utilizadas para o desenvolvimento de duas novas distribuições de probabilidade a partir da distribuição BXII. Uma delas é denominada beta Burr XII (BBXII) e possui cinco parâmetros. Desenvolveu-se o modelo de regressão log-beta Burr XII (LBBXII). A outra distribuição é denominada de Kumaraswamy Burr XII (KwBXII) e possui cinco parâmetros. A vantagem desses novos modelos reside na capacidade de acomodar várias formas da função risco, além disso, eles também se mostraram úteis na discriminação de modelos. Para cada um dos modelos foram calculados os momentos, função geradora de momentos, os desvios médios, a confiabilidade e a função densidade de probabilidade da estatística de ordem. Foi realizado um estudo de simulação para avaliar o desempenho desses modelos. Para a estimação dos parâmetros, foram utilizados os métodos de máxima verossimilhança e bayesiano e, finalmente, para ilustrar a aplicação das novas distribuições foram analisados alguns conjuntos de dados reais. / The Burr XII (BXII) distribution has as particular cases the normal, lognormal, gamma, logistic and extreme-value type I distributions, among others. For this reason, it is considered a flexible distribution for fitting data. In this paper, the ideas of Eugene; Lee e Famoye (2002) and Cordeiro and Castro (2011) is used to develop two new probability distributions based on the BBXII distribution. The first is called beta Burr XII (BBXII) and has five parameters. Based in these, we develop the extended generalized log-beta Burr XII regression model. The other distribution is called Kumaraswamy Burr XII (KwBXII) and has five parameters. The advantage of these new models rests in their capacity to accommodate various risk function forms. They are also useful in model discrimination. We calculate the moments, moments generating function, mean deviations, reliability and probability density function of the order statistics. A simulation study was conducted to evaluate the performance of these models. To estimate the parameters we use the maximum likelihood and Bayesian methods. Finally, to illustrate the application of the new distributions, we analyze some real data sets.
|
255 |
Modelagem estatística em estudos de bioequivalência sob o enfoque Bayesiano / Statistical modeling in bioequivalence studies under Bayesian approach.Souza, Roberto Molina de 15 April 2015 (has links)
O interesse pelos estudos de bioequivalência iniciou-se na década de 60, sendo o FDA (EUA) a primeira agência reguladora a se interessar por esta questão. No Brasil, uma lei de 1999 regulamentou o medicamento genérico no país, sendo este um importante meio de acesso aos medicamentos pela população e fazendo parte da política de medicamentos do SUS. No Brasil, a ANVISA e responsável por inspecionar os centros de bioequivalência bem como dar as diretrizes para estes. Um modelo paramétrico padrão para a etapa estatística e disponibilizado para a decisão de bioequivalência media e espera-se que este ajuste-se aos dados obtidos nos estudos de bioequivalência, o que nem sempre acontece. Neste sentido, e proposto nesta tese o uso de modelos paramétricos mais abrangentes baseados em outras distribuições de probabilidade para a decisão de bioequivalência media e que possam modelar a assimetria dos dados, dispensando o uso da transformação logarítmica para os parâmetros farmacocinéticos o que afeta a amplitude dos limites de bioequivalência. Propõe-se também o uso de modelos bivariados para a tomada conjunta da decisão de bioequivalência media, quando são analisados simultaneamente dois parâmetros farmacocinéticos. Foram utilizados métodos Bayesianos para a estimação dos parâmetros dado a exibilidade deste enfoque quando combinado ao uso dos métodos MCMC facilitados a partir do uso de softwares livres. Nesta tese e apresentado um estudo do poder empírico dos testes de hipóteses para os modelos univariados propostos bem como são introduzidos quatro exemplos, sendo os três primeiros voltados a aplicação da decisão de bioequivalência media e o quarto para a aplicação da bioequivalência populacional e individual. Nos três primeiros exemplos foram observados ganhos em termos de ajuste dos novos modelos propostos aos dados com relação ao modelo padrão segundo os critérios de seleção de modelos utilizados. O exemplo quatro apresenta uma analise padrão de bioequivalência populacional e individual com o código computacional para a obtenção dos resultados disponível no apêndice A bem como outros códigos para os demais exemplos. Embora a padroniza- ção das análises estatísticas para os estudos de bioequivalência seja importante, não deve-se esperar que um modelo padrão ajuste-se a qualquer conjunto de dados originados destes tipo de estudos. Neste sentido, são apresentados alternativas que podem auxiliar o pesquisador na tomada de uma decisão em termos de bioequivalência media mais segura. / The interest in bioequivalence studies began in the early 1960s especially in the United States of America where the FDA was the rst regulatory agency to show interest upon this issue. In Brazil, this interest started in 1999 the year when a law regulated the generic drugs in the country. The ANVISA is the Brazilian regulatory agency responsible for inspecting the bioequivalence centers and giving guidelines for this issue. In general, a standard parametric model for the statistical step is indicated for the average bioequivalence decision and this model is expected to be tted by the data obtained in the bioequivalence studies. In some cases, this model would not be appropriate. In this way, this thesis proposes the use of more comprehensive parametric models based on other probability distributions for the average bioequivalence decision and that can model asymmetrical data, a common situation in bioequivalence studies. In addition, there is no need of a logarithmic transformation for the pharmacokinetic parameters which could aect the range of the bioequivalence limits. We also propose the use of parametrical bivariate models for the joint decision of the average bioequivalence decision, since these measures are usually analyzed simultaneously with two pharmacokinetic parameters. We use Bayesian methods to estimate the parameters, given the great exibility of this approach when combined with the use of MCMC methods using free available softwares. This thesis also presents a study of the empirical power of hypothesis testing for the proposed univariate models and four examples are introduced. In the examples one, two and three we apply the average bioequivalence decision and in the fourth example we consider for the implementation of population and individual bioequivalence. In the examples one, two and three were observed gains in the tting of the proposed new models for the data where some existing approaches were used in the selection criteria for the proposed models. Example four provides a standard analysis of population and individual bioequivalence with the computer code for obtaining the results available in the Appendix A, as well as other codes. Although the standardization of statistical analysis for bioequivalence studies is important, a standard model is not expected to be well tted to any data set originated by such studies. In this way, we present alternatives that can help researchers in making a decision in terms of average bioequivalence with more security.
|
256 |
Física estatística de compressed sensing online / Statistical Physics of Online Compressed SensingRossi, Paulo Victor Camargo 02 March 2018 (has links)
Neste trabalho, Compressed Sensing é introduzido do ponto de vista da Física Estatística. Após uma introdução sucinta onde os conceitos básicos da teoria são apresentados, incluindo condições necessárias para as medições e métodos básicos de reconstrução do sinal, a performance típica do esquema Bayesiano de reconstrução é analisada através de um cálculo de réplicas exposto em detalhe pedagógico. Em seguida, a principal contribuição original do trabalho é introduzida --- o algoritmo Bayesiano de Compressed Sensing Online faz uso de uma aproximação de campo médio para simplificar cálculos e reduzir os requisitos de memória e computação, enquanto mantém a acurácia de reconstrução do esquema offline na presença de ruído aditivo. A última parte deste trabalho contém duas extensões do algoritmo online que permitem reconstrução otimizada do sinal no cenário mais realista onde conhecimento perfeito da distribuição geradora não está disponível. / In this work, Compressed Sensing is introduced from a Statistical Physics point of view. Following a succinct introduction where the basic concepts of the framework are presented, including necessary measurement conditions and basic signal reconstruction methods, the typical performance of the Bayesian reconstruction scheme is analyzed through a replica calculation shown in pedagogical detail. Thereafter, the main original contribution of this work is introduced --- the Bayesian Online Compressed Sensing algorithm makes use of a mean-field approximation to simplify calculations and reduce memory and computation requirements, while maintaining the asymptotic reconstruction accuracy of the offline scheme in the presence of additive noise. The last part of this work are two extensions of the online algorithm that allow for optimized signal reconstruction in the more realistic scenarios where perfect knowledge of the generating distribution is unavailable.
|
257 |
Modelagem da volatilidade em séries temporais financeiras via modelos GARCH com abordagem Bayesiana / Modeling of volatility in financial time series using GARCH models with Bayesian approachGutierrez, Karen Fiorella Aquino 18 July 2017 (has links)
Nas últimas décadas a volatilidade transformou-se num conceito muito importante na área financeira, sendo utilizada para mensurar o risco de instrumentos financeiros. Neste trabalho, o foco de estudo é a modelagem da volatilidade, que faz referência à variabilidade dos retornos, sendo esta uma característica presente nas séries temporais financeiras. Como ferramenta fundamental da modelação usaremos o modelo GARCH (Generalized Autoregressive Conditional Heteroskedasticity), que usa a heterocedasticidade condicional como uma medida da volatilidade. Considerar-se-ão duas características principais a ser modeladas com o propósito de obter um melhor ajuste e previsão da volatilidade, estas são: a assimetria e as caudas pesadas presentes na distribuição incondicional da série dos retornos. A estimação dos parâmetros dos modelos propostos será feita utilizando a abordagem Bayesiana com a metodologia MCMC (Markov Chain Monte Carlo) especificamente o algoritmo de Metropolis-Hastings. / In the last decades volatility has become a very important concept in the financial area, being used to measure the risk of financial instruments. In this work, the focus of study is the modeling of volatility, that refers to the variability of returns, which is a characteristic present in the financial time series. As a fundamental modeling tool, we used the GARCH (Generalized Autoregressive Conditional Heteroskedasticity) model, which uses conditional heteroscedasticity as a measure of volatility. Two main characteristics will be considered to be modeled with the purpose of a better adjustment and prediction of the volatility, these are: heavy tails and an asymmetry present in the unconditional distribution of the return series. The estimation of the parameters of the proposed models is done by means of the Bayesian approach with an MCMC (Markov Chain Monte Carlo) methodology , specifically the Metropolis-Hastings algorithm.
|
258 |
Tópicos em mecânica estatística de sistemas complexos: uma abordagem mecânico-estatística de dois tópicos de interesse em finanças, economia e sociologia / Topics in statistical physics of complex systems: a statistical mechanical approach to two topics of interest in finance, economics and sociologyCalsaverini, Rafael Sola de Paula de Angelo 26 April 2013 (has links)
No presente trabalho, exploramos dois temas de interesse em finanças, economia e antropologia social, através da aplicação de técnicas da teoria da informação e da mecânica estatística. No primeiro tópico, estudamos a conexão entre teoria de dependência estatística, teoria de informação e teoria da cópulas. O conceito de distribuição cópula é revisto e aplicado em reformulação das definições de medida de dependência dadas por Rényi 1. Em seguida, mostramos que a informação mútua satisfaz todos os requisitos para ser uma boa medida de dependência. Obtemos uma identidade entre a informação mútua e a entropia da distribuição cópula e uma decomposição mais específica da informação mútua de uma distribuição elíptica nas suas partes linear e não-linear. Avaliamos o risco de usar quantidades ingênuas como medidas de dependência estatística, mostrando que a correlação linear pode subestimar grosseiramente a dependência. Esses resultados são utilizados para desenvolver um método de detectação de desvios de dependência gaussiana em pares de variáveis aleatórias e aplicá-lo a séries temporais financeiras. Finalmente, discutimos um método para ajustar t-cópulas a dados empíricos 2 através da medida da informação mútua e do tau de Kendall. No segundo tópico, desenvolvemos um modelo para o surgimento de autoridade em sociedades humanas pré-agrícolas. Discutimos motivações empíricas com raízes em neurociência, primatologia e antropologia para um modelo matemático capaz de explicar a ampla variabilidade de formas de organização social humana no eixo igualitário hierárquico. O modelo resulta da aplicação de teoria da informação a uma hipótese sobre os custos evolutivos envolvidos na vida social. O modelo gera um diagrama de fase rico, com diferentes regimes que podem ser interpretados como diferentes tipos de organização social. Os parâmetros de controler do modelo estão ligados à capacidade cognitiva da espécie em questão, ao tamanho do grupo e a pressões ecológicas e sociais. / In the present work we explore two topics of interest in finance, economics and social anthropology through the application of techniques from information theory and statistical mechanics. In the first topic we study the connexion between statistical dependency theory, information theory and copula theory. The concept of copula distribution is reviewed and applied to the reformulation of the definition of dependency measures given by Rényi 3. It is then shown that the mutual information satisfy all the requirements to be a good dependency measure. We derive an identity between mutual information and the entropy of the copula distribution and a more specific decomposition of the mutual information of an elliptical distribution into its linear and non-linear parts. We evaluate the risk of using naive measures as statistical dependency measures by showing that linear correlation can grossly underestimate dependency. Those results are used to develop a method to detect deviation from gaussian dependence in pairs of random variables and apply it to financial time series. Finally, we discuss a method to adjust t-copulas to empirical data4 through the determination of the mutual information and Kendalls tau. In the second topic we develop a model for the emergence of authority in pre-agricultural human societies. We discuss empirical motivations with roots in neuroscience, primatology and anthropology for a mathematical model able to explain the ample variability of forms of human social organization in the egalitarian-hierarchical axis. The model results from the application of information theory on a hypothesis about the evolutive costs involved in social life. It generates a rich phase diagram, with different regimes which can be interpreted as different types of societal organization, from egalitarian to hierarchical. The control parameters of the model are connected to the cognitive capacity of the species in question, the size of the group and ecological and social pressures.
|
259 |
Modelos para proporções com superdispersão e excesso de zeros - um procedimento Bayesiano. / Models for zero-inflated and overdispersed proportion data - a bayesian approach.Borgatto, Adriano Ferreti 24 June 2004 (has links)
Neste trabalho, tres modelos foram ajustados a um conjunto de dados obtido de um ensaio de controle biol´ogico para Diatraea saccharalis, uma praga comum em planta¸coes de cana-de-a¸c´ucar. Usando a distribui¸cao binomial como modelo de probabilidade, um ajuste adequado nao pode ser obtido, devido `a superdispersao gerada pela variabililidade dos dados e pelo excesso de zeros. Nesse caso, o modelo binomial inflacionado de zeros (ZIB) superdisperso ´e mais flex´ývel e eficiente para a modelagem desse tipo de dados. Entretanto, quando o interesse maior est´a sobre os valores positivos das propor¸coes, pode-se utilizar o modelo binomial truncado superdisperso. Uma abordagem alternativa eficiente que foi utilizada para a modelagem desse tipo de dados foi a Bayesiana, sendo o ajuste do modelo realizado usando as t´ecnicas de simula¸cao Monte Carlo em Cadeias de Markov, atrav´es do algoritmo Metropolis-Hastings e a sele¸cao dos modelos foi feita usando o DIC (Deviance Information Criterion) e o fator de Bayes. Os modelos foram implementados no procedimento IML (Iteractive Matrix Linear) do programa SAS (Statistical Analysis System) e no programa WinBUGS e a convergencia das estimativas foi verificada atrav´es da an´alise gr´afica dos valores gerados e usando os diagn´osticos de Raftery & Lewis e de Heidelberger & Welch, implementado no m´odulo CODA do programa R. / In general the standard binomial regression models do not fit well to proportion data from biological control assays, manly when there is excess of zeros and overdispersion. In this work a zero-inflated binomial model is applied to a data set obtained from a biological control assay for Diatraea saccharalis, a commom pest in sugar cane. A parasite (Trichogramma galloi) was put to parasitize 128 eggs of the Anagasta kuehniella, an economically suitable alternative host (Parra, 1997), with a variable number of female parasites (2, 4, 8,..., 128), each with 10 replicates in a completely randomized experiment. When interest is only in the positive proportion data, a model can be based on the truncated binomial distribution. A Bayesian procedure was formulated using a simulation technique (Metropolis Hastings) for estimation of the posterior parameters of interest. The convergence of the Markov Chain generated was monitored by visualization of the trace plot and using Raftery & Lewis and Heidelberg & Welch diagnostics presented in the module CODA of the software R.
|
260 |
Modelagem de dados de eventos recorrentes via processo de Poisson com termo de fragilidade. / Modelling Recurrent Event Data Via Poisson Process With a Frailty Term.Tomazella, Vera Lucia Damasceno 28 July 2003 (has links)
Nesta tese é analisado situações onde eventos de interesse podem ocorrer mais que uma vez para o mesmo indivíduo. Embora os estudos nessa área tenham recebido considerável atenção nos últimos anos, as técnicas que podem ser aplicadas a esses casos especiais ainda são pouco exploradas. Além disso, em problemas desse tipo, é razoável supor que existe dependência entre as observações. Uma das formas de incorporá-la é introduzir um efeito aleatório na modelagem da função de risco, dando origem aos modelos de fragilidade. Esses modelos, em análise de sobrevivência, visam descrever a heterogeneidade não observada entre as unidades em estudo. Os modelos estatísticos apresentados neste texto são fundamentalmente modelos de sobrevivência baseados em processos de contagem, onde é representado o problema como um processo de Poisson homogêneo e não-homogêneo com um termo de fragilidade, para o qual um indivíduo com um dado vetor de covariável x é acometido pela ocorrência de eventos repetidos. Esses modelos estão divididos em duas classes: modelos de fragilidade multiplicativos e aditivos; ambos visam responder às diferentes formas de avaliar a influência da heterogeneidade entre as unidades na função de intensidade dos processos de contagem. Até agora, a maioria dos estudos tem usado a distribuição gama para o termo de fragilidade, a qual é matematicamente conveniente. Este trabalho mostra que a distribuição gaussiana inversa tem propriedade igualmente simples à distribuição gama. Consequências das diferentes distribuições são examinadas, visando mostrar que a escolha da distribuição de fragilidade é importante. O objetivo deste trabalho é propor alguns métodos estatísticos para a análise de eventos recorrentes e verificar o efeito da introdução do termo aleatório no modelo por meio do estudo do custo, da estimação dos outros parâmetros de interesse. Também um estudo de simulação bootstrap é apresentado para fazer inferências dos parâmetros de interesse. Além disso, uma abordagem Bayesiana é proposta para os modelos de fragilidade multiplicativos e aditivos. Métodos de simulações são utilizados para avaliar as quantidades de interesse a posteriori. Por fim para ilustrar a metodologia, considera-se um conjunto de dados reais sobre um estudo dos resultados experimentais de animais cancerígenos. / In this thesis we analyse situations where events of interest may occur more than once for the same individual and it is reasonable to assume that there is dependency among the observations. A way of incorporating this dependency is to introduce a random effect in the modelling include a frailty term in the intensity function. The statistical methods presented here are intensity models based, where we represent the problem as a homogeneous and nonhomogeneous Poisson process with a frailty term for which an individual with given fixed covariate vector x has reccurent events occuring. These models are divided into two classes: multiplicative and additive models, aiming to answer the different ways of assessing the influence of heterogeneity among individuals in the intensity function of the couting processes. Until now most of the studies have used a frailty gamma distribution, due to mathematical convenience. In this work however we show that a frailty gaussian inverse distribution has equally simple proprieties when compared to a frailty gamma distribution. Methods for regression analysis are presented where we verify the effect of the frailty term in the model through of the study of the cost of estimating the other parameters of interest. We also use the simulation bootstrap method to make inference on the parameters of interest. Besides we develop a Bayesian approach for the homogeneous and nonhomogeneous Poisson process with multiplicative and additive frailty. Simulation methods are used to assess the posterior quantities of interest. In order to ilustrate our methodology we considere a real data set on results of an experimental animal carcinogenesis study.
|
Page generated in 0.0924 seconds