• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 209
  • 196
  • 31
  • 18
  • 12
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 558
  • 558
  • 214
  • 196
  • 107
  • 102
  • 73
  • 67
  • 67
  • 67
  • 66
  • 57
  • 54
  • 50
  • 49
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
251

Modelo bayesiano para dados de sobrevivência com riscos semicompetitivos baseado em cópulas / Bayesian model for survival data with semicompeting risks based on copulas

Patiño, Elizabeth González 23 March 2018 (has links)
Motivados por um conjunto de dados de pacientes com insuficiência renal crônica (IRC), propomos uma nova modelagem bayesiana que envolve cópulas da família Arquimediana e um modelo misto para dados de sobrevivência com riscos semicompetitivos. A estrutura de riscos semicompetitivos é bastante comum em estudos clínicos em que dois eventos são de interesse, um intermediário e outro terminal, de forma tal que a ocorrência do evento terminal impede a ocorrência do intermediário mas não vice-versa. Nesta modelagem provamos que a distribuição a posteriori sob a cópula de Clayton é própria. Implementamos os algoritmos de dados aumentados e amostrador de Gibbs para a inferência bayesiana, assim como os criterios de comparação de modelos: LPML, DIC e BIC. Realizamos um estudo de simulação para avaliar o desempenho da modelagem e finalmente aplicamos a metodologia proposta para analisar os dados dos pacientes com IRC, além de outros de pacientes que receberam transplante de medula óssea. / Motivated by a dataset of patients with chronic kidney disease (CKD), we propose a new bayesian model including the Arquimedean copula and a mixed model for survival data with semicompeting risks. The structure of semicompeting risks appears frequently in clinical studies where two-types of events are involved: a nonterminal and a terminal event such that the occurrence of terminal event precludes the occurrence of the non-terminal event but not viceversa. In this work we prove that the posterior distribution is proper when the Clayton copula is used. We implement the data augmentation algorithm and Gibbs sampling for the bayesian inference, as well as some bayesian model selection criteria: LPML, BIC and DIC. We carry out a simulation study for assess the model performance and finally, our methodology is illustrated with the chronic kidney disease study.
252

Estratégias de imputação de genótipos de marcadores SNP para estudos de associação genômica em animais da raça Nelore / Strategies of genotypes imputation for genome-wide association studies in Nellore cattle

Silva, Fabiane de Lima 07 November 2013 (has links)
Temperamento em bovinos é definido como a reação dos animais em resposta ao contato com o ser humano, geralmente atribuído ao medo ocasionado no manejo. Animais agitados são mais difíceis de manejar nas fazendas. Estudos na literatura mostram que características de temperamento influenciam o desempenho produtivo dos rebanhos, devido à sua correlação com outras características dentre elas, ganho de peso diário, taxa de prenhez, qualidade e rendimento de carcaça. Todavia, estudos visando o melhor entendimento dos mecanismos biológicos, e da arquitetura genética destas características são escassos. Com a evolução das tecnologias de genotipagem em alta densidade com marcadores de polimorfismo único (SNP), observou-se um aumento de pesquisas nas áreas de seleção genômica (GS) e associação genômica (GWAS). Entretanto, devido ao alto custo que a genotipagem em larga escala apresenta, torna-se inviável a genotipagem para todos os animais candidatos à seleção. Porém, existe a possibilidade de utilizar painéis de baixa densidade de SNP e inferir estes genótipos desconhecidos para painéis de alta densidade. Neste contexto foram desenvolvidos dois estudos. No primeiro, o objetivo foi identificar regiões cromossômicas associadas com características de temperamento em animais da raça Nelore. As características avaliadas foram: velocidade de saída (VS) e mediana do escore composto (EC_mediana), em que 599 e 575 animais foram utilizados, respectivamente. Todos os animais foram genotipados com Illumina BovineHD BeadChip (800K), e para o GWAS dois modelos estatísticos foram aplicados. O primeiro modelo utilizado foi genômico de única etapa (ssGBLUP), em que os efeitos dos SNP são derivados da predição dos valores genéticos genômicos dos animais. O segundo modelo foi linear misto, similar ao modelo anterior, porém várias análises, SNP por SNP (regressão simples) foram realizadas. Nos dois modelos foram incluídos os efeitos de grupo de contemporâneo como fixo, idade do animal como covariável e efeito poligênico do animal e ambiente permanente como aleatórios. Os componentes de variância foram estimados pelo método de máxima verossimilhança restrita. Os coeficientes de herdabilidade apresentaram baixa magnitude com estimativas de 0,02 e 0,05 para VS e EC_mediana, respectivamente. Diferentes regiões cromossômicas foram associados com as características estudadas nesta população, de acordo com os modelos utilizados, contribuindo para o entendimento da arquitetura genética dessas características. No segundo, o objetivo foi avaliar a acurácia de imputação também nesta população, usando dois painéis de baixa densidade (3K e 6K) e um de média densidade (50K) imputados para o painel de alta densidade (800K). Os animais genotipados com 800K foram divididos em população de validação e população de referência. Na população de validação, os animais tiveram seus genótipos mascarados para os chips Illumina 3K, 6K e 50K. A imputação de 3K, 6K e 50K para 800K foi realizada utilizando os softwares de imputação fastPHASE e Beagle. O software fastPHASE apresentou maiores valores de acurácia de imputação em comparação ao Beagle. O painéis 6K e 50K apresentaram maiores valores de acurácia. / Temperament in cattle is generally defined as the reaction of an animal in response to contact with human, usually attributed to the fear. Animals agitated are harder to manage in farms. Studies in the literature reported that temperamental traits have been found to influence the productive performance of herds, due to its correlation with other traits such as carcass quality, daily gains, pregnancy rate and feed efficiency. However, almost nothing is known regarding the genetic landscape controlling temperamental animal variation in cattle. With the advances in genotyping technologies for high density genotyping platforms to markers of single nucleotide polymorphisms (SNP), there was an increase in research in the areas of genomic selection (GS) and genome-wide association studies (GWAS). However, genotyping many animals with a high-density marker panel can be expensive and economically unfeasible. An alternative in this context is to use a lower density marker panel on a larger number of animals, and impute the missing genotypes. In this context two studies were developed. In the first study, the objective was to identify chromosomal regions associated with temperament traits in Nellore cattle. The temperamental traits evaluated in this study were: exit velocity (VS) and the median score temperament (EC_mediana) assessed in 599 and 575 animals, respectively. All animals were genotyped with Illumina BeadChip BovineHD (800K), and two GWAS statistical models were applied. The first model used was genomic single step (ssGBLUP) in which the effects of SNP are derived from the genomic prediction values of the animals. The second was linear mixed model, similar to the previous model, but a series of models, one for each SNP (single regression), were performed. In both models were included the effects of contemporary group as fixed, the animal\'s age as a covariate effect and polygenic animal and permanent environment as random effect. Variance components were estimated by restricted maximum likelihood. The heritability coefficients showed low magnitude estimative of 0.02 and 0.05 for VS and EC_mediana, respectively. Different chromosomal regions were associated with the traits studied in this population, according with the models used, and moreover to contribute in the understanding of the genetic architecture of these traits. In the second study, the objective was to evaluate the accuracy of imputation in a same population, using two panels of low-density (3K and 6K) and one medium-density (50K) panel markers imputed up to higher density of 800K. The animals genotyped with 800K markers panel were split into a reference population and validation population. The validation population the animals had markers masked to Illumina chip 3K, 6K e 50K. Imputation from 3K, 6K and 50K up to 770K markers was performed using fastPHASE and Beagle. The software fastPHASE had higher imputation accuracy compared to Beagle. The 6K and 50K panels showed higher accuracy.
253

Caracterização e extensões da distribuição Burr XII: propriedades e aplicações / Characterization and extensions of the Burr XII distribution: Properties and Applications

Paranaíba, Patrícia Ferreira 21 September 2012 (has links)
A distribuição Burr XII (BXII) possui, como casos particulares, as distribuições normal, log-normal, gama, logística, valor extremo tipo I, entre outras. Por essa razão, ela é considerada uma distribuição flexível no ajuste dos dados. As ideias de Eugene; Lee e Famoye (2002) e Cordeiro e Castro (2011) foram utilizadas para o desenvolvimento de duas novas distribuições de probabilidade a partir da distribuição BXII. Uma delas é denominada beta Burr XII (BBXII) e possui cinco parâmetros. Desenvolveu-se o modelo de regressão log-beta Burr XII (LBBXII). A outra distribuição é denominada de Kumaraswamy Burr XII (KwBXII) e possui cinco parâmetros. A vantagem desses novos modelos reside na capacidade de acomodar várias formas da função risco, além disso, eles também se mostraram úteis na discriminação de modelos. Para cada um dos modelos foram calculados os momentos, função geradora de momentos, os desvios médios, a confiabilidade e a função densidade de probabilidade da estatística de ordem. Foi realizado um estudo de simulação para avaliar o desempenho desses modelos. Para a estimação dos parâmetros, foram utilizados os métodos de máxima verossimilhança e bayesiano e, finalmente, para ilustrar a aplicação das novas distribuições foram analisados alguns conjuntos de dados reais. / The Burr XII (BXII) distribution has as particular cases the normal, lognormal, gamma, logistic and extreme-value type I distributions, among others. For this reason, it is considered a flexible distribution for fitting data. In this paper, the ideas of Eugene; Lee e Famoye (2002) and Cordeiro and Castro (2011) is used to develop two new probability distributions based on the BBXII distribution. The first is called beta Burr XII (BBXII) and has five parameters. Based in these, we develop the extended generalized log-beta Burr XII regression model. The other distribution is called Kumaraswamy Burr XII (KwBXII) and has five parameters. The advantage of these new models rests in their capacity to accommodate various risk function forms. They are also useful in model discrimination. We calculate the moments, moments generating function, mean deviations, reliability and probability density function of the order statistics. A simulation study was conducted to evaluate the performance of these models. To estimate the parameters we use the maximum likelihood and Bayesian methods. Finally, to illustrate the application of the new distributions, we analyze some real data sets.
254

Modelagem estatística em estudos de bioequivalência sob o enfoque Bayesiano / Statistical modeling in bioequivalence studies under Bayesian approach.

Souza, Roberto Molina de 15 April 2015 (has links)
O interesse pelos estudos de bioequivalência iniciou-se na década de 60, sendo o FDA (EUA) a primeira agência reguladora a se interessar por esta questão. No Brasil, uma lei de 1999 regulamentou o medicamento genérico no país, sendo este um importante meio de acesso aos medicamentos pela população e fazendo parte da política de medicamentos do SUS. No Brasil, a ANVISA e responsável por inspecionar os centros de bioequivalência bem como dar as diretrizes para estes. Um modelo paramétrico padrão para a etapa estatística e disponibilizado para a decisão de bioequivalência media e espera-se que este ajuste-se aos dados obtidos nos estudos de bioequivalência, o que nem sempre acontece. Neste sentido, e proposto nesta tese o uso de modelos paramétricos mais abrangentes baseados em outras distribuições de probabilidade para a decisão de bioequivalência media e que possam modelar a assimetria dos dados, dispensando o uso da transformação logarítmica para os parâmetros farmacocinéticos o que afeta a amplitude dos limites de bioequivalência. Propõe-se também o uso de modelos bivariados para a tomada conjunta da decisão de bioequivalência media, quando são analisados simultaneamente dois parâmetros farmacocinéticos. Foram utilizados métodos Bayesianos para a estimação dos parâmetros dado a exibilidade deste enfoque quando combinado ao uso dos métodos MCMC facilitados a partir do uso de softwares livres. Nesta tese e apresentado um estudo do poder empírico dos testes de hipóteses para os modelos univariados propostos bem como são introduzidos quatro exemplos, sendo os três primeiros voltados a aplicação da decisão de bioequivalência media e o quarto para a aplicação da bioequivalência populacional e individual. Nos três primeiros exemplos foram observados ganhos em termos de ajuste dos novos modelos propostos aos dados com relação ao modelo padrão segundo os critérios de seleção de modelos utilizados. O exemplo quatro apresenta uma analise padrão de bioequivalência populacional e individual com o código computacional para a obtenção dos resultados disponível no apêndice A bem como outros códigos para os demais exemplos. Embora a padroniza- ção das análises estatísticas para os estudos de bioequivalência seja importante, não deve-se esperar que um modelo padrão ajuste-se a qualquer conjunto de dados originados destes tipo de estudos. Neste sentido, são apresentados alternativas que podem auxiliar o pesquisador na tomada de uma decisão em termos de bioequivalência media mais segura. / The interest in bioequivalence studies began in the early 1960s especially in the United States of America where the FDA was the rst regulatory agency to show interest upon this issue. In Brazil, this interest started in 1999 the year when a law regulated the generic drugs in the country. The ANVISA is the Brazilian regulatory agency responsible for inspecting the bioequivalence centers and giving guidelines for this issue. In general, a standard parametric model for the statistical step is indicated for the average bioequivalence decision and this model is expected to be tted by the data obtained in the bioequivalence studies. In some cases, this model would not be appropriate. In this way, this thesis proposes the use of more comprehensive parametric models based on other probability distributions for the average bioequivalence decision and that can model asymmetrical data, a common situation in bioequivalence studies. In addition, there is no need of a logarithmic transformation for the pharmacokinetic parameters which could aect the range of the bioequivalence limits. We also propose the use of parametrical bivariate models for the joint decision of the average bioequivalence decision, since these measures are usually analyzed simultaneously with two pharmacokinetic parameters. We use Bayesian methods to estimate the parameters, given the great exibility of this approach when combined with the use of MCMC methods using free available softwares. This thesis also presents a study of the empirical power of hypothesis testing for the proposed univariate models and four examples are introduced. In the examples one, two and three we apply the average bioequivalence decision and in the fourth example we consider for the implementation of population and individual bioequivalence. In the examples one, two and three were observed gains in the tting of the proposed new models for the data where some existing approaches were used in the selection criteria for the proposed models. Example four provides a standard analysis of population and individual bioequivalence with the computer code for obtaining the results available in the Appendix A, as well as other codes. Although the standardization of statistical analysis for bioequivalence studies is important, a standard model is not expected to be well tted to any data set originated by such studies. In this way, we present alternatives that can help researchers in making a decision in terms of average bioequivalence with more security.
255

Evaluation of Cross-Survey Research Methods for the Estimation of Low-Incidence Populations

Magidin de Kramer, Raquel January 2016 (has links)
Thesis advisor: Henry Braun / This study evaluates the accuracy, precision, and stability of three different methods of cross-survey analysis in order to determine their suitability for estimating the proportions of low-incidence populations. Population parameters of size and demographic distribution are necessary for planning and policy development. The estimation of these parameters for low-incidence populations poses a number of methodological challenges. Cross-survey analysis methodologies offer an alternative to generate useful, low-incidence population estimates not readily available in today's census without conducting targeted, costly surveys to estimate group size directly. The cross-survey methods evaluated in the study are meta-analysis of complex surveys (MACS), pooled design-based cross-survey (PDCS), and Bayesian multilevel regression with post-stratification (BMRP). The accuracy and precision of these methods were assessed by comparing the estimates of the proportion of the adult Jewish population in Canada generated by each method with benchmark estimates. The stability of the estimates, in turn, was determined by cross-validating estimates obtained with data from two random stratified subsamples drawn from a large pool of US surveys. The findings of the study indicate that, under the right conditions, cross-survey methods have the potential to produce very accurate and precise estimates of low-incidence populations. The study did find that the level of accuracy and precision of these estimates varied depending on the cross-survey method used and on the conditions under which the estimates were produced. The estimates obtained with PDCS and BMRP methodologies were more accurate than the ones generated by the MACS approach. The BMRP approach generated the most accurate estimates. The pooled design-based cross-survey method generated relatively accurate estimates across all the scenarios included in the study. The precision of the estimates was found to be related to the number of surveys considered in the analyses. Overall, the findings clearly show that cross-survey analysis methods provide a useful alternative for estimation of low-incidence populations. More research is needed to fully understand the factors that affect the accuracy and precision of estimates generated by these cross-survey methods. / Thesis (PhD) — Boston College, 2016. / Submitted to: Boston College. Lynch School of Education. / Discipline: Educational Research, Measurement and Evaluation.
256

Física estatística de compressed sensing online / Statistical Physics of Online Compressed Sensing

Rossi, Paulo Victor Camargo 02 March 2018 (has links)
Neste trabalho, Compressed Sensing é introduzido do ponto de vista da Física Estatística. Após uma introdução sucinta onde os conceitos básicos da teoria são apresentados, incluindo condições necessárias para as medições e métodos básicos de reconstrução do sinal, a performance típica do esquema Bayesiano de reconstrução é analisada através de um cálculo de réplicas exposto em detalhe pedagógico. Em seguida, a principal contribuição original do trabalho é introduzida --- o algoritmo Bayesiano de Compressed Sensing Online faz uso de uma aproximação de campo médio para simplificar cálculos e reduzir os requisitos de memória e computação, enquanto mantém a acurácia de reconstrução do esquema offline na presença de ruído aditivo. A última parte deste trabalho contém duas extensões do algoritmo online que permitem reconstrução otimizada do sinal no cenário mais realista onde conhecimento perfeito da distribuição geradora não está disponível. / In this work, Compressed Sensing is introduced from a Statistical Physics point of view. Following a succinct introduction where the basic concepts of the framework are presented, including necessary measurement conditions and basic signal reconstruction methods, the typical performance of the Bayesian reconstruction scheme is analyzed through a replica calculation shown in pedagogical detail. Thereafter, the main original contribution of this work is introduced --- the Bayesian Online Compressed Sensing algorithm makes use of a mean-field approximation to simplify calculations and reduce memory and computation requirements, while maintaining the asymptotic reconstruction accuracy of the offline scheme in the presence of additive noise. The last part of this work are two extensions of the online algorithm that allow for optimized signal reconstruction in the more realistic scenarios where perfect knowledge of the generating distribution is unavailable.
257

Modelagem da volatilidade em séries temporais financeiras via modelos GARCH com abordagem Bayesiana / Modeling of volatility in financial time series using GARCH models with Bayesian approach

Gutierrez, Karen Fiorella Aquino 18 July 2017 (has links)
Nas últimas décadas a volatilidade transformou-se num conceito muito importante na área financeira, sendo utilizada para mensurar o risco de instrumentos financeiros. Neste trabalho, o foco de estudo é a modelagem da volatilidade, que faz referência à variabilidade dos retornos, sendo esta uma característica presente nas séries temporais financeiras. Como ferramenta fundamental da modelação usaremos o modelo GARCH (Generalized Autoregressive Conditional Heteroskedasticity), que usa a heterocedasticidade condicional como uma medida da volatilidade. Considerar-se-ão duas características principais a ser modeladas com o propósito de obter um melhor ajuste e previsão da volatilidade, estas são: a assimetria e as caudas pesadas presentes na distribuição incondicional da série dos retornos. A estimação dos parâmetros dos modelos propostos será feita utilizando a abordagem Bayesiana com a metodologia MCMC (Markov Chain Monte Carlo) especificamente o algoritmo de Metropolis-Hastings. / In the last decades volatility has become a very important concept in the financial area, being used to measure the risk of financial instruments. In this work, the focus of study is the modeling of volatility, that refers to the variability of returns, which is a characteristic present in the financial time series. As a fundamental modeling tool, we used the GARCH (Generalized Autoregressive Conditional Heteroskedasticity) model, which uses conditional heteroscedasticity as a measure of volatility. Two main characteristics will be considered to be modeled with the purpose of a better adjustment and prediction of the volatility, these are: heavy tails and an asymmetry present in the unconditional distribution of the return series. The estimation of the parameters of the proposed models is done by means of the Bayesian approach with an MCMC (Markov Chain Monte Carlo) methodology , specifically the Metropolis-Hastings algorithm.
258

Tópicos em mecânica estatística de sistemas complexos: uma abordagem mecânico-estatística de dois tópicos de interesse em finanças, economia e sociologia / Topics in statistical physics of complex systems: a statistical mechanical approach to two topics of interest in finance, economics and sociology

Calsaverini, Rafael Sola de Paula de Angelo 26 April 2013 (has links)
No presente trabalho, exploramos dois temas de interesse em finanças, economia e antropologia social, através da aplicação de técnicas da teoria da informação e da mecânica estatística. No primeiro tópico, estudamos a conexão entre teoria de dependência estatística, teoria de informação e teoria da cópulas. O conceito de distribuição cópula é revisto e aplicado em reformulação das definições de medida de dependência dadas por Rényi 1. Em seguida, mostramos que a informação mútua satisfaz todos os requisitos para ser uma boa medida de dependência. Obtemos uma identidade entre a informação mútua e a entropia da distribuição cópula e uma decomposição mais específica da informação mútua de uma distribuição elíptica nas suas partes linear e não-linear. Avaliamos o risco de usar quantidades ingênuas como medidas de dependência estatística, mostrando que a correlação linear pode subestimar grosseiramente a dependência. Esses resultados são utilizados para desenvolver um método de detectação de desvios de dependência gaussiana em pares de variáveis aleatórias e aplicá-lo a séries temporais financeiras. Finalmente, discutimos um método para ajustar t-cópulas a dados empíricos 2 através da medida da informação mútua e do tau de Kendall. No segundo tópico, desenvolvemos um modelo para o surgimento de autoridade em sociedades humanas pré-agrícolas. Discutimos motivações empíricas com raízes em neurociência, primatologia e antropologia para um modelo matemático capaz de explicar a ampla variabilidade de formas de organização social humana no eixo igualitário hierárquico. O modelo resulta da aplicação de teoria da informação a uma hipótese sobre os custos evolutivos envolvidos na vida social. O modelo gera um diagrama de fase rico, com diferentes regimes que podem ser interpretados como diferentes tipos de organização social. Os parâmetros de controler do modelo estão ligados à capacidade cognitiva da espécie em questão, ao tamanho do grupo e a pressões ecológicas e sociais. / In the present work we explore two topics of interest in finance, economics and social anthropology through the application of techniques from information theory and statistical mechanics. In the first topic we study the connexion between statistical dependency theory, information theory and copula theory. The concept of copula distribution is reviewed and applied to the reformulation of the definition of dependency measures given by Rényi 3. It is then shown that the mutual information satisfy all the requirements to be a good dependency measure. We derive an identity between mutual information and the entropy of the copula distribution and a more specific decomposition of the mutual information of an elliptical distribution into its linear and non-linear parts. We evaluate the risk of using naive measures as statistical dependency measures by showing that linear correlation can grossly underestimate dependency. Those results are used to develop a method to detect deviation from gaussian dependence in pairs of random variables and apply it to financial time series. Finally, we discuss a method to adjust t-copulas to empirical data4 through the determination of the mutual information and Kendalls tau. In the second topic we develop a model for the emergence of authority in pre-agricultural human societies. We discuss empirical motivations with roots in neuroscience, primatology and anthropology for a mathematical model able to explain the ample variability of forms of human social organization in the egalitarian-hierarchical axis. The model results from the application of information theory on a hypothesis about the evolutive costs involved in social life. It generates a rich phase diagram, with different regimes which can be interpreted as different types of societal organization, from egalitarian to hierarchical. The control parameters of the model are connected to the cognitive capacity of the species in question, the size of the group and ecological and social pressures.
259

Modelos para proporções com superdispersão e excesso de zeros - um procedimento Bayesiano. / Models for zero-inflated and overdispersed proportion data - a bayesian approach.

Borgatto, Adriano Ferreti 24 June 2004 (has links)
Neste trabalho, trˆes modelos foram ajustados a um conjunto de dados obtido de um ensaio de controle biol´ogico para Diatraea saccharalis, uma praga comum em planta¸c˜oes de cana-de-a¸c´ucar. Usando a distribui¸c˜ao binomial como modelo de probabilidade, um ajuste adequado n˜ao pode ser obtido, devido `a superdispers˜ao gerada pela variabililidade dos dados e pelo excesso de zeros. Nesse caso, o modelo binomial inflacionado de zeros (ZIB) superdisperso ´e mais flex´ývel e eficiente para a modelagem desse tipo de dados. Entretanto, quando o interesse maior est´a sobre os valores positivos das propor¸c˜oes, pode-se utilizar o modelo binomial truncado superdisperso. Uma abordagem alternativa eficiente que foi utilizada para a modelagem desse tipo de dados foi a Bayesiana, sendo o ajuste do modelo realizado usando as t´ecnicas de simula¸c˜ao Monte Carlo em Cadeias de Markov, atrav´es do algoritmo Metropolis-Hastings e a sele¸c˜ao dos modelos foi feita usando o DIC (Deviance Information Criterion) e o fator de Bayes. Os modelos foram implementados no procedimento IML (Iteractive Matrix Linear) do programa SAS (Statistical Analysis System) e no programa WinBUGS e a convergˆencia das estimativas foi verificada atrav´es da an´alise gr´afica dos valores gerados e usando os diagn´osticos de Raftery & Lewis e de Heidelberger & Welch, implementado no m´odulo CODA do programa R. / In general the standard binomial regression models do not fit well to proportion data from biological control assays, manly when there is excess of zeros and overdispersion. In this work a zero-inflated binomial model is applied to a data set obtained from a biological control assay for Diatraea saccharalis, a commom pest in sugar cane. A parasite (Trichogramma galloi) was put to parasitize 128 eggs of the Anagasta kuehniella, an economically suitable alternative host (Parra, 1997), with a variable number of female parasites (2, 4, 8,..., 128), each with 10 replicates in a completely randomized experiment. When interest is only in the positive proportion data, a model can be based on the truncated binomial distribution. A Bayesian procedure was formulated using a simulation technique (Metropolis Hastings) for estimation of the posterior parameters of interest. The convergence of the Markov Chain generated was monitored by visualization of the trace plot and using Raftery & Lewis and Heidelberg & Welch diagnostics presented in the module CODA of the software R.
260

Modelagem de dados de eventos recorrentes via processo de Poisson com termo de fragilidade. / Modelling Recurrent Event Data Via Poisson Process With a Frailty Term.

Tomazella, Vera Lucia Damasceno 28 July 2003 (has links)
Nesta tese é analisado situações onde eventos de interesse podem ocorrer mais que uma vez para o mesmo indivíduo. Embora os estudos nessa área tenham recebido considerável atenção nos últimos anos, as técnicas que podem ser aplicadas a esses casos especiais ainda são pouco exploradas. Além disso, em problemas desse tipo, é razoável supor que existe dependência entre as observações. Uma das formas de incorporá-la é introduzir um efeito aleatório na modelagem da função de risco, dando origem aos modelos de fragilidade. Esses modelos, em análise de sobrevivência, visam descrever a heterogeneidade não observada entre as unidades em estudo. Os modelos estatísticos apresentados neste texto são fundamentalmente modelos de sobrevivência baseados em processos de contagem, onde é representado o problema como um processo de Poisson homogêneo e não-homogêneo com um termo de fragilidade, para o qual um indivíduo com um dado vetor de covariável x é acometido pela ocorrência de eventos repetidos. Esses modelos estão divididos em duas classes: modelos de fragilidade multiplicativos e aditivos; ambos visam responder às diferentes formas de avaliar a influência da heterogeneidade entre as unidades na função de intensidade dos processos de contagem. Até agora, a maioria dos estudos tem usado a distribuição gama para o termo de fragilidade, a qual é matematicamente conveniente. Este trabalho mostra que a distribuição gaussiana inversa tem propriedade igualmente simples à distribuição gama. Consequências das diferentes distribuições são examinadas, visando mostrar que a escolha da distribuição de fragilidade é importante. O objetivo deste trabalho é propor alguns métodos estatísticos para a análise de eventos recorrentes e verificar o efeito da introdução do termo aleatório no modelo por meio do estudo do custo, da estimação dos outros parâmetros de interesse. Também um estudo de simulação bootstrap é apresentado para fazer inferências dos parâmetros de interesse. Além disso, uma abordagem Bayesiana é proposta para os modelos de fragilidade multiplicativos e aditivos. Métodos de simulações são utilizados para avaliar as quantidades de interesse a posteriori. Por fim para ilustrar a metodologia, considera-se um conjunto de dados reais sobre um estudo dos resultados experimentais de animais cancerígenos. / In this thesis we analyse situations where events of interest may occur more than once for the same individual and it is reasonable to assume that there is dependency among the observations. A way of incorporating this dependency is to introduce a random effect in the modelling include a frailty term in the intensity function. The statistical methods presented here are intensity models based, where we represent the problem as a homogeneous and nonhomogeneous Poisson process with a frailty term for which an individual with given fixed covariate vector x has reccurent events occuring. These models are divided into two classes: multiplicative and additive models, aiming to answer the different ways of assessing the influence of heterogeneity among individuals in the intensity function of the couting processes. Until now most of the studies have used a frailty gamma distribution, due to mathematical convenience. In this work however we show that a frailty gaussian inverse distribution has equally simple proprieties when compared to a frailty gamma distribution. Methods for regression analysis are presented where we verify the effect of the frailty term in the model through of the study of the cost of estimating the other parameters of interest. We also use the simulation bootstrap method to make inference on the parameters of interest. Besides we develop a Bayesian approach for the homogeneous and nonhomogeneous Poisson process with multiplicative and additive frailty. Simulation methods are used to assess the posterior quantities of interest. In order to ilustrate our methodology we considere a real data set on results of an experimental animal carcinogenesis study.

Page generated in 0.0657 seconds