• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 242
  • 12
  • 1
  • 1
  • Tagged with
  • 262
  • 262
  • 208
  • 192
  • 67
  • 60
  • 52
  • 51
  • 51
  • 50
  • 45
  • 44
  • 44
  • 42
  • 41
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Métodos alternativos de previsão de safras agrícolas / Alternative Crop Prediction Methods

Miquelluti, Daniel Lima 23 January 2015 (has links)
O setor agrícola é, historicamente, um dos pilares da economia brasileira, e apesar de ter sua importância diminuída com o desenvolvimento do setor industrial e de serviços ainda é responsável por dar dinamismo econômico ao país, bem como garantir a segurança alimentar, auxiliar no controle da inflação e na formação de reservas monetárias. Neste contexto as safras agrícolas exercem grande influência no comportamento do setor e equilíbrio no mercado agrícola. Foram desenvolvidas diversas metodologias de previsão de safra, sendo em sua maioria modelos de simulação de crescimento. Entretanto, recentemente os modelos estatísticos vem sendo utilizados mais comumente devido às suas predições mais rápidas em períodos anteriores à colheita. No presente trabalho foram avaliadas duas destas metodologias, os modelos ARIMA e os Modelos Lineares Dinâmicos (MLD), sendo utilizada tanto a inferência clássica quanto a bayesiana. A avaliação das metodologias deu-se por meio da análise das previsões dos modelos, bem como da facilidade de implementação e poder computacional necessário. As metodologias foram aplicadas a dados de produção de soja para o município de Mamborê-PR, no período de 1980 a 2013, sendo área plantada (ha) e precipitação acumulada (mm) variáveis auxiliares nos modelos de regressão dinâmica. Observou-se que o modelo ARIMA (2,1,0) reparametrizado na forma de um MLD e estimado por meio de máxima verossimilhança, gerou melhores previsões do que aquelas obtidas com o modelo ARIMA(2,1,0) não reparametrizado. / The agriculture is, historically, one of Brazil\'s economic pillars, and despite having it\'s importance diminished with the development of the industry and services it still is responsible for giving dynamism to the country inland\'s economy, ensuring food security, controlling inflation and assisting in the formation of monetary reserves. In this context the agricultural crops exercise great influence in the behaviour of the sector and agricultural market balance. Diverse crop forecast methods were developed, most of them being growth simulation models, however, recently the statistical models are being used due to its capability of forecasting early when compared to the other models. In the present thesis two of these methologies were evaluated, ARIMA and Dynamic Linear Models, utilizing both classical and bayesian inference. The forecast accuracy, difficulties in the implementation and computational power were some of the caracteristics utilized to assess model efficiency. The methodologies were applied to Soy production data of Mamborê-PR, in the 1980-2013 period, also noting that planted area (ha) and cumulative precipitation (mm) were auxiliary variables in the dynamic regression. The ARIMA(2,1,0) reparametrized in the DLM form and adjusted through maximum likelihood generated the best forecasts, folowed by the ARIMA(2,1,0) without reparametrization.
112

Regressão binária nas abordagens clássica e Bayesiana / Binary regression in the classical and Bayesian approaches

Fernandes, Amélia Milene Correia 16 December 2016 (has links)
Este trabalho tem como objetivo estudar o modelo de regressão binária nas abordagens clássica e bayesiana utilizando as funções de ligações probito, logito, complemento log-log, transformação box-cox e probito-assimétrico. Na abordagem clássica apresentamos as suposições e o procedimento para ajustar o modelo de regressão e verificamos a precisão dos parâmetros estimados, construindo intervalos de confiança e testes de hipóteses. Enquanto que, na inferência bayesiana fizemos um estudo comparativo utilizando duas metodologias. Na primeira metodologia consideramos densidades a priori não informativas e utilizamos o algoritmo Metropolis-Hastings para ajustar o modelo. Na segunda metodologia utilizamos variáveis auxiliares para obter a distribuição a posteriori conhecida, facilitando a implementação do algoritmo do Amostrador de Gibbs. No entanto, a introdução destas variáveis auxiliares podem gerar valores correlacionados, o que leva à necessidade de se utilizar o agrupamento das quantidades desconhecidas em blocos para reduzir a autocorrelação. Através do estudo de simulação mostramos que na inferência clássica podemos usar os critérios AIC e BIC para escolher o melhor modelo e avaliamos se o percentual de cobertura do intervalo de confiança assintótica está de acordo com o esperado na teoria assintótica. Na inferência bayesiana constatamos que o uso de variáveis auxiliares resulta em um algoritmo mais eficiente segundo os critérios: erro quadrático médio (EQM), erro percentual absoluto médio (MAPE) e erro percentual absoluto médio simétrico (SMAPE). Como ilustração apresentamos duas aplicações com dados reais. Na primeira, consideramos um conjunto de dados da variação do Ibovespa e a variação do valor diário do fechamento da cotação do dólar no período de 2013 a 2016. Na segunda aplicação, trabalhamos com um conjunto de dados educacionais (INEP-2013), focando nos estudos das variáveis que influenciam a aprovação do aluno. / The objective of this work is to study the binary regression model under the frequentist and Bayesian approaches using the probit, logit, log-log complement, Box-Cox transformation and skewprobit as link functions. In the classical approach we presented assumpti- ons and procedures used in the regression modeling. We verified the accuracy of the estimated parameters by building confidence intervals and conducting hypothesis tests. In the Bayesian approach we made a comparative study using two methodologies. For the first methodology, we considered non-informative prior distributions and the Metropolis-Hastings algorithm to estimate the model. In the second methodology we used auxiliary variables to obtain the known a posteriori distribution, allowing the use of the Gibbs Sampler algorithm. However, the introduction of these auxiliary variables can generate correlated values and needs the use of clustering of unknown quantities in blocks to reduce the autocorrelation. In the simulation study we used the AIC and BIC information criteria to select the most appropriate model and we evaluated whether the coverage probabilities of the confidence interval is in agre- ement with that expected by the asymptotic theory. In Bayesian approach we found that the inclusion of auxiliary variables in the model results in a more efficient algoritm according to the MSE, MAPE and SMAPE criteria. In this work we also present applications to two real datasets. The first dataset used is the variation of the Ibovespa and variation of the daily value of the American dollar at the time of closing the 2013 to 2016. The second dataset, used is an educational data set (INEP-2013), where we are interested in studying the factors that influence the approval of the student.
113

Análise Bayesiana de modelos de mistura finita com dados censurados / Bayesian analysis of finite mixture models with censored data

Melo, Brian Alvarez Ribeiro de 21 February 2017 (has links)
Misturas finitas são modelos paramétricos altamente flexíveis, capazes de descrever diferentes características dos dados em vários contextos, especialmente na análise de dados heterogêneos (Marin, 2005). Geralmente, nos modelos de mistura finita, todas as componentes pertencem à mesma família paramétrica e são diferenciadas apenas pelo vetor de parâmetros associado a essas componentes. Neste trabalho, propomos um novo modelo de mistura finita, capaz de acomodar observações censuradas, no qual as componentes são as densidades das distribuições Gama, Lognormal e Weibull (mistura GLW). Essas densidades são reparametrizadas, sendo reescritas em função da média e da variância, uma vez que estas quantidades são mais difundidas em diversas áreas de estudo. Assim, construímos o modelo GLW e desenvolvemos a análise de tal modelo sob a perspectiva bayesiana de inferência. Essa análise inclui a estimação, através de métodos de simulação, dos parâmetros de interesse em cenários com censura e com fração de cura, a construção de testes de hipóteses para avaliar efeitos de covariáveis e pesos da mistura, o cálculo de medidas para comparação de diferentes modelos e estimação da distribuição preditiva de novas observações. Através de um estudo de simulação, avaliamos a capacidade da mistura GLW em recuperar a distribuição original dos tempos de falha utilizando testes de hipóteses e estimativas do modelo. Os modelos desenvolvidos também foram aplicados no estudo do tempo de seguimento de pacientes com insuficiência cardíaca do Instituto do Coração da Faculdade de Medicina da Universidade de São Paulo. Nesta aplicação, os resultados mostram uma melhor adequação dos modelos de mistura em relação à utilização de apenas uma distribuição na modelagem dos tempos de seguimentos. Por fim, desenvolvemos um pacote para o ajuste dos modelos apresentados no software R. / Finite mixtures are highly flexible parametric models capable of describing different data features and are widely considered in many contexts, especially in the analysis of heterogeneous data (Marin, 2005). Generally, in finite mixture models, all the components belong to the same parametric family and are only distinguished by the associated parameter vector. In this thesis, we propose a new finite mixture model, capable of handling censored observations, in which the components are the densities from the Gama, Lognormal and Weibull distributions (the GLW finite mixture). These densities are rewritten in such a way that the mean and the variance are the parameters, since the interpretation of such quantities is widespread in various areas of study. In short, we constructed the GLW model and developed its analysis under the bayesian perspective of inference considering scenarios with censorship and cure rate. This analysis includes the parameter estimation, wich is made through simulation methods, construction of hypothesis testing to evaluate covariate effects and to assess the values of the mixture weights, computatution of model adequability measures, which are used to compare different models and estimation of the predictive distribution for new observations. In a simulation study, we evaluated the feasibility of the GLW mixture to recover the original distribution of failure times using hypothesis testing and some model estimated quantities as criteria for selecting the correct distribution. The models developed were applied in the study of the follow-up time of patients with heart failure from the Heart Institute of the University of Sao Paulo Medical School. In this application, results show a better fit of mixture models, in relation to the use of only one distribution in the modeling of the failure times. Finally, we developed a package for the adjustment of the presented models in software R.
114

Modelagem de volatilidade via modelos GARCH com erros assimétricos: abordagem Bayesiana / Volatility modeling through GARCH models with asymetric errors: Bayesian approach

Fioruci, José Augusto 12 June 2012 (has links)
A modelagem da volatilidade desempenha um papel fundamental em Econometria. Nesta dissertação são estudados a generalização dos modelos autorregressivos condicionalmente heterocedásticos conhecidos como GARCH e sua principal generalização multivariada, os modelos DCC-GARCH (Dynamic Condicional Correlation GARCH). Para os erros desses modelos são consideradas distribuições de probabilidade possivelmente assimétricas e leptocúrticas, sendo essas parametrizadas em função da assimetria e do peso nas caudas, necessitando assim de estimar esses parâmetros adicionais aos modelos. A estimação dos parâmetros dos modelos é feita sob a abordagem Bayesiana e devido às complexidades destes modelos, métodos computacionais baseados em simulações de Monte Carlo via Cadeias de Markov (MCMC) são utilizados. Para obter maior eficiência computacional os algoritmos de simulação da distribuição a posteriori dos parâmetros são implementados em linguagem de baixo nível. Por fim, a proposta de modelagem e estimação é exemplificada com dois conjuntos de dados reais / The modeling of volatility plays a fundamental role in Econometrics. In this dissertation are studied the generalization of known autoregressive conditionally heteroscedastic (GARCH) models and its main principal multivariate generalization, the DCCGARCH (Dynamic Conditional Correlation GARCH) models. For the errors of these models are considered distribution of probability possibility asymmetric and leptokurtic, these being parameterized as a function of asymmetry and the weight on the tails, thus requiring estimate the models additional parameters. The estimation of parameters is made under the Bayesian approach and due to the complexities of these models, methods computer-based simulations Monte Carlo Markov Chain (MCMC) are used. For more computational efficiency of simulation algorithms of posterior distribution of the parameters are implemented in low-level language. Finally, the proposed modeling and estimation is illustrated with two real data sets
115

Uma abordagem de múltiplos aspectos para alinhamento de ontologias baseado em Cluster Ensembles Bayesianos. / A multi-aspect approach for ontology matching based on Bayesian Cluster Ensembles.

Ippolito, André 22 May 2017 (has links)
Ontologias são especificações formais e explícitas usadas para descrever entidades de um domínio e seus relacionamentos. Estatísticas recentes do projeto Linked Open Data (LOD) indicam a existência de milhares de ontologias heterogêneas publicadas na nuvem do LOD, impondo um desafio para a integração de ontologias. Um passo fundamental na integração é o emparelhamento, processo que obtém elementos correspondentes entre ontologias heterogêneas. Visando superar o desafio de efetuar o emparelhamento em larga escala, desenvolveu-se uma estratégia baseada em clusterização das ontologias, a qual particiona as ontologias em subontologias, clusteriza as subontologias e restringe o processo de emparelhamento aos elementos de um mesmo cluster. Porém, observa-se que as soluções do estado da arte necessitam explorar mais os múltiplos aspectos que as subontologias possuem. As clusterizações de cada aspecto podem ser combinadas, por meio de um consenso. Cluster Ensembles é uma técnica que permite obter esse consenso. Além disso, estudos comparativos indicaram que o uso de Cluster Ensembles Bayesianos (CEB) resulta em uma clusterização de maior acurácia do que a obtida por outras técnicas de Cluster Ensembles. Um dos principais objetivos deste trabalho foi desenvolver uma nova metodologia de emparelhamento de ontologias baseada em clusterização consensual de múltiplos aspectos de comunidades, de forma a estruturar um arcabouço metodológico, por meio do qual diferentes técnicas e aspectos podem ser incorporados e testados. De acordo com a metodologia desenvolvida neste trabalho, inicialmente aplicaram-se técnicas de Detecção de Comunidades para particionar as ontologias. Em seguida, consideraram-se os seguintes aspectos das comunidades obtidas: terminológico, estrutural e extensional. Fez-se, separadamente, a clusterização das comunidades segundo cada aspecto e aplicaram-se diferentes técnicas de clusterização consensual para obter um consenso entre as clusterizações de cada aspecto: CEB, técnicas baseadas em similaridades e técnicas baseadas em métodos diretos. Para os diferentes consensos, o processo de emparelhamento foi feito apenas entre elementos das ontologias que pertencessem a um mesmo cluster consensual. As soluções consensuais destacaram-se nos estudos de caso efetuados quanto à precisão e cobertura dos alinhamentos, enquanto a solução baseada no aspecto terminológico destacou-se quanto ao valor de F-measure. A principal contribuição deste trabalho relaciona-se à metodologia desenvolvida, que constitui um arcabouço metodológico, por meio do qual diferentes aspectos e técnicas podem ser incorporados e testados quanto ao seu desempenho de clusterização e de alinhamento de ontologias. / Ontologies are formal and explicit specifications used to describe entities of a domain and its relationships. Recent statistics of the Linked Open Data (LOD) project indicate the existence of thousands of heterogeneous ontologies in the LOD cloud, posing a challenge to ontology integration. A fundamental step in integration is matching, a process that finds correspondent elements between heterogeneous ontologies. Aiming to overcome the challenge of large-scale ontology matching, researchers developed a strategy based on clustering, which divides ontologies into subontologies, clusters subontologies and restricts the matching process to elements of the same cluster. However, state-of-the-art solutions need to explore more the multiple aspects that subontologies have. Clustering solutions of each aspect can be combined, by means of a consensus. Cluster Ensembles is a technique that allows obtaining this consensus. Besides, comparative studies indicated that Bayesian Cluster Ensembles has higher clustering accuracy than other Cluster Ensembles techniques. One of the main goals of this work was to develop a new methodology for ontology matching based on consensus clustering of multiple aspects of communities, structuring a methodological framework that enables the use and tests of different techniques and aspects. According to the methodology adopted in this work, initially, Community Detection techniques were applied to partition the ontologies. In the sequence, the following aspects of the communities were considered: terminological, structural and extensional. Clustering according to each aspect was performed separately and different consensus clustering techniques were applied to obtain a consensus among clustering solutions of each aspect: Bayesian Cluster Ensembles, techniques based on similarities and techniques based on direct methods. For the different consensuses, matching was done only between elements of the two ontologies that belonged to the same consensual cluster. For the case studies applied in this work, the consensual solutions were a standout in precision and recall, while the terminological-based solution was a standout in F-measure. The main contribution of this work is related to the developed methodology, which constitutes a methodological framework, through which different aspects and techniques can be incorporated and tested concerning their ontology clustering and alignment performance.
116

Estudo da interação genótipo x ambiente sobre a produção de leite em rebanhos da raça Parodo-Suiço no Brasil, utilizando inferência Bayesiana

REZENDE, Gisele do Socorro Amaral 04 August 2008 (has links)
Submitted by Edisangela Bastos (edisangela@ufpa.br) on 2014-02-03T21:25:02Z No. of bitstreams: 2 license_rdf: 23898 bytes, checksum: e363e809996cf46ada20da1accfcd9c7 (MD5) Dissertacao_EstudoInteracaoGenotipo.pdf: 386149 bytes, checksum: e9a5e00bd658830d2afbabddf3d52048 (MD5) / Approved for entry into archive by Ana Rosa Silva(arosa@ufpa.br) on 2014-02-04T15:21:14Z (GMT) No. of bitstreams: 2 license_rdf: 23898 bytes, checksum: e363e809996cf46ada20da1accfcd9c7 (MD5) Dissertacao_EstudoInteracaoGenotipo.pdf: 386149 bytes, checksum: e9a5e00bd658830d2afbabddf3d52048 (MD5) / Made available in DSpace on 2014-02-04T15:21:14Z (GMT). No. of bitstreams: 2 license_rdf: 23898 bytes, checksum: e363e809996cf46ada20da1accfcd9c7 (MD5) Dissertacao_EstudoInteracaoGenotipo.pdf: 386149 bytes, checksum: e9a5e00bd658830d2afbabddf3d52048 (MD5) Previous issue date: 2008 / Verifica a presença de heterogeneidade de variâncias sobre a produção de leite na primeira lactação de fêmeas da raça Pardo-Suíço e, seu impacto sobre a avaliação genética dos reprodutores, utilizando a inferência Bayesiana por meio de amostrador de Gibbs, foram utilizados 2981 registros referentes às produções de leite e idade da vaca ao parto, em primeiras lactações de vacas da raça Pardo-Suíço, distribuídos em 62 rebanhos. Os registros foram provenientes do serviço de controle leiteiro da Associação Brasileira de Criadores de Gado Pardo Suíço, com os partos ocorridos entre os anos de 1980 a 2002. Foram estabelecidas duas classes de desvio-padrão fenotípico para produção de leite. Posteriormente, os dados foram analisados desconsiderando e considerando as classes de desvio-padrão. As médias observadas e desvio-padrão para produção de leite nas classes de alto e baixo desviopadrão e em análise geral foram iguais a 5802,02 ± 1929,96, 4844,37 ± 1592,99, 5373,47 ± 1849,13, respectivamente. As médias posteriores para os componentes de variâncias foram maiores na classe de alto desvio-padrão. A herdabilidade obtida na classe de alto desviopadrão foi próxima do valor observado na análise geral e inferior ao valor encontrado na classe de baixo desvio-padrão fenotípico. A correlação genética para a produção de leite entre as classes de desvio-padrão foi igual a 0,48. As correlações de Pearson e Spearman entre os valores genéticos para a produção de leite obtidos na análise geral, com os valores obtidos em cada classe de desvio-padrão foram todas maiores que 0,80, quando se considerou todos os reprodutores. Porém, refinando a amostra de reprodutores verifica-se que, as correlações diminuem em magnitude. Existindo uma maior variabilidade nos rebanhos presentes na classe de alto desvio-padrão e, o impacto dessa heterogeneidade de variância sobre a avaliação genética de reprodutores, é pequeno, pois a fonte principal dessa heterogeneidade é decorrente de fatores genéticos confirmando a presença de heterogeneidade de variâncias. / Checks for the presence of heterogeneity of variances on milk production in first lactation of females of Brown Swiss and, impact on genetic evaluation of breeding, using the Bayesian inference using Gibbs sampling we used 2981 records on milk yield and age at calving in first lactation of Holstein Brown Swiss, distributed in 62 herds. The records were from the service of dairy control of the Brazilian Association of Breeders of Brown Swiss cattle, with births occurring between the years 1980 to 2002. Established two classes of phenotypic standard deviation for milk production. Subsequently, the data were analyzed ignoring and considering the classes of standard deviation. The means and standard deviations for milk production in the classes of high and low standard deviation and analysis were generally equal to 5802.02 ± 1929.96, 4844.37 ± 1592.99, 5373.47 ± 1849.13 respectively. The averages for the later components of variance were higher in the high standard deviation. The heritability obtained in the high standard deviation was close to the value observed in the overall analysis and less than the value found in the low phenotypic standard deviation. The genetic correlation for milk production between the classes of standard deviation was equal to 0.48. Pearson and Spearman correlation coefficients and coefficient between breeding values for milk production obtained in the overall analysis, with the values obtained for each class of standard deviation were all higher than 0.80, when considering all breeding. However, refining the sample of players shows that the correlations decrease in magnitude. If there is a greater variability present in flocks in the high standard deviation, and the impact of this heterogeneity of variance on genetic evaluation of breeding is small because the main source of this heterogeneity is due to genetic factors confirming the presence of heterogeneity of variances.
117

Metanálise caso a caso sob a perspectiva bayesiana / Meta-analysis case by case using Bayesian approach

Camila Bertini Martins 29 November 2013 (has links)
O papel da metanálise de sumarizar estudos publicados de mesmo objetivo, por meio da estatística, torna-se cada dia mais fundamental em razão do avanço da ciência e do desejo de usar o menor número de seres humanos em ensaios clínicos, desnecessários, em vários casos. A síntese das informações disponíveis facilita o entendimento e possibilita conclusões robustas. O aumento de estudos clínicos, por exemplo, promove um crescimento da necessidade de metanálises, fazendo com que seja necessário o desenvolvimento de técnicas sofisticadas. Desse modo, o objetivo deste trabalho foi propor uma metodologia bayesiana para a realização de metanálises. O procedimento proposto consiste na mistura das distribuições a posteriori do parâmetro de interesse de cada estudo pertencente à metanálise; ou seja, a medida metanalítica proposta foi uma distribuição de probabilidade e não uma simples medida-resumo. A metodologia apresentada pode ser utilizada com qualquer distribuição a priori e qualquer função de verossimilhança. O cálculo da medida metanalítica pode ser utilizado, desde problemas simples até os mais sofisticados. Neste trabalho, foram apresentados exemplos envolvendo diferentes distribuições de probabilidade e dados de sobrevivência. Em casos, em que se há uma estatística suficiente disponível para o parâmetro em questão, a distribuição de probabilidade a posteriori depende dos dados apenas por meio dessa estatística e, assim, em muitos casos, há a redução de dimensão sem perda de informação. Para alguns cálculos, utilizou-se o método de simulação de Metropolis-Hastings. O software estatístico utilizado neste trabalho foi o R. / The meta-analysis role of using Statistics to summarize published studies that have the same goal becomes more essential day by day, due to the improvement of Science and the desire of using the least possible number of human beings in clinical trials, which in many cases is unnecessary. By match the available information it makes the understanding easier and it leads to more robust conclusions. For instance, the increase in the number of clinical researches also makes the need for meta-analysis go higher, arising the need for developing sophisticated techniques. Then our goal in this work is to propose a Bayesian methodology to conduct meta-analysis. The proposed procedure is a blend of posterior distributions from interest parameters of each work we are considering when doing meta-analysis. As a consequence, we have a probability distribution as a meta-analytic measure, rather than just a statistical summary. The methodology we are presenting can be used with any prior probability distribution and any likelihood function. The calculation of the meta-analytic measure has its uses from small to more complex problems. In this work we present some examples that consider various probability distributions and also survival data. There is a sufficient statistic available for the parameter of interest, the posterior probability distribution depends on the data only through this statistic and thus, in many cases, we can reduce our data without loss of information. Some calculations were performed through Metropolis-Hastings simulation algorithm. The statistical software used in this work was the R.
118

Análise Bayesiana de modelos de mistura finita com dados censurados / Bayesian analysis of finite mixture models with censored data

Brian Alvarez Ribeiro de Melo 21 February 2017 (has links)
Misturas finitas são modelos paramétricos altamente flexíveis, capazes de descrever diferentes características dos dados em vários contextos, especialmente na análise de dados heterogêneos (Marin, 2005). Geralmente, nos modelos de mistura finita, todas as componentes pertencem à mesma família paramétrica e são diferenciadas apenas pelo vetor de parâmetros associado a essas componentes. Neste trabalho, propomos um novo modelo de mistura finita, capaz de acomodar observações censuradas, no qual as componentes são as densidades das distribuições Gama, Lognormal e Weibull (mistura GLW). Essas densidades são reparametrizadas, sendo reescritas em função da média e da variância, uma vez que estas quantidades são mais difundidas em diversas áreas de estudo. Assim, construímos o modelo GLW e desenvolvemos a análise de tal modelo sob a perspectiva bayesiana de inferência. Essa análise inclui a estimação, através de métodos de simulação, dos parâmetros de interesse em cenários com censura e com fração de cura, a construção de testes de hipóteses para avaliar efeitos de covariáveis e pesos da mistura, o cálculo de medidas para comparação de diferentes modelos e estimação da distribuição preditiva de novas observações. Através de um estudo de simulação, avaliamos a capacidade da mistura GLW em recuperar a distribuição original dos tempos de falha utilizando testes de hipóteses e estimativas do modelo. Os modelos desenvolvidos também foram aplicados no estudo do tempo de seguimento de pacientes com insuficiência cardíaca do Instituto do Coração da Faculdade de Medicina da Universidade de São Paulo. Nesta aplicação, os resultados mostram uma melhor adequação dos modelos de mistura em relação à utilização de apenas uma distribuição na modelagem dos tempos de seguimentos. Por fim, desenvolvemos um pacote para o ajuste dos modelos apresentados no software R. / Finite mixtures are highly flexible parametric models capable of describing different data features and are widely considered in many contexts, especially in the analysis of heterogeneous data (Marin, 2005). Generally, in finite mixture models, all the components belong to the same parametric family and are only distinguished by the associated parameter vector. In this thesis, we propose a new finite mixture model, capable of handling censored observations, in which the components are the densities from the Gama, Lognormal and Weibull distributions (the GLW finite mixture). These densities are rewritten in such a way that the mean and the variance are the parameters, since the interpretation of such quantities is widespread in various areas of study. In short, we constructed the GLW model and developed its analysis under the bayesian perspective of inference considering scenarios with censorship and cure rate. This analysis includes the parameter estimation, wich is made through simulation methods, construction of hypothesis testing to evaluate covariate effects and to assess the values of the mixture weights, computatution of model adequability measures, which are used to compare different models and estimation of the predictive distribution for new observations. In a simulation study, we evaluated the feasibility of the GLW mixture to recover the original distribution of failure times using hypothesis testing and some model estimated quantities as criteria for selecting the correct distribution. The models developed were applied in the study of the follow-up time of patients with heart failure from the Heart Institute of the University of Sao Paulo Medical School. In this application, results show a better fit of mixture models, in relation to the use of only one distribution in the modeling of the failure times. Finally, we developed a package for the adjustment of the presented models in software R.
119

Modelo bayesiano para dados de sobrevivência com riscos semicompetitivos baseado em cópulas / Bayesian model for survival data with semicompeting risks based on copulas

Elizabeth González Patiño 23 March 2018 (has links)
Motivados por um conjunto de dados de pacientes com insuficiência renal crônica (IRC), propomos uma nova modelagem bayesiana que envolve cópulas da família Arquimediana e um modelo misto para dados de sobrevivência com riscos semicompetitivos. A estrutura de riscos semicompetitivos é bastante comum em estudos clínicos em que dois eventos são de interesse, um intermediário e outro terminal, de forma tal que a ocorrência do evento terminal impede a ocorrência do intermediário mas não vice-versa. Nesta modelagem provamos que a distribuição a posteriori sob a cópula de Clayton é própria. Implementamos os algoritmos de dados aumentados e amostrador de Gibbs para a inferência bayesiana, assim como os criterios de comparação de modelos: LPML, DIC e BIC. Realizamos um estudo de simulação para avaliar o desempenho da modelagem e finalmente aplicamos a metodologia proposta para analisar os dados dos pacientes com IRC, além de outros de pacientes que receberam transplante de medula óssea. / Motivated by a dataset of patients with chronic kidney disease (CKD), we propose a new bayesian model including the Arquimedean copula and a mixed model for survival data with semicompeting risks. The structure of semicompeting risks appears frequently in clinical studies where two-types of events are involved: a nonterminal and a terminal event such that the occurrence of terminal event precludes the occurrence of the non-terminal event but not viceversa. In this work we prove that the posterior distribution is proper when the Clayton copula is used. We implement the data augmentation algorithm and Gibbs sampling for the bayesian inference, as well as some bayesian model selection criteria: LPML, BIC and DIC. We carry out a simulation study for assess the model performance and finally, our methodology is illustrated with the chronic kidney disease study.
120

Uma abordagem Bayesiana para o mapeamento de QTLs utilizando o método MCMC com saltos reversíveis / A Bayesian approach to detect quantitative trait loci using reversible-jump MCMC

Silva, Joseane Padilha da 07 February 2007 (has links)
A utilização de metodologias Bayesianas tem se tornado freqüuente nas aplicações em Genética, em particular em mapeamento de QTLs usando marcadores moleculares. Mapear um QTL implica em identificar sua posição no genoma, bem como seus efeitos genéticos. A abordagem Bayesiana combina, através do Teorema de Bayes, a verossimilhança dos dados fenotípicos com distribuições a priori atribuídas a todos os parâmetros desconhecidos (número, localização e efeito do QTL) induzindo distribuições a posteriori a respeito dessas quantidades. Métodos de mapeamento Bayesiano podem tratar o número desconhecido de QTLs como uma variável aleatória, resultando em complicações na obtençãao da amostra aleatória da distribuição conjunta a posteriori, uma vez que a dimensão do espaço do modelo pode variar. O Método MCMC com Saltos Reversíveis (MCMC-SR), proposto por Green(1995), é excelente para explorar distribuições a posteriori nesse contexto. O método proposto foi avaliado usando dados simulados no WinQTLCart, onde o maior objetivo foi avaliar diferentes prioris atribuídas para o número de QTLs. / The use of Bayesian methodology in genetical applications has grown increasingly popular, in particular in the analysis of quantitative trait loci (QTL) for studies using molecular markers. In such analyses the aim is mapping QTLs, estimating their locations in the genome and their genotypic effects. The Bayesian approach proceeds by setting up a likelihood function for the phenotype and assigning prior distributions to all unknowns in the problem (number of QTL, chromosome, locus, genetics effects). These induce a posterior distribution on the unknown quantities that contains all of the available information for inference of the genetic architecture of the trait. Bayesian mapping methods can treat the unknown number of QTL as a random variable, which has several advantages but results in the complication of varying the dimension of the model space. The reversible jump MCMC algorithm offers a powerful and general approach to exploring posterior distributions in this setting. The method was evaluated by analyzing simulated data, where the major goal was evaluate if different priors distributions on the QTL numbers.

Page generated in 0.0442 seconds