• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 882
  • 40
  • 38
  • 37
  • 36
  • 33
  • 27
  • 4
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 920
  • 397
  • 391
  • 391
  • 375
  • 187
  • 172
  • 164
  • 151
  • 123
  • 113
  • 111
  • 108
  • 84
  • 81
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Modelo de mistura com número de componentes desconhecido: estimação via método split-merge

Saraiva, Erlandson Ferreira 30 November 2009 (has links)
Made available in DSpace on 2016-06-02T20:04:50Z (GMT). No. of bitstreams: 1 2715.pdf: 5847504 bytes, checksum: 33fc1cbb82d98f376e09b5096d9e726c (MD5) Previous issue date: 2009-11-30 / Financiadora de Estudos e Projetos / We propose the split-merge MCMC and birth-split-merge MCMC algorithms to analyse mixture models with an unknown number of components. The strategy for splitting is based on data and posterior distribution. Allocation probabilities are calculated based on component parameters which are generated from the posterior distribution given the previously allocated observations. The split-merge proposals are developed to be reversible and are accepted according to Metropolis-Hastings probability. This procedure makes possible a greater change in configuration of latent variables, in a single iteration of algorithms, allow a major exploration of clusters and avoid possible local modes. As an advantage, our approach determines a quick split proposal in contrary to former split procedures which require substantial computational effort. In the birth-split-merge MCMC algorithm, the birth movement is obtained directly from the procedure to update the latent variables and occurs when an observation determine a new cluster. The performance of the method is verified using artificial data sets and two real data sets. The first real data set consist of benchmark data of velocities from distant galaxies diverging from our own while the second is Escherichia Coli bacterium gene expression data. / Propomos uma abordagem bayesiana hierárquica e os algoritmos split-merge MCMC e birth-split-merge MCMC para a estimação conjunta dos parâmetros e do número de componentes de um modelo com mistura de distribuições. A proposta split é baseada nos dados e na distribuição a posteriori dos parâmetros. Nesta proposta, utilizamos probabilidades de alocação que são calculadas de acordo com os parâmetros associados a cada componente, que são gerados da distribuição a posteriori dado as observações previamente alocadas. As propostas split e merge são desenvolvidas para serem reversíveis e são aceitas de acordo com a probabilidade de aceitação de Metropolis-Hastings, para garantir a existência da distribuição estacionária. O algoritmo birth-split-merge apresenta as mesmas propostas split-merge porém este algoritmo permite que ao atualizar uma variável latente, esta seja capaz de determinar o nascimento" (birth) de uma nova componente. Verificamos a performance dos algoritmos propostos utilizando dados artificiais, gerados via simulação, e dois conjuntos de dados reais. O primeiro é o bem conhecido conjunto de dados sobre a velocidade de galáxias e o segundo é um conjunto de dados de expressão gênica. A contribuição teórica presente nesta tese é o desenvolvimento de um pocesso estocástico com base nos movimentos split-merge, que são baseados nos dados. Ou seja, se a amostra é proveniente de uma população composta por k subpopulações, nosso método busca informações sobre as k subpopulações diretamente nos dados observados. Com isso, quando propomos o surgimento de uma nova componente esta sempre tem dados associados, i.e., determina uma partição nos dados observados, e os parâmetros são gerados da distribuição a posteriori, o que não ocorre nos métodos alternativos.
112

Modelos de sobrevivência na presença de eventos recorrentes e longa duração

Cobre, Juliana 05 March 2010 (has links)
Made available in DSpace on 2016-06-02T20:04:50Z (GMT). No. of bitstreams: 1 2908.pdf: 926637 bytes, checksum: f4afd93017b2cb0c95459918a00dc65d (MD5) Previous issue date: 2010-03-05 / Financiadora de Estudos e Projetos / In this thesis it is proposed to analyze recurrent event data, recurrent event data with cure fraction and recurrent event data with censoring and competing causes. For the recurrent event data analysis it is proposed a multiple time scale survival model, which includes several particular cases. For recurrent event data with a cure fraction we consider a multiple time scale survival models embedded on a mixture cure fraction modeling. It is also proposed a general model to survival data in presence of competitive causes. In this case, it is assumed that the number of competitive causes follows a generalized negative binomial distribution. While, for the time of occurrence of each cause, a Weibull and a log-logistic distribution were considered. Simulations studies were conducted for every proposed model in order to analyze the asymptotical properties of the estimation procedures. Both, maximum likelihood and Bayesian approaches were considered for parameter estimation. Real data applications demonstrate de use of the proposed models. / Neste trabalho propomos analisar dados de eventos recorrentes, dados de eventos recorrentes com fração de cura e dados de eventos recorrentes com tempos não observados e causas competitivas, que implicam na possibilidade de cura. Para a análise de dados de evento recorrente propomos um modelo de escala múltipla de tempo, que engloba diversas classes de modelos como casos particulares. Na análise de dados de eventos recorrentes com fração de cura tivemos como base os modelos de escala múltipla de tempo e o modelo de mistura padrão. Também propomos um modelo geral para tratar de dados na presença de causas competitivas. Neste caso, assumimos que o número de causas competitivas segue uma distribuição binomial negativa generalizada e consideramos duas abordagens para o tempo de ocorrência de cada causa, sendo uma delas uma distribuição Weibull e a outra uma distribuição log-logística. Para todos os modelos propostos foram feitos estudos de simulação com o objetivo de analisar as propriedades frequentistas dos processos de estimação. Aplicações a conjuntos de dados reais mostraram a aplicabilidade dos modelos propostos.
113

Modelo de mistura padrão de longa duração com censura uniforme-exponencial

Chaves, Josenildo de Souza 25 March 2010 (has links)
Made available in DSpace on 2016-06-02T20:04:51Z (GMT). No. of bitstreams: 1 2932.pdf: 982095 bytes, checksum: ce563edc7be982c4acf4c88ef1c3c32b (MD5) Previous issue date: 2010-03-25 / Financiadora de Estudos e Projetos / In survival data analysis it is common the occurrence of a large number of individuals to the right. This fact can indicate that, in a fraction of the individuals the event of interest will never happen, in other words, a fraction of individuals of the population is cured or immune. This case is not usually taken into account by the usual survival theory that, in general, considers that the individuals at risk will not achieve cure during the follow-up period. Therefore, the survival models with cure fraction, or long-term survival models, have received a lot of attention in recent years. We consider the exponential distribution for the survival time of individuals at risk and the uniform-exponential distribution for the censoring time. In many situations, it is evident that the censoring mechanism is informative. Lagakos & Williams (1978) proposed a class of models where the acting of the censoring mechanism in the survival time is evaluated and Lagakos (1979) presented several situations in which the assumption of noninformative censoring is violated. The main purpose of this work is to verify the impact of informative uniform-exponential censoring in the survival data analysis under the standard mixture model. / Na análise de dados de sobrevivência é frequente a ocorrência de um grande número de indivíduos censurados à direita. Este fato pode ser a indicação de que para uma fração de indivíduos no estudo o evento de interesse nunca vai ocorrer, ou seja, uma fração de indivíduos da população é de curados ou imunes. Este caso não é admitido pela teoria de sobrevivência usual, que em geral considera que todos os indivíduos em risco não terão cura durante o período de acompanhamento. Por isso, os modelos de sobrevivência com fração de cura, ou de longa duração, têm recebido muita atenção em anos recentes. Utilizamos a distribuição exponencial para o tempo de sobrevivência dos indivíduos em risco e a uniforme-exponencial para o tempo de censura. Em muitas situações é evidente que o mecanismo de censura é informativo. Lagakos & Williams (1978) propuseram uma classe de modelos em que o papel do mecanismo de censura em análise de sobrevivência é avaliado e Lagakos (1979) apresentou várias situações em que a suposição de censura não-informativa é violada. Este trabalho tem como objetivo principal verificar o impacto da censura informativa uniforme-exponencial na análise de dados de sobrevivência sob o modelo de mistura padrão.
114

Modelo de mistura padrão com tempo de falha exponencial e censura informativa

Freitas, Luiz Antonio de 25 June 2010 (has links)
Made available in DSpace on 2016-06-02T20:04:51Z (GMT). No. of bitstreams: 1 3147.pdf: 1261036 bytes, checksum: 5b16b6f20a2eacfa466c5fdb1e546d3a (MD5) Previous issue date: 2010-06-25 / Financiadora de Estudos e Projetos / In this work we consider the long-term survival model introduced by Berkson & Gage (1952), for modeling survival data of nonhomogeneous populations, where a subpopulation does not present the event of interest, despite a long follow-up period. The cure rate models presented in the literature usually are developed under the assumption that censorship is noninformative. In the usual survival models Lawless (1982) considers that the variable of censoring is informative if its density function and its distribution function involve some parameter of interest. We propose a new definition of informative censoring in a similar way. This de_nition is extended for the unified long-term survival models (Rodrigues et al., 2009). Moreover, we verify, with simulated data, the impact caused by informative censoring in the coverage probabilities and in the lengths of asymptotic confidence intervals of the parameters of interest. A Bayesian approach with Jeffreys prior is also proposed. An example with real data is analysed. / Neste trabalho consideramos o modelo de sobrevivência de longa duração introduzido por Berkson & Gage (1952), que serve para modelar dados de populações não homogêneas, em que parte da população não apresenta o evento de interesse mesmo após um longo período de observação. Os modelos com fração de cura apresentados na literatura são usualmente desenvolvidos sob a suposição de censura não informativa. Sob o modelo usual de sobrevivência, Lawless (1982) considera que a variável de censura _e informativa se suas funções de densidade e de distribuição acumulada envolvem algum parâmetro de interesse. Neste trabalho enunciamos uma nova definição de censura informativa, que _e similar _a de Lawless (1982). Esta definição é extendida para o modelo unificado de longa duração proposto por (Rodrigues et al., 2009). Também verificamos, com uso de dados simulados, o impacto da censura informativa na cobertura e no comprimento dos intervalos assintóticos dos parâmetros de interesse. Uma abordagem bayesiana com distribuições a priori de Jeffreys é proposta. Um exemplo com dados reais é analisado.
115

Modelos de regressão binomial correlacionada

Pires, Rubiane Maria 18 May 2012 (has links)
Made available in DSpace on 2016-06-02T20:04:51Z (GMT). No. of bitstreams: 1 4475.pdf: 1244079 bytes, checksum: 3217620ac6ab16457a5ab67a737b433c (MD5) Previous issue date: 2012-05-18 / Financiadora de Estudos e Projetos / In this thesis, a class of correlated binomial regression models is proposed. The model is based on the generalized binomial distribution proposed by Luceño (1995) and Luceño & Ceballos (1995). The regression structure is modeled by using four different link functions and the dependence between the Bernoulli trials is modeled by using three different correlation structures. A data augmentation scheme is used in order to overcome the complexity of the mixture likelihood. Frequentist and Bayesian approaches are used in the model fitting process. A diagnostics analysis is provided in order to check the underlying model assumptions and to identify the presence of outliers and/or influential observations. Simulation studies are presented to illustrate the performance of the developed methodology. A real data set is analyzed by using the proposed models. Also the correlated binomial regression models is extended to include measurement error in a predictor. This new class of models is called additive normal structure correlated binomial regression models. The inference process also includes a data augmentation scheme to overcome the complexity of the mixture likelihood. / Nesta tese é proposta uma classe de modelos de regressão binomial correlacionada baseados na distribuição binomial generalizada, proposta por Luceño (1995) e Luceño & Ceballos (1995). A estrutura de regressão é modelada usando diferentes funções de ligação e a relação de dependência entre os ensaios de Bernoulli é modelada usando diferentes estruturas de correlação. Uma estratégia de dados aumentados é utilizada para contornar a complexidade da função de verossimilhança. As abordagens clássica e Bayesiana são utilizadas no processo de ajuste dos modelos propostos. Análise de diagnóstico é desenvolvida com o objetivo de verificar as suposições iniciais do modelo e identificar a presença de outliers e/ou observações influentes. Estudos de simulação e aplicação em dados reais ilustram as metodologias. Propomos também uma nova classe de modelos de regressão binomial correlacionada, denominados modelos de regressão binomial correlacionada aditivo estrutural normal, que envolvem a presença de uma covariável com erro de medida. No processo de estimação para esta nova classe, dados aumentados e aproximação de integral são utilizadas para contornar a complexidade da função de verossimilhança.
116

Modelo bayesiano de coincidências em processos de listagens

Reis, Juliana Coutinho dos 03 May 2006 (has links)
Made available in DSpace on 2016-06-02T20:05:58Z (GMT). No. of bitstreams: 1 DissJCR.pdf: 420621 bytes, checksum: a07860bb2ec0004c2a221933e0f45403 (MD5) Previous issue date: 2006-05-03 / Financiadora de Estudos e Projetos / In this work we present a bayesian methodology to estimate the number of coincident individuals of two lists, considering the occurrence of correct and incorrect registers of the informations registers of each individual present in the lists. We adopt, in this model, three di¤erent prioris for the number of coincident pairs and study its performance through simulated data. Due to di¢ culties found in the choice of the hiperparameters of this model, we present as solution to the this problem a hierarchic bayesian model and verify its adequateness through the gotten estimates for simulated data. / Nesta dissertação apresentamos uma metodologia bayesiana para estimar o número de indivíduos coincidentes de duas listas, considerando a ocorrência de registros corretos e incorretos das informações cadastrais de cada indivíduo presente nas listas. Adotamos três diferentes prioris para o número de pares coincidentes e estudamos sua performance através de dados simulados. Devido às dificuldades encontradas na escolha dos valores dos hiperparâmetros deste modelo, apresentamos como solução a este problema um modelo bayesiano hierárquico e verificamos sua adequabilidade através das estimativas obtidas para dados simulados.
117

Metodologia gráfica para dados de eventos recorrentes via bootstrap. / Recurrent events; Bootstrap; Asymptotic theory; Coverage probability

Anacleto Junior, Osvaldo 05 January 2005 (has links)
Made available in DSpace on 2016-06-02T20:05:58Z (GMT). No. of bitstreams: 1 DissOAJ.pdf: 355178 bytes, checksum: 9e8e8eedffffb70dab1d4b56a2ee5d45 (MD5) Previous issue date: 2005-01-05 / Financiadora de Estudos e Projetos / Experiments related to recurrent events provide information about the number of events, time to their ocurrence and their costs. Nelson (1995) presents a methodology to obtain confidence intervals for the cost and the number of cumulative events. Apart from this, it is possible to construct confidence intervals via computer-intensive methods, where the bootstrap is a particular case. In this dissertation we present these two procedures and make a comparison, checking the coverage probability and the sample size influence in the precision of the intervals provided by the two methods. One of the advantages of the methodology presented in this dissertation is the possibility for its application in several areas and its easy computational implementation. An example from engineering illustrates the methodology. / Experimentos com dados de eventos recorrentes fornecem informações sobre o número de eventos, o tempo até a ocorrência do evento e custos dos mesmos. Um exemplo consiste em dados relacionados à garantia de equipamentos manufaturados, onde o objetivo básico é estimar o custo médio acumulado e o número médio acumulado de eventos. Nelson (1995) propõe uma metodologia para obtenção de intervalos de confiança para o custo e o número médio acumulado de eventos baseada na teoria assintótica. Além desta metodologia, é possível obter intervalos de confiança via métodos computacionalmente intensivos, em particular, bootstrap. O objetivo deste trabalho é apresentar estes dois métodos, assim como realizar uma comparação dos mesmos a partir da verificação da probabilidade de cobertura e a influência do tamanho da amostra na precisão dos intervalos de confi- ança construídos a partir dos dois procedimentos apresentados. Dentre as vantagens da metodologia aqui apresentada, é a possibilidade de sua aplicação em diversas áreas do conhecimento, assim como sua facilidade de implementação computacional. Um exemplo, proveniente da área de engenharia, é apresentado.
118

O efeito de reparametrização em testes de sobrevivência acelerados

Cavali, Wagner Aparecido 11 June 2003 (has links)
Made available in DSpace on 2016-06-02T20:06:00Z (GMT). No. of bitstreams: 1 1883.pdf: 6909454 bytes, checksum: 5c6b14e2d7e917eae5cb1bcb41a853f9 (MD5) Previous issue date: 2003-06-11 / Financiadora de Estudos e Projetos / Accelerated life tests are frequently used in industrial experiments to obtain measures on the reliability of products. In these tests, the units are submited at higher levels of stress than usual and the informations obtained are utilized to inference on the reliability of the product, under normal operating conditions. A practical problem, refers to the accuracy of inferences obtained by asymptotic normal approximation of the maximum likelihood estimator, when the sample size is small or moderate. In this dissertation are described the e¤ects of several reparametrizations on the accuracy of the interval estimation of the parameter of interest, here represented by the mean lifetime. The idea is to obtain a parametrization in order to have independent maximum likelihood estimates with good asymptotic normal approximation. A simulation study presents the coverage probability of the con dence intervals when only small or moderate size datasets are available. The e¤ect of the presence of censoring was also investigated in the simulation study. The methodology is illustrated on a real dataset of an accelerated life test at pressurized containers of Kevlan/Epoxy 49. Under the bayesian perspective, Markov Chain Monte Carlo methods are proposed to evaluate the reliability of products. The e¤ect of reparametrization on convergency of the chains is studied. / Testes de vida acelerados são frequentemente utilizados em experimentos industriais para obter medidas sobre a con abilidade de produtos. Nestes testes, as unidades são submetidas à níveis de estresse mais altos que os usuais e as informações obtidas são utilizadas para inferir sobre a con abilidade dos produtos, em condições normais de operação. Um problema prático, refere-se à precisão de inferências obtidas por aproximação normal assintótica dos estimadores de máxima verossimilhança, quando o tamanho da amostra é pequeno ou moderado. Nesta dissertação são descritos os efeitos de algumas reparametrizações na precisão da estimação intervalar do parâmetro de interesse, aqui representado pelo tempo médio de falha. O interesse é obter uma parametrização que proporcione estimativas de máxima verossimilhança independentes com boa aproximação normal assintótica. Um estudo de simulação apresenta a probabilidade de cobertura dos intervalos de con ança quando somente pequenos ou moderados tamanhos de conjuntos de dados são considerados. O efeito da presença de censura também foi investigado no estudo de simulação. A metodologia é ilustrada com dados reais de um teste de sobrevivência acelerado com containers pressurizados de Kevlan/Epoxy 49. Sob o enfoque Bayesiano, métodos Markov Chain Monte Carlo são propostos para avaliar a con abilidade das unidades. O efeito da reparametrização na convergência das cadeias é estudado.
119

Presença de dados missing em modelos de regressão logística

Ferreira, Natália Manduca 05 September 2008 (has links)
Made available in DSpace on 2016-06-02T20:06:02Z (GMT). No. of bitstreams: 1 2299.pdf: 552812 bytes, checksum: 2850eae9547732d0f7921feb333884a5 (MD5) Previous issue date: 2008-09-05 / In this work we present a detailed study of the logistic regression model with missing data in the independent variables. Several techniques are considered such as Complete Case, Mean Imputation and Corrected Complete Case. We present a new estimator, denoted EMVGM, given by the combination between the Complete Case estimator and the ML-estimator with the use of Gaussian quadrature. A simulation study is carried out to evaluate the performance of the ML-estimators obtained in each technique above mentioned. In general, the alternative estimador, EMVGM, presents a better performance taking into account the variance, the bias and the mean quadratic error. / Neste trabalho apresentamos um estudo detalhado do modelo de regressão logística na presença de valores missing nas covariáveis considerando as técnicas Caso Completo, Imputação pela Média e Caso Completo Corrigido. Um novo método, denotado EMVGM, dado pela combinação entre os estimadores de Caso Completo e os estimadores obtidos via Máxima Verossimilhança com uso da Quadratura Gaussiana, é sugerido. No desenvolvimento do estudo são realizadas simulações para a verificação do desempenho dos estimadores de máxima verossimilhança obtidos em cada técnica citada acima. A avaliação mostra que a qualidade dos parâmetros estimados obtidos por meio de cada técnica varia de acordo com o tamanho da amostra e com o número de dados missing e que, em geral, o estimador sugerido, EMVGM, apresenta os melhores estimadores levando em conta as métricas variância estimada, vício estimado e erro quadrático médio estimado.
120

Seleção de modelos de tempos com longa-duração para dados de finanças

Granzotto, Daniele Cristina Tita 22 February 2008 (has links)
Made available in DSpace on 2016-06-02T20:06:02Z (GMT). No. of bitstreams: 1 2168.pdf: 2430677 bytes, checksum: b8736c04a1812cc46846524a7e5aec92 (MD5) Previous issue date: 2008-02-22 / Financiadora de Estudos e Projetos / Os modelos de análise de sobrevivência com fração de cura incorporam a heterogeneidade de duas populações (suscept´ıveis e imunes ao evento de interesse) e são conhecidos na literatura como modelos de longa-duração. Com o objetivo de exemplificar a aplicabilidade dos modelos de longa-duração em dados da área de finanças, trabalhou-se com o modelo proposto por Berckson e Gage usando-se para isto os modelosWeibull e log-logístico. Estudou-se a adequabilidade dos modelos e métodos para seleção e verificação de ajuste. Um estudo de simulação foi realizado com o propósito de testar a medida de distância entre curvas como alternativas às métricas usuais e também verificar o comportamento destas métricas em diferentes situações de percentuais de censura e tamanhos de amostras. Neste estudo verificou-se que, uma métrica simples como a medida de distância entre curvas, é capaz de selecionar o modelo mais apropriado aos dados na presença de longa-duração e grandes carteiras de clientes.

Page generated in 0.1003 seconds