211 |
Modelo bayesiano de coincidências em processos de listagensReis, Juliana Coutinho dos 03 May 2006 (has links)
Made available in DSpace on 2016-06-02T20:05:58Z (GMT). No. of bitstreams: 1
DissJCR.pdf: 420621 bytes, checksum: a07860bb2ec0004c2a221933e0f45403 (MD5)
Previous issue date: 2006-05-03 / Financiadora de Estudos e Projetos / In this work we present a bayesian methodology to estimate the number of coincident
individuals of two lists, considering the occurrence of correct and incorrect registers of the
informations registers of each individual present in the lists. We adopt, in this model, three
di¤erent prioris for the number of coincident pairs and study its performance through
simulated data. Due to di¢ culties found in the choice of the hiperparameters of this
model, we present as solution to the this problem a hierarchic bayesian model and verify
its adequateness through the gotten estimates for simulated data. / Nesta dissertação apresentamos uma metodologia bayesiana para estimar o número
de indivíduos coincidentes de duas listas, considerando a ocorrência de registros corretos
e incorretos das informações cadastrais de cada indivíduo presente nas listas. Adotamos
três diferentes prioris para o número de pares coincidentes e estudamos sua performance
através de dados simulados. Devido às dificuldades encontradas na escolha dos valores dos
hiperparâmetros deste modelo, apresentamos como solução a este problema um modelo
bayesiano hierárquico e verificamos sua adequabilidade através das estimativas obtidas
para dados simulados.
|
212 |
Metodologia gráfica para dados de eventos recorrentes via bootstrap. / Recurrent events; Bootstrap; Asymptotic theory; Coverage probabilityAnacleto Junior, Osvaldo 05 January 2005 (has links)
Made available in DSpace on 2016-06-02T20:05:58Z (GMT). No. of bitstreams: 1
DissOAJ.pdf: 355178 bytes, checksum: 9e8e8eedffffb70dab1d4b56a2ee5d45 (MD5)
Previous issue date: 2005-01-05 / Financiadora de Estudos e Projetos / Experiments related to recurrent events provide information about the number of events,
time to their ocurrence and their costs. Nelson (1995) presents a methodology to obtain
confidence intervals for the cost and the number of cumulative events. Apart from this,
it is possible to construct confidence intervals via computer-intensive methods, where
the bootstrap is a particular case. In this dissertation we present these two procedures
and make a comparison, checking the coverage probability and the sample size influence
in the precision of the intervals provided by the two methods. One of the advantages
of the methodology presented in this dissertation is the possibility for its application in
several areas and its easy computational implementation. An example from engineering
illustrates the methodology. / Experimentos com dados de eventos recorrentes fornecem informações sobre o número
de eventos, o tempo até a ocorrência do evento e custos dos mesmos. Um exemplo consiste
em dados relacionados à garantia de equipamentos manufaturados, onde o objetivo básico
é estimar o custo médio acumulado e o número médio acumulado de eventos. Nelson
(1995) propõe uma metodologia para obtenção de intervalos de confiança para o custo e o
número médio acumulado de eventos baseada na teoria assintótica. Além desta metodologia,
é possível obter intervalos de confiança via métodos computacionalmente intensivos,
em particular, bootstrap. O objetivo deste trabalho é apresentar estes dois métodos, assim
como realizar uma comparação dos mesmos a partir da verificação da probabilidade
de cobertura e a influência do tamanho da amostra na precisão dos intervalos de confi-
ança construídos a partir dos dois procedimentos apresentados. Dentre as vantagens da
metodologia aqui apresentada, é a possibilidade de sua aplicação em diversas áreas do
conhecimento, assim como sua facilidade de implementação computacional. Um exemplo,
proveniente da área de engenharia, é apresentado.
|
213 |
O efeito de reparametrização em testes de sobrevivência aceleradosCavali, Wagner Aparecido 11 June 2003 (has links)
Made available in DSpace on 2016-06-02T20:06:00Z (GMT). No. of bitstreams: 1
1883.pdf: 6909454 bytes, checksum: 5c6b14e2d7e917eae5cb1bcb41a853f9 (MD5)
Previous issue date: 2003-06-11 / Financiadora de Estudos e Projetos / Accelerated life tests are frequently used in industrial experiments to obtain measures on the reliability of products. In these tests, the units are submited at higher levels of stress than usual and the informations obtained are utilized to inference on the reliability of the product, under normal operating conditions. A practical problem, refers to the accuracy of inferences obtained by asymptotic normal approximation of the maximum likelihood estimator, when the sample size is small or moderate. In this dissertation are described the e¤ects of several reparametrizations on the accuracy of the interval estimation of the parameter of interest, here represented by the mean lifetime. The idea is to obtain a parametrization in order to have independent maximum likelihood estimates with good asymptotic normal approximation. A simulation study presents the coverage probability of the con dence intervals when only small or moderate size datasets are available. The e¤ect of the presence of censoring was also investigated in the simulation study. The methodology is illustrated on a real dataset of an accelerated life test at pressurized containers of Kevlan/Epoxy 49. Under the bayesian perspective, Markov Chain Monte Carlo methods are proposed to evaluate the reliability of products. The e¤ect of reparametrization on convergency of the chains is studied. / Testes de vida acelerados são frequentemente utilizados em experimentos industriais para obter medidas sobre a con abilidade de produtos. Nestes testes, as unidades são submetidas à níveis de estresse mais altos que os usuais e as informações obtidas são utilizadas para inferir sobre a con abilidade dos produtos, em condições normais de operação. Um problema prático, refere-se à precisão de inferências obtidas por aproximação normal assintótica dos estimadores de máxima verossimilhança, quando o tamanho da amostra é pequeno ou moderado. Nesta dissertação são descritos os efeitos de algumas reparametrizações na precisão da estimação intervalar do parâmetro de interesse, aqui representado pelo tempo médio de falha. O interesse é obter uma parametrização que proporcione estimativas de máxima verossimilhança independentes com boa aproximação normal assintótica. Um estudo de simulação apresenta a probabilidade de cobertura dos intervalos de con ança quando somente pequenos ou moderados tamanhos de conjuntos de dados são considerados. O efeito da presença de censura também foi investigado no estudo de simulação. A metodologia é ilustrada com dados reais de um teste de sobrevivência acelerado com containers pressurizados de Kevlan/Epoxy 49. Sob o enfoque Bayesiano, métodos Markov Chain Monte Carlo são propostos para avaliar a con abilidade das unidades. O efeito da reparametrização na convergência das cadeias é estudado.
|
214 |
Presença de dados missing em modelos de regressão logísticaFerreira, Natália Manduca 05 September 2008 (has links)
Made available in DSpace on 2016-06-02T20:06:02Z (GMT). No. of bitstreams: 1
2299.pdf: 552812 bytes, checksum: 2850eae9547732d0f7921feb333884a5 (MD5)
Previous issue date: 2008-09-05 / In this work we present a detailed study of the logistic regression model with missing data in the independent variables. Several techniques are considered such as Complete Case, Mean Imputation and Corrected Complete Case. We present a new estimator, denoted EMVGM, given by the combination between the Complete Case estimator and the ML-estimator with the use of Gaussian quadrature. A simulation study is carried out to evaluate the performance of the ML-estimators obtained in each technique above mentioned. In general, the alternative estimador, EMVGM, presents a better performance taking into account the variance, the bias and the mean quadratic error. / Neste trabalho apresentamos um estudo detalhado do modelo de regressão logística na presença de valores missing nas covariáveis considerando as técnicas Caso Completo, Imputação pela Média e Caso Completo Corrigido. Um novo método, denotado EMVGM, dado pela combinação entre os estimadores de Caso Completo e os estimadores obtidos via Máxima Verossimilhança com uso da Quadratura Gaussiana, é sugerido. No desenvolvimento do estudo são realizadas simulações para a verificação do desempenho dos estimadores de máxima verossimilhança obtidos em cada técnica citada acima. A avaliação mostra que a qualidade dos parâmetros estimados obtidos por meio de cada técnica varia de acordo com o tamanho da amostra e com o número de dados missing
e que, em geral, o estimador sugerido, EMVGM, apresenta os melhores estimadores levando em conta as métricas variância estimada, vício estimado e erro quadrático médio estimado.
|
215 |
Seleção de modelos de tempos com longa-duração para dados de finançasGranzotto, Daniele Cristina Tita 22 February 2008 (has links)
Made available in DSpace on 2016-06-02T20:06:02Z (GMT). No. of bitstreams: 1
2168.pdf: 2430677 bytes, checksum: b8736c04a1812cc46846524a7e5aec92 (MD5)
Previous issue date: 2008-02-22 / Financiadora de Estudos e Projetos / Os modelos de análise de sobrevivência com fração de cura incorporam a heterogeneidade de duas populações (suscept´ıveis e imunes ao evento de interesse) e são
conhecidos na literatura como modelos de longa-duração. Com o objetivo de exemplificar a aplicabilidade dos modelos de longa-duração em dados da área de finanças, trabalhou-se com o modelo proposto por Berckson e Gage usando-se para isto os modelosWeibull e log-logístico. Estudou-se a adequabilidade dos modelos e métodos para seleção e verificação de ajuste. Um estudo de simulação foi realizado com o propósito de testar a medida de distância entre curvas como alternativas às métricas usuais e também verificar o comportamento destas métricas em diferentes situações
de percentuais de censura e tamanhos de amostras. Neste estudo verificou-se que, uma métrica simples como a medida de distância entre curvas, é capaz de selecionar o modelo mais apropriado aos dados na presença de longa-duração e grandes carteiras de clientes.
|
216 |
Uso de métodos clássicos e bayesianos em modelos de regressão betaReitman, Diomedes Pael 18 May 2007 (has links)
Made available in DSpace on 2016-06-02T20:06:03Z (GMT). No. of bitstreams: 1
1439.pdf: 2669525 bytes, checksum: 610b8a21f9390e878877d6a634cd8873 (MD5)
Previous issue date: 2007-05-18 / This work involves a study of a regression model appropriated for situations which the response variable is measured in a continuous scale in the (0, 1) interval, as, for instance, taxes or proportions. The developed inferences were based on the Classic and Bayesian methodology. A discussion about the application of the beta regression model is presented. / Este trabalho compreende um estudo de um modelo de Regressão Beta adequado para situações em que a variável resposta é medida de forma contínua no intervalo (0, 1) como, por exemplo, dados de taxas ou proporções. As inferências desenvolvidas foram baseadas nas metodologias Clássica e Bayesiana. É apresentada uma discussão ampla sobre a aplicação do modelo de regressão beta a conjuntos de dados reais, o caso Charter Schools.
|
217 |
Análise de referência Bayesiana para o modelo Weibull na aplicação de riscos competitivosMartins, Camila Bertini 30 January 2009 (has links)
Made available in DSpace on 2016-06-02T20:06:03Z (GMT). No. of bitstreams: 1
2312.pdf: 3218966 bytes, checksum: 1a1fbdff559e9170510e381fd4af4328 (MD5)
Previous issue date: 2009-01-30 / Universidade Federal de Minas Gerais / There are situations where various risk factors of failure are present, in the same time, in the life of system. For this reason we say that these factors are competing to cause the system failure. However, only one of these competitors is responsible for the system failure. The failure behavior of one system is, in most times, represented for its failure rate, which may be increasing, decreasing, remain constant or be combinations of these over time. Therefore it is desirable to use a probabilistic model that only with changes in the values of the parameters representing each of these situations. In this work we studied from the perspective of Bayesian reference analysis to the application of competitive risks under the Weibull model due to high flexibility of this model. The reference analysis is a method to produce Bayesian inferential statements which only depend on the assumed model and the available data (Bernardo, 1979). The goal is to find a specific joint reference prior function for all the unknown parameters of Weibull model in the application of competitive risks and a marginal reference posterior to the parameters of interest, which is always dominated by the observed data. The reference posterior distributions are obtained through the use of the Bayes theorem with the reference prior function that can be used to point estimates and tests of hypotheses, providing a unified set of Bayesian objective solutions for our problem. / H´a situa¸c oes em que existem diversos fatores de risco de falha presentes ao mesmo tempo na vida de um sistema. Por essa raz ao, dizemos que esses fatores est ao competindo para provocar a falha do mesmo. Entretanto, apenas um desses competidores ´e o respons´avel por determinada falha. O comportamento dessa falha ´e, na maioria das vezes, representado pela sua taxa de falha, que pode ser crescente, decrescente, constante ou fruto de suas combina¸c oes ao longo do tempo. Assim, ´e desej´avel o uso de um modelo probabil´ıstico que represente cada uma dessas situa¸c oes, apenas com mudan¸cas nos valores dos seus par ametros. Neste trabalho, estudamos, sob a perspectiva de an´alise de refer encia Bayesiana, a aplica¸c ao de riscos competitivos a partir do modeloWeibull, considerado bastante flex´ıvel. A an´alise de refer encia Bayesiana ´e um m´etodo de produzir afirma¸c oes inferenciais que dependem apenas do modelo assumido e dos dados observados (Bernardo, 1979). O objetivo ´e encontrar uma espec´ıfica fun¸c ao a priori de refer encia conjunta para os par ametros desconhecidos do modelo Weibull na aplica¸c ao de riscos competitivos e uma distribui¸c ao a posteriori de refer encia marginal para os par ametros de interesse, a qual ser´a dominada pelos dados observados. As distribui¸c oes a posteriori de refer encia s ao obtidas atrav´es do uso formal do teorema de Bayes com a fun¸c ao a priori de refer encia, podendo ser utilizadas para estima¸c oes pontuais e testes de hip´oteses, proporcionando um conjunto unificado de solu¸c oes Bayesianas objetivas para o nosso problema.
|
218 |
Modelagem de partição bayesiana para dados de sobrevivência de longa duraçãoGonzales, Jhon Franky Bernedo 27 November 2009 (has links)
Made available in DSpace on 2016-06-02T20:06:03Z (GMT). No. of bitstreams: 1
2717.pdf: 1036198 bytes, checksum: 1ebaa6889e2e06b8855d55db6f41cfc0 (MD5)
Previous issue date: 2009-11-27 / Financiadora de Estudos e Projetos / In this work we present a bayesian approach for the survival model with cure rate in the presence of covariates. In this perspective, the modelling is a direct extension of the long-term model of (Chen et al., 1999). This model is considered flexible in the sense that the effects of the covariates are measured locally using the bayesian partition model developed by Holmes et al. (1999). The bayesian partition model is a generic approach to problems of classification and regression where the space of covariates is divided in disjoint regions defined by a structure of tessellation. The extension to modelling local maintains the structure of the proportional hazards model that it is intrinsic of the long-term model(promotion time) (Rodrigues et al., 2009a). Application of this theory appears in several areas, for example in finance, biology, engineering, economics and medicine. We present a simulation study and apply the methodology to a set of data on the clinical studies. / Neste trabalho apresentamos uma abordagem bayesiana para modelos de sobrevivência com fração de cura na presença de covariáveis. Nesta perspectiva, a modelagem é uma extensão direta do modelo de longa duração (Chen et al., 1999). Este modelo é considerado flexível no sentido de que os efeitos das covariáveis são medidos localmente, utilizando o modelo de partição bayesiana desenvolvido por Holmes et al. (1999). O modelo de partição bayesiana é uma abordagem genérica para problemas de classificação e regressão, em que o espaço das covariáveis é dividido em regiões disjuntas definidas por uma estrutura de tesselação. A extensão para modelagem local mantém a estrutura de riscos proporcionais, que é intrínseca ao modelo de longa duração (tempo de promoção) (Rodrigues et al., 2009a). Aplicações desta teoria aparecem em várias áreas, como por exemplo, em Finanças, Biologia, Engenharia, Economia e Medicina. Neste trabalho, apresentamos um estudo de simulação e aplicamos a metodologia a um conjunto de dados na área de estudos clínicos.
|
219 |
Modelos de regressão PLS com erros heteroscedásticosMorellato, Saulo Almeida 26 January 2010 (has links)
Made available in DSpace on 2016-06-02T20:06:04Z (GMT). No. of bitstreams: 1
2781.pdf: 541826 bytes, checksum: d2aa406e93853dc3fa06d57075822d91 (MD5)
Previous issue date: 2010-01-26 / Financiadora de Estudos e Projetos / Two problems related to Partial Least Squares method are considered in this work. Heteroscedastic errors and an asymmetrical error distribution. In the _rst part of this work a methodology is developed which allows, based in PLS methods, to estimate the model parameters in the presence of non-constant error variance. This technique is compared with the usual PLS method which considers homoscedastic erros. The PLS method is an distribution free approach, that is, it does not assume any distribution for the error terms. In order to estimate the heterocedastic structure an probability distribution is attributed to the errors, similar to the idea of Bastien et al: (2005). In this work, it is proposed a class of asymmetric distributions, the asymmetric normal distribution, presented in Azzalini (1985), which includes the normal distribution as a particular case. For the heteroscedasticity detection is proposed adaptations of the White test, the Goldfeld-Quandt test and an test proposed by Xei et al: (2009), which is used for testing the homogeneity of the scale parameter and/or signi_cance of autocorrelation in skew-normal nonlinear regression model. The test methods are illustrated with two numerical examples. All the methods present in the work are illustrated with simulated and real datasets. / Este trabalho aborda dois problemas relacionados aos modelos de regressão por mínimos quadrados parciais (Partial Least Squares, PLS): erros heteroscedásticos, ou seja, erros com variância não constante, e a assimetria na distribuição dos erros. No método de regressão PLS uma das suposições básicas é a homocesdasticidade dos erros. Quando isso não ocorre, uma alternativa é estimar a estrutura heteroscedástica dos mesmos. Na primeira parte deste trabalho é apresentada uma técnica, baseada em PLS, que permite estimar os parâmetros do modelo de regressão linear levando em consideração a presença de heteroscedasticidade dos erros. Esta técnica é comparada com o método PLS usual na estimação em modelos com erros heteroscedásticos. O método de regressão PLS é uma abordagem livre de distribuição, ou seja, não assume uma distribuição para os erros. Para a estimação da estrutura heteroscedástica atribuimos uma distribuição aos erros. A idéia é a mesma utilizada por Bastien et al: (2005). Em geral, a análise estatística para o estudo de dados contínuos tem sido desenvolvida em grande parte com base no modelo normal. Dessa forma, esta distribuição seria a escolha comum para modelar os erros, a _m de estimar a heteroscedasticidade. Entretanto, em muitas situações práticas essa suposição de normalidade pode nos levar a inferências pouco apropriadas sobre os parâmetros de interesse. Neste trabalho, pretendemos _exibilizar essa suposição de normalidade, dispondo de uma classe de distribuições assimétricas proposta por Azzalini (1985), que inclui a distribuição normal como um caso particular, a distribuição normal assimétrica. Para a detecção da heteroscedasticidade nos erros foram propostas adaptações de testes como o teste de White e o teste de Goldfeld-Quandt para erros normais; e testes escore para homogeneidade dos parâmetros de escala e assimetria da distribuição normal assimétrica, proposto por Xei et al: (2009). Todos os métodos decritos no trabalho são ilustrados com dados simulados e reais.
|
220 |
Modelos estatísticos para LGD : uma visão clássica e bayesianaVarga, Maria Clara Mecatte 28 March 2011 (has links)
Made available in DSpace on 2016-06-02T20:06:05Z (GMT). No. of bitstreams: 1
3715.pdf: 795641 bytes, checksum: 715aa7baebc9b8af84d099eb9c08d3dd (MD5)
Previous issue date: 2011-03-28 / Financiadora de Estudos e Projetos / Every day in financial institution is common to nd customers who are unable to honor their commitments. When this occurs we say that the individual is in default. In a possible economic downturn the portfolio could su_er losses due to excessive default clients and high loss rates. At this stage it is essential that financial institutions have a capital reserve to absorb this potential loss. This reserve is known as economic capital. We examined four different models, Normal, Log-Normal, Logit-Normal and Beta Regression, used to determine the individual loss rate, since the client is in default, also known as LGD (Loss Given Default). Such models are used to determine the economic capital. In the models, both the default and LGD depend on a single systematic risk factor, which describes the state of the economy. This means that we considered that the event of default and LGD are correlated. We describe in detail for the four models, two ways of calculating economic capital, using the asymptotic approximation of the distribution of loss rate and the normal approximation. Through a simulation study, we compared the different estimates of economic capital. A bayesian approach to the Beta Regression model is developed modeling mean and dispersion parameter jointly. / No dia-a-dia de uma instituição financeira é comum a existência de clientes que não conseguem honrar seus compromissos. Quando isso ocorre dizemos que o individuo entrou em default. Em uma eventual desaceleração econômica a carteira pode sofrer perdas devido ao excesso de cliente em default e _as altas taxas de perdas. Neste momento é fundamental que as instituição financeiras tenham um capital em reserva para absorver esta possível perda. Tal reserva _e conhecida como capital econômico. Neste trabalho analisamos quatro diferentes modelos, Normal, Log-Normal, Logit-Normal e Regressão Beta, utilizados para determinar a taxa individual de perda, dado que o cliente está em default, também conhecido como LGD (Loss Given Default). Tais modelos são utilizados na determinação do capital econômico. Nos modelos, ambos o default e a LGD dependem de um fator de risco sistemático simples, o qual descreve o estado da economia. Ou seja, considera-se que o evento de default e a LGD estão correlacionados. Descrevemos detalhadamente, para os quatro modelos, duas formas de calcular o capital econômico, utilizando a aproximação assintótica da distribuição da taxa de perda e a aproximação normal. Através de um estudo de simulação comparamos as estimativas dos diferentes capitais econômicos. Uma abordagem bayesiana para o modelo de Regressão Beta _e desenvolvida modelando conjuntamente a média e o parâmetro de dispersão.
|
Page generated in 0.0694 seconds