• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 358
  • 13
  • Tagged with
  • 371
  • 371
  • 358
  • 358
  • 358
  • 130
  • 86
  • 71
  • 66
  • 66
  • 66
  • 60
  • 50
  • 48
  • 46
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
241

Multivariate Copula-based SUR Tobit Models : a modified inference function for margins and interval estimation

Silva, Paulo Henrique Ferreira da 30 September 2015 (has links)
Submitted by Daniele Amaral (daniee_ni@hotmail.com) on 2016-09-14T18:49:08Z No. of bitstreams: 1 TesePHFS.pdf: 1284969 bytes, checksum: 4ebcbf7e8a84023d87dab3c54c19f103 (MD5) / Approved for entry into archive by Marina Freitas (marinapf@ufscar.br) on 2016-09-16T19:48:17Z (GMT) No. of bitstreams: 1 TesePHFS.pdf: 1284969 bytes, checksum: 4ebcbf7e8a84023d87dab3c54c19f103 (MD5) / Approved for entry into archive by Marina Freitas (marinapf@ufscar.br) on 2016-09-16T19:48:23Z (GMT) No. of bitstreams: 1 TesePHFS.pdf: 1284969 bytes, checksum: 4ebcbf7e8a84023d87dab3c54c19f103 (MD5) / Made available in DSpace on 2016-09-16T19:48:28Z (GMT). No. of bitstreams: 1 TesePHFS.pdf: 1284969 bytes, checksum: 4ebcbf7e8a84023d87dab3c54c19f103 (MD5) Previous issue date: 2015-09-30 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / In this thesis, we extend the analysis of multivariate Seemingly Unrelated Regression (SUR) Tobit models by modeling their nonlinear dependence structures through copulas. The capability in coupling together the diferent - and possibly non-normal - marginal distributions allows the exible modeling for the SUR Tobit models. In addition, the ability to capture the tail dependence of the SUR Tobit models where some data are censored (e.g., in econometric analysis, clinical essays, wide range of political and social phenomena, among others, data are commonly left-censored at zero point, or right-censored at a point d > 0) is another useful feature of copulas. Our study proposes a modified version of the (classical) Inference Function for Margins (IFM) method by Joe & Xu (1996), which we refer to as MIFM method, to obtain the (point) estimates of the marginal and copula association parameters. More specifically, we use a (frequentist) data augmentation technique at the second stage of the IFM method (the first stage of the MIFM method is equivalent to the first stage of the IFM method) to generate the censored observations and then estimate the copula parameter. This procedure (data augmentation and copula parameter estimation) is repeated until convergence. Such modification at the second stage of the usual method is justified in order to obtain continuous marginal distributions, which ensures the uniqueness of the resulting copula, as stated by Sklar (1959)'s theorem; and also to provide an unbiased estimate of the copula association parameter (the IFM method provides a biased estimate of the copula parameter in the presence of censored observations in the margins). Since the usual asymptotic approach, that is the computation of the asymptotic covariance matrix of the parameter estimates, is troublesome in this case, we also propose the use of resampling procedures (bootstrap methods, like standard normal and percentile by Efron & Tibshirani (1993), and basic bootstrap by Davison & Hinkley (1997)) to obtain con_dence intervals for the copula-based SUR Tobit model parameters. / Nesta tese de doutorado, consideramos os chamados modelos SUR (da expressão Seemingly Unrelated Regression) Tobit multivariados e estendemos a análise de tais modelos ao empregar funções de cópula para modelar estruturas com dependência não linear. As cópulas, dentre outras características, possuem a importante habilidade (vantagem) de capturar/modelar a dependência na(s) cauda(s) do modelo SUR Tobit em que alguns dados são censurados (por exemplo, em análise econométrica, ensaios clínicos e em ampla gama de fenômenos políticos e sociais, dentre outros, os dados são geralmente censurados à esquerda no ponto zero, ou à direita em um ponto d > 0 qualquer). Neste trabalho, propomos uma versão modificada do método clássico da Inferência para as Marginais (IFM, da expressão Inference Function for Margins), originalmente proposto por Joe & Xu (1996), a qual chamamos de MIFM, para estimação (pontual) dos parâmetros do modelo SUR Tobit multivariado baseado em cópula. Mais especificamente, empregamos uma técnica (frequentista) de ampliação de dados no segundo estágio do método IFM (o primeiro estágio do método MIFM é igual ao primeiro estágio do método IFM) para gerar as observações censuradas e, então, estimamos o parâmetro de dependência da cópula. Repetimos tal procedimento (ampliação de dados e estimação do parâmetro da cópula) até obter convergência. As razões para esta modificação no segundo estágio do método usual, são as seguintes: primeiro, construir/obter distribuições marginais contínuas, atendendo, então, ao teorema de unicidade da cópula resultante de Sklar (Sklar, 1959); e segundo, fornecer uma estimativa não viesada para o parâmetro da cópula (uma vez que o método IFM produz estimativas viesadas do parâmetro da cópula na presença de observações censuradas nas marginais). Tendo em vista a dificuldade adicional em calcular/obter a matriz de covariâncias assintótica das estimativas dos parâmetros, também propomos o uso de procedimentos de reamostragem (métodos bootstrap, tais como normal padrão e percentil, propostos por Efron & Tibshirani (1993), e básico, proposto por Davison & Hinkley (1997)) para a construção de intervalos de confiança para os parâmetros do modelo SUR Tobit baseado em cópula.
242

Novas distribuições em análise de sobrevivência envolvendo composição e correlação dentre as causas competitivas

Marchi, Vitor Alex Alves de 14 August 2015 (has links)
Submitted by Daniele Amaral (daniee_ni@hotmail.com) on 2016-09-14T19:37:01Z No. of bitstreams: 1 TeseVAAM.pdf: 2213045 bytes, checksum: 7a27583f2dfac9c11da36b29050f4fe4 (MD5) / Approved for entry into archive by Marina Freitas (marinapf@ufscar.br) on 2016-09-16T19:48:45Z (GMT) No. of bitstreams: 1 TeseVAAM.pdf: 2213045 bytes, checksum: 7a27583f2dfac9c11da36b29050f4fe4 (MD5) / Approved for entry into archive by Marina Freitas (marinapf@ufscar.br) on 2016-09-16T19:48:49Z (GMT) No. of bitstreams: 1 TeseVAAM.pdf: 2213045 bytes, checksum: 7a27583f2dfac9c11da36b29050f4fe4 (MD5) / Made available in DSpace on 2016-09-16T19:48:53Z (GMT). No. of bitstreams: 1 TeseVAAM.pdf: 2213045 bytes, checksum: 7a27583f2dfac9c11da36b29050f4fe4 (MD5) Previous issue date: 2015-08-14 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / In this thesis, we construct distribution functions for analysis of lifetimes with the focus in scenes of latent risks inspired in models of the carcinogenesis process. Some properties of these distribution functions are presented and discussed as well as the viability front the models in literature. In some cases the models were describes as long-time model where a part of population presents infinite lifetime, i.e, on the population in study some objects are not susceptible (or immunes) for the event of interest. Some models present complexity in the maximization and was necessary the implementation of routines of maximization that allows us the control some variables that are not offered in routines in tradicional programs. The implemented routine is available in appendix. / Nesta tese apresentamos novas distribuições para o estudo do tempo de vida com foco no cenário de riscos latentes com interpretações das construções dos modelos direcionados com os estudos da carcinogênese. Várias propriedades das distribuições são apresentadas e discutidas bem como a viabilidade destes novos modelos frente a vários modelos na literatura. Alguns dos modelos são estendidos para modelos de longa duração, que são modelos que permitem que os tempos de vida sejam infinitos ou em outras palavras que existem indivíduos não suscetíveis (ou curados) ao evento de interesse. Pela complexidade de vários modelos obtidos foi necessário a implementação de rotinas de maximização para o controle de variáveis que não são oferecidos nas rotinas de maximização em programas tradicionais e esta rotina está disponibilizada em anexo.
243

Modelagem de dados de sistemas reparáveis com fragilidade / Modeling repairable systems data with fragility

Feitosa, Cirdêmia Costa 15 September 2015 (has links)
Submitted by Daniele Amaral (daniee_ni@hotmail.com) on 2016-09-15T15:15:11Z No. of bitstreams: 1 DissCCF.pdf: 1472861 bytes, checksum: 937810926b98a08677085a559d13aec9 (MD5) / Approved for entry into archive by Marina Freitas (marinapf@ufscar.br) on 2016-09-16T19:51:30Z (GMT) No. of bitstreams: 1 DissCCF.pdf: 1472861 bytes, checksum: 937810926b98a08677085a559d13aec9 (MD5) / Approved for entry into archive by Marina Freitas (marinapf@ufscar.br) on 2016-09-16T19:51:36Z (GMT) No. of bitstreams: 1 DissCCF.pdf: 1472861 bytes, checksum: 937810926b98a08677085a559d13aec9 (MD5) / Made available in DSpace on 2016-09-16T19:51:41Z (GMT). No. of bitstreams: 1 DissCCF.pdf: 1472861 bytes, checksum: 937810926b98a08677085a559d13aec9 (MD5) Previous issue date: 2015-09-15 / Não recebi financiamento / The usual models in repairable systems are minimal, perfect and imperfect repair, and, in the literature, the minimum repair model is the most explored. In repairable systems it is common that the same type of components are studied and in these cases is relevant to verify the heterogeneity between them. According to Vaupel et al. (1979), the standard methods for analysis of repairable systems data ignore the heterogeneity not observed and in some cases this should be considered. Such variability can be estimated from frailty models, characterized by using a random e ect. It is proposed that the minimum repair model with frailty in order to estimate the heterogeneity not observed between systems. For this model it was conducted a simulation study in order to analyze the frequentist properties of the estimation process. The application of a real data set showed the applicability of the proposed model, in which the estimation of the parameters were determined from maximum likelihood and Bayesian approaches. / Os modelos de sistemas reparáveis usuais são os de reparo mí nimo, perfeito e imperfeito, sendo que, na literatura, o modelo de reparo mí nimo e o mais explorado. Em sistemas reparáveis e comum que componentes do mesmo tipo sejam estudados e nestes casos é relevante verifi car a heterogeneidade entre eles. Segundo Vaupel et al. (1979), os métodos padrões em análise de dados de sistemas reparáveis ignoram a heterogeneidade não observada e em alguns casos esta deveria ser considerada. Tal variabilidade pode ser estimada a partir dos modelos de fragilidade, caracterizados pela utilização de um efeito aleat ório. Propõe-se o modelo de reparo mí nimo com fragilidade, a fi m de estimar a heterogeneidade não observada entre sistemas. Para este modelo foi realizado um estudo de simula ção com o objetivo de analisar as propriedades frequentistas do processo de estimação. A aplicação em um conjunto de dados reais mostrou a aplicabilidade do modelo proposto, em que a estima ção dos parâmetros foram determinadas a partir das abordagens de m áxima verossimilhan ça e Bayesiana.
244

Modelagem de dados de sobrevivência com eventos recorrentes via fragilidade discreta

Macera, Márcia Aparecida Centanin 02 September 2015 (has links)
Submitted by Izabel Franco (izabel-franco@ufscar.br) on 2016-09-21T19:45:33Z No. of bitstreams: 1 TeseMACM.pdf: 1006551 bytes, checksum: 49a419a1f18e05827f34631564fe431b (MD5) / Approved for entry into archive by Ronildo Prado (ronisp@ufscar.br) on 2016-09-28T18:19:58Z (GMT) No. of bitstreams: 1 TeseMACM.pdf: 1006551 bytes, checksum: 49a419a1f18e05827f34631564fe431b (MD5) / Approved for entry into archive by Ronildo Prado (ronisp@ufscar.br) on 2016-09-28T18:20:07Z (GMT) No. of bitstreams: 1 TeseMACM.pdf: 1006551 bytes, checksum: 49a419a1f18e05827f34631564fe431b (MD5) / Made available in DSpace on 2016-09-28T18:26:37Z (GMT). No. of bitstreams: 1 TeseMACM.pdf: 1006551 bytes, checksum: 49a419a1f18e05827f34631564fe431b (MD5) Previous issue date: 2015-09-02 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / In this thesis it is proposed alternative methodologies and extensions on models for recurrent event data. Speci cally, we propose a model in which the distribution of the gap time is easily derived from the marginal rate function providing more direct practical interpretation besides to consider the relation between successive gap times for each individual. Another model that extends the frailty models for recurrent event data to allow a Bernoulli, Geometric, Poisson, Discrete Weibull, Negative Binomial or other discrete distribution of the frailty variable has also been proposed. The parameter estimation procedure for both models was conducted considering maximum likelihood methods. Simulation studies were performed in order to examine some frequentist properties of the estimation method and evaluate the maximum likelihood estimates quality. Real data applications demonstrated the use of the proposed models. Overall, the proposed models were suitable for analyzing recurrent event data. / Neste trabalho propomos metodologias alternativas e extensões em modelos para dados de eventos recorrentes. Especificamente, propomos um modelo em que a distribuição condicional do tempo entre sucessivas ocorrências de um evento recorrente e derivada facilmente da função de taxa marginal, proporcionando interpretações praticas mais diretas, além de considerar a relação entre as sucessivas ocorrências para cada indivíduo. O outro modelo, que estende os modelos de fragilidade para dados de eventos recorrentes permitindo o uso de distribuições como Bernoulli, Geométrica, Poisson, Weibull Discreta, Binomial Negativa ou outra distribuição discreta para a variável de fragilidade, também foi proposto. O procedimento de estimação dos parâmetros para ambos modelos foi realizado considerando-se o método de máxima verossimilhança. Estudos de simulação foram realizados com o objetivo de analisar algumas propriedades frequentistas do método de estimação e avaliar a qualidade das estimativas de máxima verossimilhança. Aplicações a conjuntos de dados reais mostraram a aplicabilidade dos modelos propostos. De modo geral, os modelos propostos mostraram-se adequados para a modelagem de dados de eventos recorrentes.
245

Comparação de métodos de estimação para problemas com colinearidade e/ou alta dimensionalidade (p > n)

Casagrande, Marcelo Henrique 29 April 2016 (has links)
Submitted by Bruna Rodrigues (bruna92rodrigues@yahoo.com.br) on 2016-10-06T11:48:12Z No. of bitstreams: 1 DissMHC.pdf: 1077783 bytes, checksum: c81f777131e6de8fb219b8c34c4337df (MD5) / Approved for entry into archive by Marina Freitas (marinapf@ufscar.br) on 2016-10-20T13:58:41Z (GMT) No. of bitstreams: 1 DissMHC.pdf: 1077783 bytes, checksum: c81f777131e6de8fb219b8c34c4337df (MD5) / Approved for entry into archive by Marina Freitas (marinapf@ufscar.br) on 2016-10-20T13:58:47Z (GMT) No. of bitstreams: 1 DissMHC.pdf: 1077783 bytes, checksum: c81f777131e6de8fb219b8c34c4337df (MD5) / Made available in DSpace on 2016-10-20T13:58:52Z (GMT). No. of bitstreams: 1 DissMHC.pdf: 1077783 bytes, checksum: c81f777131e6de8fb219b8c34c4337df (MD5) Previous issue date: 2016-04-29 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / This paper presents a comparative study of the predictive power of four suitable regression methods for situations in which data, arranged in the planning matrix, are very poorly multicolinearity and / or high dimensionality, wherein the number of covariates is greater the number of observations. In this study, the methods discussed are: principal component regression, partial least squares regression, ridge regression and LASSO. The work includes simulations, wherein the predictive power of each of the techniques is evaluated for di erent scenarios de ned by the number of covariates, sample size and quantity and intensity ratios (e ects) signi cant, highlighting the main di erences between the methods and allowing for the creating a guide for the user to choose which method to use based on some prior knowledge that it may have. An application on real data (not simulated) is also addressed. / Este trabalho apresenta um estudo comparativo do poder de predi c~ao de quatro m etodos de regress~ao adequados para situa c~oes nas quais os dados, dispostos na matriz de planejamento, apresentam s erios problemas de multicolinearidade e/ou de alta dimensionalidade, em que o n umero de covari aveis e maior do que o n umero de observa c~oes. No presente trabalho, os m etodos abordados s~ao: regress~ao por componentes principais, regress~ao por m nimos quadrados parciais, regress~ao ridge e LASSO. O trabalho engloba simula c~oes, em que o poder preditivo de cada uma das t ecnicas e avaliado para diferentes cen arios de nidos por n umero de covari aveis, tamanho de amostra e quantidade e intensidade de coe cientes (efeitos) signi cativos, destacando as principais diferen cas entre os m etodos e possibilitando a cria c~ao de um guia para que o usu ario possa escolher qual metodologia usar com base em algum conhecimento pr evio que o mesmo possa ter. Uma aplica c~ao em dados reais (n~ao simulados) tamb em e abordada
246

Efficient Bayesian methods for mixture models with genetic applications

Zuanetti, Daiane Aparecida 14 December 2016 (has links)
Submitted by Alison Vanceto (alison-vanceto@hotmail.com) on 2017-01-16T12:38:12Z No. of bitstreams: 1 TeseDAZ.pdf: 20535130 bytes, checksum: 82585444ba6f0568a20adac88fdfc626 (MD5) / Approved for entry into archive by Marina Freitas (marinapf@ufscar.br) on 2017-01-17T11:47:35Z (GMT) No. of bitstreams: 1 TeseDAZ.pdf: 20535130 bytes, checksum: 82585444ba6f0568a20adac88fdfc626 (MD5) / Approved for entry into archive by Marina Freitas (marinapf@ufscar.br) on 2017-01-17T11:47:42Z (GMT) No. of bitstreams: 1 TeseDAZ.pdf: 20535130 bytes, checksum: 82585444ba6f0568a20adac88fdfc626 (MD5) / Made available in DSpace on 2017-01-17T11:47:50Z (GMT). No. of bitstreams: 1 TeseDAZ.pdf: 20535130 bytes, checksum: 82585444ba6f0568a20adac88fdfc626 (MD5) Previous issue date: 2016-12-14 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / We propose Bayesian methods for selecting and estimating di erent types of mixture models which are widely used in Genetics and Molecular Biology. We speci cally propose data-driven selection and estimation methods for a generalized mixture model, which accommodates the usual (independent) and the rst-order (dependent) models in one framework, and QTL (quantitative trait locus) mapping models for independent and pedigree data. For clustering genes through a mixture model, we propose three nonparametric Bayesian methods: a marginal nested Dirichlet process (NDP), which is able to cluster distributions and, a predictive recursion clustering scheme (PRC) and a subset nonparametric Bayesian (SNOB) clustering algorithm for clustering big data. We analyze and compare the performance of the proposed methods and traditional procedures of selection, estimation and clustering in simulated and real data sets. The proposed methods are more exible, improve the convergence of the algorithms and provide more accurate estimates in many situations. In addition, we propose methods for predicting nonobservable QTLs genotypes and missing parents and improve the Mendelian probability of inheritance of nonfounder genotype using conditional independence structures. We also suggest applying diagnostic measures to check the goodness of t of QTL mapping models. / N os propomos métodos Bayesianos para selecionar e estimar diferentes tipos de modelos de mistura que são amplamente utilizados em Genética e Biologia Molecular. Especificamente, propomos métodos direcionados pelos dados para selecionar e estimar um modelo de mistura generalizado, que descreve o modelo de mistura usual (independente) e o de primeira ordem numa mesma estrutura, e modelos de mapeamento de QTL com dados independentes e familiares. Para agrupar genes através de modelos de mistura, nós propomos três métodos Bayesianos não-paramétricos: o processo de Dirichlet aninhado que possibilita agrupamento de distribuições e, um algoritmo preditivo recursivo e outro Bayesiano nãoparamétrico exato para agrupar dados de alta dimensão. Analisamos e comparamos o desempenho dos métodos propostos e dos procedimentos tradicionais de seleção e estimação de modelos e agrupamento de dados em conjuntos de dados simulados e reais. Os métodos propostos são mais extáveis, aprimoram a convergência dos algoritmos e apresentam estimativas mais precisas em muitas situações. Além disso, nós propomos procedimentos para predizer o genótipo não observável dos QTLs e de pais faltantes e melhorar a probabilidade Mendeliana de herança genética do genótipo dos descendentes através da estrutura de independência condicional entre os indivíduos. Também sugerimos aplicar medidas de diagnóstico para verificar a qualidade do ajuste dos modelos de mapeamento de QTLs.
247

Mapas da transmutação : modelagem, propriedades estruturais, estimação e aplicações / Transmutation maps : modeling, structural properties, estimation and applications

Granzotto, Daniele Cristina Tita 05 December 2016 (has links)
Submitted by Alison Vanceto (alison-vanceto@hotmail.com) on 2017-03-07T12:28:13Z No. of bitstreams: 1 TeseDCTG.pdf: 2877933 bytes, checksum: b26c7e73a0952568aa117e1724d1bffa (MD5) / Approved for entry into archive by Ronildo Prado (ronisp@ufscar.br) on 2017-03-20T18:57:09Z (GMT) No. of bitstreams: 1 TeseDCTG.pdf: 2877933 bytes, checksum: b26c7e73a0952568aa117e1724d1bffa (MD5) / Approved for entry into archive by Ronildo Prado (ronisp@ufscar.br) on 2017-03-20T18:57:18Z (GMT) No. of bitstreams: 1 TeseDCTG.pdf: 2877933 bytes, checksum: b26c7e73a0952568aa117e1724d1bffa (MD5) / Made available in DSpace on 2017-03-20T19:10:02Z (GMT). No. of bitstreams: 1 TeseDCTG.pdf: 2877933 bytes, checksum: b26c7e73a0952568aa117e1724d1bffa (MD5) Previous issue date: 2016-12-05 / Não recebi financiamento / Initially, we use the quadratic transmutation maps to compose a new probability model: the transmuted log-logistic distribution. Transmutation maps are a convenient way of constructing new distributions, in particular survival ones. It comprises the functional composition of the cumulative distribution function of one distribution with the inverse cumulative distribution (quantil) function of another. Its comprehensive description of properties, such as moments, quantiles, order statistics etc., along with its survival study and the classical and Bayesian estimation methods, are also part of this work. Focusing on analysis of survival, the study included two practical situations commonly found: the presence of regression variables, through the transmuted log-logistic regression model, and the presence of right censorship. In a second moment, searching for a more exible model than the transmuted, we present its generalization, the transmuted distributions of cubic rank. Using the methodology presented in this rst generalization, two models were considered to compose the new cubic transmuted distributions: the log-logistic and Weibull models. Faced with problems presented in the transmutated class of quadratic and cubic orders (such as the restricted parametric space of the transmutation parameter ), we propose in this work, a new family of distribution. This family, which we call e-transmuted or e-extended, is as simple as the transmuted model, because it includes a single parameter to the base model, but more exible than the class of transmuted models, once the transmuted is a particular case of the proposed family. In addition, the nem family presents important properties such as, orthogonality between the baseline model parameters and the e-transmutation parameter, along with unrestricted parametric space for the ! e-transmutation parameter, which is de ned on the real line. Simulation studies and real data applications were performed for all proposed models and generalizations. / Inicialmente, usamos os mapas de transmutação quadráticos para compor um novo modelo de probabilidade: a distribuição log-logística transmutada. Mapas de transmutação são uma forma conveniente de construção de novas distribuições, em especial de sobrevivência/con abilidade, e compreendem a composição funcional da função de distribuição acumulada e da função de distribuição acumulada inversa (quantil) de um outro modelo. Uma descrição detalhada de suas propriedades, tais como, momentos, quantis, estatística de ordem, dentre outras estatísticas, juntamente com o estudo de sobrevivência e métodos de estimação clássico e Bayesiano, também fazem parte deste trabalho. Focando em análise sobrevivência, incluímos no estudo duas situações práticas comumente encontradas: a presença de variáveis regressoras, através do modelo de regressão transmutado log-logístico, e a presença de censura à direita. Em um segundo momento, buscando um modelo mais exível que o transmutado, apresentamos uma generalização para esta classe de modelos, as distribuições transmutadas de rank cúbico. Usando a metodologia apresentada nesta primeira generalização, dois modelos foram considerados para compor as novas distribuições transmutadas cúbica: os modelos log-logístico e Weibull. Diante de problemas apresentados na classe transmutada de ordens quadrática e cúbica (tal como o espaço paramétrico restrito do parâmetro de transmuta ção ), propomos neste trabalho, uma nova família de distribuição. Esta família, a qual chamamos e-transmutada ou e-extendida, é tão simples quanto o modelo transmutado, por incluir um único parâmetro ao modelo base, porém mais exível do que a classe de modelos transmutados, sendo esta classe um caso particular da família proposta. Além disso, apresenta propriedades importantes, como ortogonalidade entre os parâmetros do modelo base e o parâmetro de e-transmutação, e espaço paramétrico não restrito para o parâmetro de etransmuta ção !, que é de nido em toda reta real. Estudos de simulação e aplicações a dados reais foram realizados para todos os modelos e generalizações propostas.
248

Regressão binária nas abordagens clássica e bayesiana

Fernandes, Amélia Milene Correia 16 December 2016 (has links)
Submitted by Aelson Maciera (aelsoncm@terra.com.br) on 2017-05-23T16:23:56Z No. of bitstreams: 1 DissAMCF.pdf: 1964890 bytes, checksum: 84bcbd06f74840be6fc5f38659c34c07 (MD5) / Approved for entry into archive by Ronildo Prado (ronisp@ufscar.br) on 2017-06-05T19:07:22Z (GMT) No. of bitstreams: 1 DissAMCF.pdf: 1964890 bytes, checksum: 84bcbd06f74840be6fc5f38659c34c07 (MD5) / Approved for entry into archive by Ronildo Prado (ronisp@ufscar.br) on 2017-06-05T19:07:28Z (GMT) No. of bitstreams: 1 DissAMCF.pdf: 1964890 bytes, checksum: 84bcbd06f74840be6fc5f38659c34c07 (MD5) / Made available in DSpace on 2017-06-05T19:18:45Z (GMT). No. of bitstreams: 1 DissAMCF.pdf: 1964890 bytes, checksum: 84bcbd06f74840be6fc5f38659c34c07 (MD5) Previous issue date: 2016-12-16 / Não recebi financiamento / The objective of this work is to study the binary regression model under the frequentist and Bayesian approaches using the probit, logit, log-log complement, Box-Cox transformation and skewprobit as link functions. In the classical approach we presented assumpti- ons and procedures used in the regression modeling. We verified the accuracy of the estimated parameters by building confidence intervals and conducting hypothesis tests. In the Bayesian appro- ach we made a comparative study using two methodologies. For the first methodology, we considered non-informative prior dis- tributions and the Metropolis-Hastings algorithm to estimate the model. In the second methodology we used auxiliary variables to obtain the known a posteriori distribution, allowing the use of the Gibbs Sampler algorithm. However, the introduction of these auxiliary variables can generate correlated values and needs the use of clustering of unknown quantities in blocks to reduce the autocorrelation. In the simulation study we used the AIC and BIC information criteria to select the most appropriate model and we evaluated whether the coverage probabilities of the confidence interval is in agre- ement with that expected by the asymptotic theory. In Bayesian approach we found that the inclusion of auxiliary variables in the model results in a more efficient algoritm according to the MSE, MAPE and SMAPE criteria. In this work we also present applications to two real datasets. The first dataset used is the variation of the Ibovespa and variation of the daily value of the American dollar at the time of closing the 2013 to 2016. The second dataset, used is an educational data set (INEP-2013), where we are interested in studying the factors that infuence the approval of the student. / Este trabalho tem como objetivo estudar o modelo de regressão binária nas abordagens clássica e bayesiana utilizando as funcoes de ligacoes probito, logito, complemento log-log, transformaçao box-cox e probito-assimetrico. Na abordagem clássica apresentamos as suposicoes e o procedimento para ajustar o modelo de regressao e verificamos a precisão dos parâmetros estimados, construindo intervalos de confianca e testes de hipóteses. Enquanto que, na inferência bayesiana fizemos um estudo comparativo utilizando duas metodologias. Na primeira metodologia consideramos densidades a priori nao informativas e utilizamos o algoritmo Metropolis-Hastings para ajustar o modelo. Na segunda metodologia utilizamos variáaveis auxiliares para obter a distribuiçcaão a posteriori conhecida, facilitando a implementacão do algoritmo do Amostrador de Gibbs. No entanto, a introduçao destas variaveis auxiliares podem gerar valores correlacionados, o que leva à necessidade de se utilizar o agrupamento das quantidades desconhecidas em blocos para reduzir a autocorrelaçcãao. Atraves do estudo de simulacao mostramos que na inferência classica podemos usar os critérios AIC e BIC para escolher o melhor modelo e avaliamos se o percentual de cobertura do intervalo de confianca assintotica está de acordo com o esperado na teoria assintática. Na inferência bayesiana constatamos que o uso de va-riaáveis auxiliares resulta em um algoritmo mais eficiente segundo os critérios: erro quadrâtico medio (EQM), erro percentual absoluto medio (MAPE) e erro percentual absoluto medio simetrico (SMAPE). Como ilustração apresentamos duas aplicações com dados reais. Na primeira, consideramos um conjunto de dados da variaçao do Ibovespa e a variacao do valor diário do fechamento da cotacao do dólar no período de 2013 a 2016. Na segunda aplicação, trabalhamos com um conjunto de dados educacionais (INEP-2013), focando nos estudos das variaveis que influenciam a aprovacao do aluno.
249

Estima??o em modelos de tempo de falha acelerado para dados de sobreviv?ncia correlacionados

Santos, Patr?cia Borchardt 01 December 2009 (has links)
Made available in DSpace on 2014-12-17T15:26:38Z (GMT). No. of bitstreams: 1 Patricia Borchardt Santos.pdf: 378137 bytes, checksum: e27ccc5c056aa17d7bd2ca2c8b64458f (MD5) Previous issue date: 2009-12-01 / We presented in this work two methods of estimation for accelerated failure time models with random e_ects to process grouped survival data. The _rst method, which is implemented in software SAS, by NLMIXED procedure, uses an adapted Gauss-Hermite quadrature to determine marginalized likelihood. The second method, implemented in the free software R, is based on the method of penalized likelihood to estimate the parameters of the model. In the _rst case we describe the main theoretical aspects and, in the second, we briey presented the approach adopted with a simulation study to investigate the performance of the method. We realized implement the models using actual data on the time of operation of oil wells from the Potiguar Basin (RN / CE). / Apresentamos neste trabalho dois m?todos de estima??o para modelos de tempo de falha acelerado com efeito aleat?rio para tratar de dados de sobreviv?ncia correlacionados. O primeiro m?todo, que est? implementado no software SAS, atrav?s do procedimento NLMIXED, utiliza a quadratura Gauss-Hermite adaptada para obter a verossimilhan?a marginalizada. O segundo m?todo, implementado no software livre R, est? baseado no m?todo da verossimilhan?a penalizada para estimar os par?metros do modelo. No primeiro caso descrevemos os principais aspectos te?ricos e, no segundo, apresentamos brevemente a abordagem adotada juntamente com um estudo de simula??o para investigar a performance do m?todo. Realizamos uma aplica??o dos modelos usando dados reais sobre o tempo de funcionamento de po?os petrol?feros da Bacia Potiguar (RN/CE).
250

Uma abordagem bayesiana para estudo estatístico e geoestatístico de estimativas de salindade do solo utilizando sensor de indução eletromagnética / A boarding bayesiana for statistical study and geoestaistic of estimates of salinity of the ground using sensory of electromagnetic induction

PESSOA, Antônio Lopes 24 February 2006 (has links)
Submitted by (ana.araujo@ufrpe.br) on 2016-05-20T15:59:30Z No. of bitstreams: 1 Antonio Lopes Pesoa.pdf: 686455 bytes, checksum: 89c64469a23f829cb322108723a916c9 (MD5) / Made available in DSpace on 2016-05-20T15:59:30Z (GMT). No. of bitstreams: 1 Antonio Lopes Pesoa.pdf: 686455 bytes, checksum: 89c64469a23f829cb322108723a916c9 (MD5) Previous issue date: 2006-02-24 / This study analyzed the existing relationship among measurements of soil apparent electrical conductivity in an alluvial valley in the Agreste region of Pernambuco State and its spatial variability in the subsurface. The soil apparent electric conductivity was investigated through an electromagnetic induction EM 38 equipment. The readings have been carried out both in the vertical and horizontal modes. The measurements have been analyzed through the classic descriptive statistics as well as geostatistics and bayesian approach. The statistical analyses had shown that the data of apparent electric conductivity had adjusted to a normal distribution, presenting a high space variability for the horizontal mode and an average space variability for the way of vertical operation. In order to allow the use of the geostatistical methodology, the experimental semivariogram was constructed, and fitted to a theoretical model. Considering the spatial dependence mapping of the salinized areas have been performed. The best theoretical models for the vertical mode and for the horizontal operation were the gaussian model and the exponential model, through the crossed validation and using the Akaike’s Information Criterion .The bayesian approach focused the spatial predictionrelating the method of the maximum likelihood with the functions of prioris distributions for each parameter, considering the uncertainty associated to each one of these distributions. It was verified that the adjusted semivariograms had not presented significant differences in the validation of the geostatistics methodology and in the bayesian approach. / Esta dissertação analisou a relação existente entre medidas de condutividade elétrica aparente de um solo aluvial da região Agreste do Estado de Pernambuco,e a sua variabilidade espacial na camada subsuperficial. A condutividade elétrica aparente do solo foi investigada através de equipamento de indução eletromagnética EM 38. As leituras efetuadas com o EM 38 foram tanto no modo vertical como no modo horizontal. As medidas obtidas em campo foram analisadas através da estatística descritiva clássica, bem como através das metodologias geoestatística e abordagem bayesiana. As análises estatísticas mostraram que os dados de condutividade elétrica aparente se ajustaram a uma distribuição normal a apresentaram uma alta variabilidade espacial para o modo de operação horizontal e uma média variabilidade espacial para o modo de operação vertical. Através da metodologia geoestatística foi construído o semivariograma experimental que, posteriormente, foi ajustado a um modelo teórico. O melhor ajuste de modelo teórico foi obtido, tanto para o modo de operação vertical como para o modo de operação horizontal, para o modelo gaussiano e para o modelo exponencial, efetuada através da validação cruzada edo Critério de Informação de Akaike. A partir da dependência espacial, foi elaborado o mapeamento das áreas salinizadas. A abordagem bayesiana focalizou a predição espacial, relacionando o método da máxima verossimilhança com as funções de distribuições prioris de cada parâmetro, considerando o grau de incerteza associado a cada uma dessas distribuições. Verificou-se que os semivariogramas ajustados não apresentaram diferenças significativas na validação da metodologia geoestatística e na abordagem bayesiana.

Page generated in 0.0417 seconds