241 |
Multivariate Copula-based SUR Tobit Models : a modified inference function for margins and interval estimationSilva, Paulo Henrique Ferreira da 30 September 2015 (has links)
Submitted by Daniele Amaral (daniee_ni@hotmail.com) on 2016-09-14T18:49:08Z
No. of bitstreams: 1
TesePHFS.pdf: 1284969 bytes, checksum: 4ebcbf7e8a84023d87dab3c54c19f103 (MD5) / Approved for entry into archive by Marina Freitas (marinapf@ufscar.br) on 2016-09-16T19:48:17Z (GMT) No. of bitstreams: 1
TesePHFS.pdf: 1284969 bytes, checksum: 4ebcbf7e8a84023d87dab3c54c19f103 (MD5) / Approved for entry into archive by Marina Freitas (marinapf@ufscar.br) on 2016-09-16T19:48:23Z (GMT) No. of bitstreams: 1
TesePHFS.pdf: 1284969 bytes, checksum: 4ebcbf7e8a84023d87dab3c54c19f103 (MD5) / Made available in DSpace on 2016-09-16T19:48:28Z (GMT). No. of bitstreams: 1
TesePHFS.pdf: 1284969 bytes, checksum: 4ebcbf7e8a84023d87dab3c54c19f103 (MD5)
Previous issue date: 2015-09-30 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / In this thesis, we extend the analysis of multivariate Seemingly Unrelated Regression (SUR) Tobit models by modeling their nonlinear dependence structures through copulas. The capability in coupling together the diferent - and possibly non-normal - marginal distributions allows the exible modeling for the SUR Tobit models. In addition, the ability to capture the tail dependence of the SUR Tobit models where some data are censored (e.g., in econometric analysis, clinical essays, wide range of political and social phenomena, among others, data are commonly left-censored at zero point, or right-censored at a point d > 0) is another useful feature of copulas. Our study proposes a modified version of the (classical) Inference Function for Margins (IFM) method by Joe & Xu (1996), which we refer to as MIFM method, to obtain the (point) estimates of the marginal and copula association parameters. More specifically, we use a (frequentist) data augmentation technique at the second stage of the IFM method (the first stage of the MIFM method is equivalent to the first stage of the IFM method) to generate the censored observations and then estimate the copula parameter. This procedure (data augmentation and copula parameter estimation) is repeated until convergence. Such modification at the second stage of the usual method is justified in order to obtain continuous marginal distributions, which ensures the uniqueness of the resulting copula, as stated by Sklar (1959)'s theorem; and also to provide an unbiased estimate of the copula association parameter (the IFM method provides a biased estimate of the copula parameter in the presence of censored observations in the margins). Since the usual asymptotic approach, that is the computation of the asymptotic covariance matrix of the parameter estimates, is troublesome in this case, we also propose the use of resampling procedures (bootstrap methods, like standard normal and percentile by Efron & Tibshirani (1993), and basic bootstrap by Davison & Hinkley (1997)) to obtain con_dence intervals for the copula-based SUR Tobit model parameters. / Nesta tese de doutorado, consideramos os chamados modelos SUR (da expressão Seemingly Unrelated Regression) Tobit multivariados e estendemos a análise de tais modelos ao empregar funções de cópula para modelar estruturas com dependência não linear. As cópulas, dentre outras características, possuem a importante habilidade (vantagem) de capturar/modelar a dependência na(s) cauda(s) do modelo SUR Tobit em que alguns dados são censurados (por exemplo, em análise econométrica, ensaios clínicos e em ampla gama de fenômenos políticos e sociais, dentre outros, os dados são geralmente censurados à esquerda no ponto zero, ou à direita em um ponto d > 0 qualquer). Neste trabalho, propomos uma versão modificada do método clássico da Inferência para as Marginais (IFM, da expressão Inference Function for Margins), originalmente proposto por Joe & Xu (1996), a qual chamamos de MIFM, para estimação (pontual) dos parâmetros do modelo SUR Tobit multivariado baseado em cópula. Mais especificamente, empregamos uma técnica (frequentista) de ampliação de dados no segundo estágio do método IFM (o primeiro estágio do método MIFM é igual ao primeiro estágio do método IFM) para gerar as observações censuradas e, então, estimamos o parâmetro de dependência da cópula. Repetimos tal procedimento (ampliação de dados e estimação do parâmetro da cópula) até obter convergência. As razões para esta modificação no segundo estágio do método usual, são as seguintes: primeiro, construir/obter distribuições marginais contínuas, atendendo, então, ao teorema de unicidade da cópula resultante de Sklar (Sklar, 1959); e segundo, fornecer uma estimativa não viesada para o parâmetro da cópula (uma vez que o método IFM produz estimativas viesadas do parâmetro da cópula na presença de observações censuradas nas marginais). Tendo em vista a dificuldade adicional em calcular/obter a matriz de covariâncias assintótica das estimativas dos parâmetros, também propomos o uso de procedimentos de reamostragem (métodos bootstrap, tais como normal padrão e percentil, propostos por Efron & Tibshirani (1993), e básico, proposto por Davison & Hinkley (1997)) para a construção de intervalos de confiança para os parâmetros do modelo SUR Tobit baseado em cópula.
|
242 |
Novas distribuições em análise de sobrevivência envolvendo composição e correlação dentre as causas competitivasMarchi, Vitor Alex Alves de 14 August 2015 (has links)
Submitted by Daniele Amaral (daniee_ni@hotmail.com) on 2016-09-14T19:37:01Z
No. of bitstreams: 1
TeseVAAM.pdf: 2213045 bytes, checksum: 7a27583f2dfac9c11da36b29050f4fe4 (MD5) / Approved for entry into archive by Marina Freitas (marinapf@ufscar.br) on 2016-09-16T19:48:45Z (GMT) No. of bitstreams: 1
TeseVAAM.pdf: 2213045 bytes, checksum: 7a27583f2dfac9c11da36b29050f4fe4 (MD5) / Approved for entry into archive by Marina Freitas (marinapf@ufscar.br) on 2016-09-16T19:48:49Z (GMT) No. of bitstreams: 1
TeseVAAM.pdf: 2213045 bytes, checksum: 7a27583f2dfac9c11da36b29050f4fe4 (MD5) / Made available in DSpace on 2016-09-16T19:48:53Z (GMT). No. of bitstreams: 1
TeseVAAM.pdf: 2213045 bytes, checksum: 7a27583f2dfac9c11da36b29050f4fe4 (MD5)
Previous issue date: 2015-08-14 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / In this thesis, we construct distribution functions for analysis of lifetimes with the focus in scenes of latent risks inspired in models of the carcinogenesis process. Some properties of these distribution functions are presented and discussed as well as the viability front the models in literature. In some cases the models were describes as long-time model where a part of population presents infinite lifetime, i.e, on the population in study some objects are not susceptible (or immunes) for the event of interest. Some models present complexity in the maximization and was necessary the implementation of routines of maximization that allows us the control some variables that are not offered in routines in tradicional programs. The implemented routine is available in appendix. / Nesta tese apresentamos novas distribuições para o estudo do tempo de vida com foco no cenário de riscos latentes com interpretações das construções dos modelos direcionados com os estudos da carcinogênese. Várias propriedades das distribuições são apresentadas e discutidas bem como a viabilidade destes novos modelos frente a vários modelos na literatura. Alguns dos modelos são estendidos para modelos de longa duração, que são modelos que permitem que os tempos de vida sejam infinitos ou em outras palavras que existem indivíduos não suscetíveis (ou curados) ao evento de interesse. Pela complexidade de vários modelos obtidos foi necessário a implementação de rotinas de maximização para o controle de variáveis que não são oferecidos nas rotinas de maximização em programas tradicionais e esta rotina está disponibilizada em anexo.
|
243 |
Modelagem de dados de sistemas reparáveis com fragilidade / Modeling repairable systems data with fragilityFeitosa, Cirdêmia Costa 15 September 2015 (has links)
Submitted by Daniele Amaral (daniee_ni@hotmail.com) on 2016-09-15T15:15:11Z
No. of bitstreams: 1
DissCCF.pdf: 1472861 bytes, checksum: 937810926b98a08677085a559d13aec9 (MD5) / Approved for entry into archive by Marina Freitas (marinapf@ufscar.br) on 2016-09-16T19:51:30Z (GMT) No. of bitstreams: 1
DissCCF.pdf: 1472861 bytes, checksum: 937810926b98a08677085a559d13aec9 (MD5) / Approved for entry into archive by Marina Freitas (marinapf@ufscar.br) on 2016-09-16T19:51:36Z (GMT) No. of bitstreams: 1
DissCCF.pdf: 1472861 bytes, checksum: 937810926b98a08677085a559d13aec9 (MD5) / Made available in DSpace on 2016-09-16T19:51:41Z (GMT). No. of bitstreams: 1
DissCCF.pdf: 1472861 bytes, checksum: 937810926b98a08677085a559d13aec9 (MD5)
Previous issue date: 2015-09-15 / Não recebi financiamento / The usual models in repairable systems are minimal, perfect and imperfect repair, and, in the literature, the minimum repair model is the most explored. In repairable systems it is common that the same type of components are studied and in these cases is relevant to verify the heterogeneity between them. According to Vaupel et al. (1979), the standard methods for analysis of repairable systems data ignore the heterogeneity not observed and in some cases this should be considered. Such variability can be estimated from frailty models, characterized by using a random e ect. It is proposed that the minimum repair model with frailty in order to estimate the heterogeneity not observed between systems. For this model it was conducted a simulation study in order to analyze the frequentist properties of the estimation process. The application of a real data set showed the applicability of the proposed model, in which the estimation of the parameters were determined from maximum likelihood and Bayesian approaches. / Os modelos de sistemas reparáveis usuais são os de reparo mí nimo, perfeito e imperfeito, sendo que, na literatura, o modelo de reparo mí nimo e o mais explorado. Em sistemas reparáveis e comum que componentes do mesmo tipo sejam estudados e nestes casos é relevante verifi car a heterogeneidade entre eles. Segundo Vaupel et al. (1979), os métodos padrões em análise de dados de sistemas reparáveis ignoram a heterogeneidade não observada e em alguns casos esta deveria ser considerada. Tal variabilidade pode ser estimada a partir dos modelos de fragilidade, caracterizados pela utilização de um efeito aleat ório. Propõe-se o modelo de reparo mí nimo com fragilidade, a fi m de estimar a heterogeneidade não observada entre sistemas. Para este modelo foi realizado um estudo de simula ção com o objetivo de analisar as propriedades frequentistas do processo de estimação. A aplicação em um conjunto de dados reais mostrou a aplicabilidade do modelo proposto, em que a estima ção dos parâmetros foram determinadas a partir das abordagens de m áxima verossimilhan ça e Bayesiana.
|
244 |
Modelagem de dados de sobrevivência com eventos recorrentes via fragilidade discretaMacera, Márcia Aparecida Centanin 02 September 2015 (has links)
Submitted by Izabel Franco (izabel-franco@ufscar.br) on 2016-09-21T19:45:33Z
No. of bitstreams: 1
TeseMACM.pdf: 1006551 bytes, checksum: 49a419a1f18e05827f34631564fe431b (MD5) / Approved for entry into archive by Ronildo Prado (ronisp@ufscar.br) on 2016-09-28T18:19:58Z (GMT) No. of bitstreams: 1
TeseMACM.pdf: 1006551 bytes, checksum: 49a419a1f18e05827f34631564fe431b (MD5) / Approved for entry into archive by Ronildo Prado (ronisp@ufscar.br) on 2016-09-28T18:20:07Z (GMT) No. of bitstreams: 1
TeseMACM.pdf: 1006551 bytes, checksum: 49a419a1f18e05827f34631564fe431b (MD5) / Made available in DSpace on 2016-09-28T18:26:37Z (GMT). No. of bitstreams: 1
TeseMACM.pdf: 1006551 bytes, checksum: 49a419a1f18e05827f34631564fe431b (MD5)
Previous issue date: 2015-09-02 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / In this thesis it is proposed alternative methodologies and extensions on
models for recurrent event data. Speci cally, we propose a model in which
the distribution of the gap time is easily derived from the marginal rate
function providing more direct practical interpretation besides to consider
the relation between successive gap times for each individual. Another model
that extends the frailty models for recurrent event data to allow a Bernoulli,
Geometric, Poisson, Discrete Weibull, Negative Binomial or other discrete
distribution of the frailty variable has also been proposed. The parameter
estimation procedure for both models was conducted considering maximum
likelihood methods. Simulation studies were performed in order to examine
some frequentist properties of the estimation method and evaluate the maximum
likelihood estimates quality. Real data applications demonstrated the
use of the proposed models. Overall, the proposed models were suitable for
analyzing recurrent event data. / Neste trabalho propomos metodologias alternativas e extensões em modelos
para dados de eventos recorrentes. Especificamente, propomos um modelo
em que a distribuição condicional do tempo entre sucessivas ocorrências de um
evento recorrente e derivada facilmente da função de taxa marginal, proporcionando
interpretações praticas mais diretas, além de considerar a relação entre
as sucessivas ocorrências para cada indivíduo. O outro modelo, que estende os
modelos de fragilidade para dados de eventos recorrentes permitindo o uso de
distribuições como Bernoulli, Geométrica, Poisson, Weibull Discreta, Binomial
Negativa ou outra distribuição discreta para a variável de fragilidade, também
foi proposto. O procedimento de estimação dos parâmetros para ambos
modelos foi realizado considerando-se o método de máxima verossimilhança.
Estudos de simulação foram realizados com o objetivo de analisar algumas
propriedades frequentistas do método de estimação e avaliar a qualidade das
estimativas de máxima verossimilhança. Aplicações a conjuntos de dados
reais mostraram a aplicabilidade dos modelos propostos. De modo geral, os
modelos propostos mostraram-se adequados para a modelagem de dados de
eventos recorrentes.
|
245 |
Comparação de métodos de estimação para problemas com colinearidade e/ou alta dimensionalidade (p > n)Casagrande, Marcelo Henrique 29 April 2016 (has links)
Submitted by Bruna Rodrigues (bruna92rodrigues@yahoo.com.br) on 2016-10-06T11:48:12Z
No. of bitstreams: 1
DissMHC.pdf: 1077783 bytes, checksum: c81f777131e6de8fb219b8c34c4337df (MD5) / Approved for entry into archive by Marina Freitas (marinapf@ufscar.br) on 2016-10-20T13:58:41Z (GMT) No. of bitstreams: 1
DissMHC.pdf: 1077783 bytes, checksum: c81f777131e6de8fb219b8c34c4337df (MD5) / Approved for entry into archive by Marina Freitas (marinapf@ufscar.br) on 2016-10-20T13:58:47Z (GMT) No. of bitstreams: 1
DissMHC.pdf: 1077783 bytes, checksum: c81f777131e6de8fb219b8c34c4337df (MD5) / Made available in DSpace on 2016-10-20T13:58:52Z (GMT). No. of bitstreams: 1
DissMHC.pdf: 1077783 bytes, checksum: c81f777131e6de8fb219b8c34c4337df (MD5)
Previous issue date: 2016-04-29 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / This paper presents a comparative study of the predictive power of four suitable regression
methods for situations in which data, arranged in the planning matrix, are very
poorly multicolinearity and / or high dimensionality, wherein the number of covariates is
greater the number of observations.
In this study, the methods discussed are: principal component regression, partial least
squares regression, ridge regression and LASSO.
The work includes simulations, wherein the predictive power of each of the techniques
is evaluated for di erent scenarios de ned by the number of covariates, sample size and
quantity and intensity ratios (e ects) signi cant, highlighting the main di erences between
the methods and allowing for the creating a guide for the user to choose which method
to use based on some prior knowledge that it may have.
An application on real data (not simulated) is also addressed. / Este trabalho apresenta um estudo comparativo do poder de predi c~ao de quatro
m etodos de regress~ao adequados para situa c~oes nas quais os dados, dispostos na matriz
de planejamento, apresentam s erios problemas de multicolinearidade e/ou de alta dimensionalidade,
em que o n umero de covari aveis e maior do que o n umero de observa c~oes.
No presente trabalho, os m etodos abordados s~ao: regress~ao por componentes principais,
regress~ao por m nimos quadrados parciais, regress~ao ridge e LASSO.
O trabalho engloba simula c~oes, em que o poder preditivo de cada uma das t ecnicas e
avaliado para diferentes cen arios de nidos por n umero de covari aveis, tamanho de amostra
e quantidade e intensidade de coe cientes (efeitos) signi cativos, destacando as principais
diferen cas entre os m etodos e possibilitando a cria c~ao de um guia para que o usu ario
possa escolher qual metodologia usar com base em algum conhecimento pr evio que o
mesmo possa ter.
Uma aplica c~ao em dados reais (n~ao simulados) tamb em e abordada
|
246 |
Efficient Bayesian methods for mixture models with genetic applicationsZuanetti, Daiane Aparecida 14 December 2016 (has links)
Submitted by Alison Vanceto (alison-vanceto@hotmail.com) on 2017-01-16T12:38:12Z
No. of bitstreams: 1
TeseDAZ.pdf: 20535130 bytes, checksum: 82585444ba6f0568a20adac88fdfc626 (MD5) / Approved for entry into archive by Marina Freitas (marinapf@ufscar.br) on 2017-01-17T11:47:35Z (GMT) No. of bitstreams: 1
TeseDAZ.pdf: 20535130 bytes, checksum: 82585444ba6f0568a20adac88fdfc626 (MD5) / Approved for entry into archive by Marina Freitas (marinapf@ufscar.br) on 2017-01-17T11:47:42Z (GMT) No. of bitstreams: 1
TeseDAZ.pdf: 20535130 bytes, checksum: 82585444ba6f0568a20adac88fdfc626 (MD5) / Made available in DSpace on 2017-01-17T11:47:50Z (GMT). No. of bitstreams: 1
TeseDAZ.pdf: 20535130 bytes, checksum: 82585444ba6f0568a20adac88fdfc626 (MD5)
Previous issue date: 2016-12-14 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / We propose Bayesian methods for selecting and estimating di erent types of mixture models which are widely used in Genetics and Molecular Biology. We speci cally propose data-driven selection and estimation methods for a generalized mixture model, which accommodates the usual (independent) and the rst-order (dependent) models in one framework, and QTL (quantitative trait locus) mapping models for independent and pedigree data. For clustering genes through a mixture model, we propose three nonparametric Bayesian methods: a marginal nested Dirichlet process (NDP), which is able to cluster distributions and, a predictive recursion clustering scheme (PRC) and a subset nonparametric Bayesian (SNOB) clustering algorithm for clustering big data. We analyze and compare the performance of the proposed methods and traditional procedures of selection, estimation and clustering in simulated and real data sets. The proposed methods are more exible, improve the convergence of the algorithms and provide more accurate estimates in many situations. In addition, we propose methods for predicting
nonobservable QTLs genotypes and missing parents and improve the Mendelian probability of inheritance of nonfounder genotype using conditional independence structures. We also suggest applying diagnostic measures to check the goodness of t of QTL mapping models. / N os propomos métodos Bayesianos para selecionar e estimar diferentes tipos de modelos de mistura que são amplamente utilizados em Genética e Biologia
Molecular. Especificamente, propomos métodos direcionados pelos dados para
selecionar e estimar um modelo de mistura generalizado, que descreve o modelo
de mistura usual (independente) e o de primeira ordem numa mesma estrutura,
e modelos de mapeamento de QTL com dados independentes e familiares. Para agrupar genes através de modelos de mistura, nós propomos três métodos Bayesianos
não-paramétricos: o processo de Dirichlet aninhado que possibilita agrupamento
de distribuições e, um algoritmo preditivo recursivo e outro Bayesiano nãoparamétrico exato para agrupar dados de alta dimensão. Analisamos e comparamos o desempenho dos métodos propostos e dos procedimentos tradicionais de seleção e estimação de modelos e agrupamento de dados em conjuntos de dados simulados
e reais. Os métodos propostos são mais
extáveis, aprimoram a convergência dos
algoritmos e apresentam estimativas mais precisas em muitas situações. Além disso,
nós propomos procedimentos para predizer o genótipo não observável dos QTLs e
de pais faltantes e melhorar a probabilidade Mendeliana de herança genética do
genótipo dos descendentes através da estrutura de independência condicional entre
os indivíduos. Também sugerimos aplicar medidas de diagnóstico para verificar a
qualidade do ajuste dos modelos de mapeamento de QTLs.
|
247 |
Mapas da transmutação : modelagem, propriedades estruturais, estimação e aplicações / Transmutation maps : modeling, structural properties, estimation and applicationsGranzotto, Daniele Cristina Tita 05 December 2016 (has links)
Submitted by Alison Vanceto (alison-vanceto@hotmail.com) on 2017-03-07T12:28:13Z
No. of bitstreams: 1
TeseDCTG.pdf: 2877933 bytes, checksum: b26c7e73a0952568aa117e1724d1bffa (MD5) / Approved for entry into archive by Ronildo Prado (ronisp@ufscar.br) on 2017-03-20T18:57:09Z (GMT) No. of bitstreams: 1
TeseDCTG.pdf: 2877933 bytes, checksum: b26c7e73a0952568aa117e1724d1bffa (MD5) / Approved for entry into archive by Ronildo Prado (ronisp@ufscar.br) on 2017-03-20T18:57:18Z (GMT) No. of bitstreams: 1
TeseDCTG.pdf: 2877933 bytes, checksum: b26c7e73a0952568aa117e1724d1bffa (MD5) / Made available in DSpace on 2017-03-20T19:10:02Z (GMT). No. of bitstreams: 1
TeseDCTG.pdf: 2877933 bytes, checksum: b26c7e73a0952568aa117e1724d1bffa (MD5)
Previous issue date: 2016-12-05 / Não recebi financiamento / Initially, we use the quadratic transmutation maps to compose a new probability
model: the transmuted log-logistic distribution. Transmutation maps are
a convenient way of constructing new distributions, in particular survival ones.
It comprises the functional composition of the cumulative distribution function
of one distribution with the inverse cumulative distribution (quantil) function
of another. Its comprehensive description of properties, such as moments, quantiles,
order statistics etc., along with its survival study and the classical and
Bayesian estimation methods, are also part of this work. Focusing on analysis
of survival, the study included two practical situations commonly found: the
presence of regression variables, through the transmuted log-logistic regression
model, and the presence of right censorship. In a second moment, searching
for a more exible model than the transmuted, we present its generalization,
the transmuted distributions of cubic rank. Using the methodology presented
in this rst generalization, two models were considered to compose the new cubic
transmuted distributions: the log-logistic and Weibull models. Faced with
problems presented in the transmutated class of quadratic and cubic orders
(such as the restricted parametric space of the transmutation parameter ), we
propose in this work, a new family of distribution. This family, which we call
e-transmuted or e-extended, is as simple as the transmuted model, because it
includes a single parameter to the base model, but more exible than the class
of transmuted models, once the transmuted is a particular case of the proposed
family. In addition, the nem family presents important properties such as, orthogonality
between the baseline model parameters and the e-transmutation
parameter, along with unrestricted parametric space for the ! e-transmutation
parameter, which is de ned on the real line. Simulation studies and real data
applications were performed for all proposed models and generalizations. / Inicialmente, usamos os mapas de transmutação quadráticos para compor
um novo modelo de probabilidade: a distribuição log-logística transmutada.
Mapas de transmutação são uma forma conveniente de construção de novas
distribuições, em especial de sobrevivência/con abilidade, e compreendem a
composição funcional da função de distribuição acumulada e da função de
distribuição acumulada inversa (quantil) de um outro modelo. Uma descrição
detalhada de suas propriedades, tais como, momentos, quantis, estatística de
ordem, dentre outras estatísticas, juntamente com o estudo de sobrevivência
e métodos de estimação clássico e Bayesiano, também fazem parte deste trabalho.
Focando em análise sobrevivência, incluímos no estudo duas situações
práticas comumente encontradas: a presença de variáveis regressoras, através
do modelo de regressão transmutado log-logístico, e a presença de censura à
direita. Em um segundo momento, buscando um modelo mais exível que o
transmutado, apresentamos uma generalização para esta classe de modelos, as
distribuições transmutadas de rank cúbico. Usando a metodologia apresentada
nesta primeira generalização, dois modelos foram considerados para compor as
novas distribuições transmutadas cúbica: os modelos log-logístico e Weibull.
Diante de problemas apresentados na classe transmutada de ordens quadrática
e cúbica (tal como o espaço paramétrico restrito do parâmetro de transmuta
ção ), propomos neste trabalho, uma nova família de distribuição. Esta
família, a qual chamamos e-transmutada ou e-extendida, é tão simples quanto
o modelo transmutado, por incluir um único parâmetro ao modelo base, porém
mais exível do que a classe de modelos transmutados, sendo esta classe um
caso particular da família proposta. Além disso, apresenta propriedades importantes,
como ortogonalidade entre os parâmetros do modelo base e o parâmetro
de e-transmutação, e espaço paramétrico não restrito para o parâmetro de etransmuta
ção !, que é de nido em toda reta real. Estudos de simulação e
aplicações a dados reais foram realizados para todos os modelos e generalizações propostas.
|
248 |
Regressão binária nas abordagens clássica e bayesianaFernandes, Amélia Milene Correia 16 December 2016 (has links)
Submitted by Aelson Maciera (aelsoncm@terra.com.br) on 2017-05-23T16:23:56Z
No. of bitstreams: 1
DissAMCF.pdf: 1964890 bytes, checksum: 84bcbd06f74840be6fc5f38659c34c07 (MD5) / Approved for entry into archive by Ronildo Prado (ronisp@ufscar.br) on 2017-06-05T19:07:22Z (GMT) No. of bitstreams: 1
DissAMCF.pdf: 1964890 bytes, checksum: 84bcbd06f74840be6fc5f38659c34c07 (MD5) / Approved for entry into archive by Ronildo Prado (ronisp@ufscar.br) on 2017-06-05T19:07:28Z (GMT) No. of bitstreams: 1
DissAMCF.pdf: 1964890 bytes, checksum: 84bcbd06f74840be6fc5f38659c34c07 (MD5) / Made available in DSpace on 2017-06-05T19:18:45Z (GMT). No. of bitstreams: 1
DissAMCF.pdf: 1964890 bytes, checksum: 84bcbd06f74840be6fc5f38659c34c07 (MD5)
Previous issue date: 2016-12-16 / Não recebi financiamento / The objective of this work is to study the binary regression model under the frequentist and Bayesian approaches using the probit, logit, log-log complement, Box-Cox transformation and skewprobit as link functions. In the classical approach we presented assumpti- ons and procedures used in the regression modeling. We verified the accuracy of the estimated parameters by building confidence intervals and conducting hypothesis tests. In the Bayesian appro- ach we made a comparative study using two methodologies. For the first methodology, we considered non-informative prior dis- tributions and the Metropolis-Hastings algorithm to estimate the model. In the second methodology we used auxiliary variables to obtain the known a posteriori distribution, allowing the use of the Gibbs Sampler algorithm. However, the introduction of these auxiliary variables can generate correlated values and needs the use of clustering of unknown quantities in blocks to reduce the autocorrelation. In the simulation study we used the AIC and BIC information criteria to select the most appropriate model and we evaluated whether the coverage probabilities of the confidence interval is in agre- ement with that expected by the asymptotic theory. In Bayesian approach we found that the inclusion of auxiliary variables in the model results in a more efficient algoritm according to the MSE, MAPE and SMAPE criteria. In this work we also present applications to two real datasets. The first dataset used is the variation of the Ibovespa and variation of the daily value of the American dollar at the time of closing the 2013 to 2016. The second dataset, used is an educational data set (INEP-2013), where we are interested in studying the factors that infuence the approval of the student. / Este trabalho tem como objetivo estudar o modelo de regressão binária nas abordagens clássica e bayesiana utilizando as funcoes de ligacoes probito, logito, complemento log-log, transformaçao box-cox e probito-assimetrico. Na abordagem clássica apresentamos as suposicoes e o procedimento para ajustar o modelo de regressao e verificamos a precisão dos parâmetros estimados, construindo intervalos de confianca e testes de hipóteses. Enquanto que, na inferência bayesiana fizemos um estudo comparativo utilizando duas metodologias. Na primeira metodologia consideramos densidades a priori nao informativas e utilizamos o algoritmo Metropolis-Hastings para ajustar o modelo. Na segunda metodologia utilizamos variáaveis auxiliares para obter a distribuiçcaão a posteriori conhecida, facilitando a implementacão do algoritmo do Amostrador de Gibbs. No entanto, a introduçao destas variaveis auxiliares podem gerar valores correlacionados, o que leva à necessidade de se utilizar o agrupamento das quantidades desconhecidas em blocos para reduzir a autocorrelaçcãao.
Atraves do estudo de simulacao mostramos que na inferência classica podemos usar os critérios AIC e BIC para escolher o melhor modelo e avaliamos se o percentual de cobertura do intervalo de confianca assintotica está de acordo com o esperado na teoria assintática. Na inferência bayesiana constatamos que o uso de va-riaáveis auxiliares resulta em um algoritmo mais eficiente segundo os critérios: erro quadrâtico medio (EQM), erro percentual absoluto medio (MAPE) e erro percentual absoluto medio simetrico (SMAPE).
Como ilustração apresentamos duas aplicações com dados reais. Na primeira, consideramos um conjunto de dados da variaçao do Ibovespa e a variacao do valor diário do fechamento da cotacao do dólar no período de 2013 a 2016. Na segunda aplicação, trabalhamos com um conjunto de dados educacionais (INEP-2013), focando nos estudos das variaveis que influenciam a aprovacao do aluno.
|
249 |
Estima??o em modelos de tempo de falha acelerado para dados de sobreviv?ncia correlacionadosSantos, Patr?cia Borchardt 01 December 2009 (has links)
Made available in DSpace on 2014-12-17T15:26:38Z (GMT). No. of bitstreams: 1
Patricia Borchardt Santos.pdf: 378137 bytes, checksum: e27ccc5c056aa17d7bd2ca2c8b64458f (MD5)
Previous issue date: 2009-12-01 / We presented in this work two methods of estimation for accelerated failure time models with random e_ects to process grouped survival data. The _rst method, which is implemented in software SAS, by NLMIXED procedure, uses an adapted Gauss-Hermite quadrature to determine marginalized likelihood. The second method, implemented in the free software R, is based on the method of penalized likelihood to estimate the parameters of the model. In the _rst case we describe the main theoretical aspects and, in the second, we briey presented the approach adopted with a simulation study to investigate the performance of the method. We realized implement the models using actual data on the time of operation of oil wells from the Potiguar Basin (RN / CE). / Apresentamos neste trabalho dois m?todos de estima??o para modelos de tempo de falha acelerado com efeito aleat?rio para tratar de dados de sobreviv?ncia correlacionados. O primeiro m?todo, que est? implementado no software SAS, atrav?s do procedimento NLMIXED, utiliza a quadratura Gauss-Hermite adaptada para obter a verossimilhan?a marginalizada. O segundo m?todo, implementado no software livre R, est? baseado no m?todo da verossimilhan?a penalizada para estimar os par?metros do modelo. No primeiro caso descrevemos os principais aspectos te?ricos e, no segundo, apresentamos brevemente a abordagem adotada juntamente com um estudo de simula??o para investigar a performance do m?todo. Realizamos uma aplica??o dos modelos usando dados reais sobre o tempo de funcionamento de po?os petrol?feros da Bacia Potiguar (RN/CE).
|
250 |
Uma abordagem bayesiana para estudo estatístico e geoestatístico de estimativas de salindade do solo utilizando sensor de indução eletromagnética / A boarding bayesiana for statistical study and geoestaistic of estimates of salinity of the ground using sensory of electromagnetic inductionPESSOA, Antônio Lopes 24 February 2006 (has links)
Submitted by (ana.araujo@ufrpe.br) on 2016-05-20T15:59:30Z
No. of bitstreams: 1
Antonio Lopes Pesoa.pdf: 686455 bytes, checksum: 89c64469a23f829cb322108723a916c9 (MD5) / Made available in DSpace on 2016-05-20T15:59:30Z (GMT). No. of bitstreams: 1
Antonio Lopes Pesoa.pdf: 686455 bytes, checksum: 89c64469a23f829cb322108723a916c9 (MD5)
Previous issue date: 2006-02-24 / This study analyzed the existing relationship among measurements of soil apparent electrical conductivity in an alluvial valley in the Agreste region of Pernambuco State and its spatial variability in the subsurface. The soil apparent electric conductivity was investigated through an electromagnetic induction EM 38 equipment. The readings have been carried out both in the vertical and horizontal modes. The measurements have been analyzed through the classic descriptive statistics as well as geostatistics and bayesian approach. The statistical analyses had shown that the data of apparent electric conductivity had adjusted to a normal distribution, presenting a high space variability for the horizontal mode and an average space variability for the way of vertical operation. In order to allow the use of the geostatistical methodology, the experimental semivariogram was constructed, and fitted to a theoretical model. Considering the spatial dependence mapping of the salinized areas have been performed. The best theoretical models for the vertical mode and for the horizontal operation were the gaussian model and the exponential model, through the crossed validation and using the Akaike’s Information Criterion .The bayesian approach focused the spatial predictionrelating the method of the maximum likelihood with the functions of prioris distributions for each parameter, considering the uncertainty associated to each one of these distributions. It was verified that the adjusted semivariograms had not presented significant differences in the validation of the geostatistics methodology and in the bayesian approach. / Esta dissertação analisou a relação existente entre medidas de condutividade elétrica aparente de um solo aluvial da região Agreste do Estado de Pernambuco,e a sua variabilidade espacial na camada subsuperficial. A condutividade elétrica aparente do solo foi investigada através de equipamento de indução eletromagnética EM 38. As leituras efetuadas com o EM 38 foram tanto no modo vertical como no modo horizontal. As medidas obtidas em campo foram analisadas através da estatística descritiva clássica, bem como através das metodologias geoestatística e abordagem bayesiana. As análises estatísticas mostraram que os dados de condutividade elétrica aparente se ajustaram a uma distribuição normal a apresentaram uma alta variabilidade espacial para o modo de operação horizontal e uma média variabilidade espacial para o modo de operação vertical. Através da metodologia geoestatística foi construído o semivariograma experimental que, posteriormente, foi ajustado a um modelo teórico. O melhor ajuste de modelo teórico foi obtido, tanto para o modo de operação vertical como para o modo de operação horizontal, para o modelo gaussiano e para o modelo exponencial, efetuada através da validação cruzada edo Critério de Informação de Akaike. A partir da dependência espacial, foi elaborado o mapeamento das áreas salinizadas. A abordagem bayesiana focalizou a predição espacial, relacionando o método da máxima verossimilhança com as funções de distribuições prioris de cada parâmetro, considerando o grau de incerteza associado a cada uma dessas distribuições. Verificou-se que os semivariogramas ajustados não apresentaram diferenças significativas na validação da metodologia geoestatística e na abordagem bayesiana.
|
Page generated in 0.0417 seconds