• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 797
  • 28
  • 10
  • 1
  • 1
  • Tagged with
  • 839
  • 440
  • 415
  • 415
  • 375
  • 306
  • 181
  • 155
  • 108
  • 105
  • 105
  • 102
  • 93
  • 92
  • 86
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
221

Aspectos práticos da estimação do modelo de mistura via processo de Dirichlet

Paz, Rosineide Fernando da 03 April 2013 (has links)
Made available in DSpace on 2016-06-02T20:06:07Z (GMT). No. of bitstreams: 1 5124.pdf: 1092134 bytes, checksum: 388bf73f3290c7488cfc2f6292329274 (MD5) Previous issue date: 2013-04-03 / Financiadora de Estudos e Projetos / We review the Dirichlet process mixture model and investigate its performance as a classification method. The first aspect considered is its sensibility to the choice of location parameter of the base distribution. The second aspect considers the performance of the model regarding the departure of the parameters of the component distributions. Simulation results with mixture of normal distributions indicate sensibility to location parameters choices, of the base distribution, and good performance even when components with normal distributions differ only in variances. Finally, we apply the method to three data sets. / Neste trabalho, analisamos os aspectos práticos de um modelo bayesiano não paramétrico conhecido como modelo de mistura por processo de Dirichlet. Procedemos a um estudo de simulação com o objetivo de investigar a performance do modelo, no que diz respeito à classi _cação de dados oriundo de populações heterogêneas, em subgrupos (ou componentes). Os dados em cada componente identificado são assumidos terem uma distribuição normal, de forma que os dados de todos os componentes, juntos são assumidos serem originados de uma mistura de distribuições normais. Para veri_car este desempenho, procedemos a uma análise para investigar dois aspectos. O primeiro aspecto considerado está relacionado a sensibilidade do modelo, quanto a escolha do parâmetro de locação da distribuição base adotada, normal-gama-invertida, para o processo de Dirichlet, o qual é usado como distribuição a priori para o modelo, como em um simples problema de Bayes. O segundo aspecto diz respeito à performance do modelo em relação ao afastamento dos parâmetros, média e variância, das distribuições dos componentes. Os resultados das simulações com estas misturas de distribui ções normais, indicam sensibilidade do método para a escolha do parâmetro de locação da distribuição base normal-gama-invertida e também indicam uma boa performance, mesmo quando os componentes com distribuições normais diferem entre si apenas na variabilidade dos dados. Finalmente, aplicamos este método para três conjuntos de dados reais, sendo o último uma aplicação em dados de mistura de modelos de regressão.
222

Modelos de regressão bivariados Bernoulli : exponencial

Prado, Flávia Bolssone do 05 April 2013 (has links)
Made available in DSpace on 2016-06-02T20:06:08Z (GMT). No. of bitstreams: 1 5174.pdf: 1132464 bytes, checksum: 1cccdf2e905f1a63c44eea06a7f29684 (MD5) Previous issue date: 2013-04-05 / Universidade Federal de Sao Carlos / Neste trabalho desenvolvemos modelos de regressão para respostas bivariadas, discreta e contínua, com a variável discreta seguindo distribuição Bernoulli e a variável contínua, condicionada na discreta, seguindo distribuição exponencial. Um procedimento de ajuste, via abordagem Bayesiana, é utilizado para estimar os parâmetros do modelo e uma análise de resíduos Bayesianos é apresentada. Um estudo de simulação é descrito a fim de ilustrar a metodologia desenvolvida. Utilizamos três tamanhos amostrais diferentes para analisarmos os resultados. Aplicamos o modelo em um conjunto de dados reais relacionado a gastos com pacientes internados em hospitais, levando em consideração a utilização, ou não, de tratamento cirúrgico. A covariável disponível para a análise foi o número de dias de permanência do paciente hospitalizado.
223

Modelo de mistura paramétrico com fragilidade na presença de covariáveis

Taconeli, João Paulo 23 April 2013 (has links)
Made available in DSpace on 2016-06-02T20:06:08Z (GMT). No. of bitstreams: 1 5203.pdf: 2484745 bytes, checksum: 2ab029104981d5cf9ec2e6c681c57370 (MD5) Previous issue date: 2013-04-23 / Financiadora de Estudos e Projetos / Some studies involving survival data are characterized by showing a significant proportion of censored data, that is, individuals who will never experience the event of interest, even if accompanied by a long period of time. For the analysis of long-term data, we presented the standard mixture model by Berkson & Gage (1952), where we assume the Weibull distribution for the lifetime of individuals at risk and covariate. The cure rate models implicitly assume that those individuals experiencing the event of interest possess homogeneous risk. Alternatively, we consider the standard mixture model with a frailty term in order to quantify the unobservable heterogeneity among individuals. This model is characterized by the inclusion of a unobservable random variable, which represents information that can not or have not been observed. We assume frailty with a gamma distribution, obtaining theWeibull stardanrd mixture model with frailty and covariates from a point of view parametric. We realized simulation studies with the purpose of analyzing the frequentists properties of estimation procedures. Applications to real data set showed the applicability of the proposed models in which parameter estimates were determined using the maximum likelihood and bayesian approaches. / Em análise de sobrevivência quando uma população apresenta, após um período representativo de tempo, uma quantidade expressiva de observações censuradas, podemos suspeitar que exista uma fração de indivíduos que não é susceptível ao evento de interesse. Diz-se então que esses indivíduos são "imunes", e que o conjunto de dados ao qual eles pertencem possui uma fração de cura. Os modelos de cura assumem implicitamente que todos os indivíduos que apresentaram o evento de interesse pertencem a uma população homogênea, mas no entanto podemos medir a heterogeneidade observada adicionando covariáveis ao modelo. Já a parcela da heterogeneidade que é induzida por fatores de risco não observáveis é estimada através de modelos de fragilidade. Com a finalidade de analisar dados de longa duração com heterogeneidade não observada na população, apresentamos o modelo de mistura padrão de Boag (1949) e Berkson & Gage (1952) sob um ponto de vista paramétrico, com covariáveis incidindo tanto na proporção de curados quanto na função de sobrevivência dos não curados. Peng & Zhang (2008a) realizaram uma estimação semiparamétrica deste modelo, e em nosso trabalho assumimos as distribuições de probabilidade Weibull para a parcela em risco e gama para a fragilidade. Também modelamos a proporção de curados através de modelos de regressão com diferentes funções de ligação, e testamos todos os modelos em uma base com dados reais envolvendo portadores de melanoma, realizando os ajustes tanto através da metodologia clássica quanto da bayesiana.
224

Estimadores não paramétricos para dados com censura

Simioni, Paulo Ricardo 19 April 2013 (has links)
Made available in DSpace on 2016-06-02T20:06:08Z (GMT). No. of bitstreams: 1 5220.pdf: 6665016 bytes, checksum: e40bf2639894707a5facdedcb4dfc7ae (MD5) Previous issue date: 2013-04-19 / Financiadora de Estudos e Projetos / In this paper we study the reliability of systems with connected components in series and parallel. For systems in series, the device fails when the first component fails. Although in the parallel systems this happens when the last component fails. We define the distribution functions, sub-distribution functions and their respective properties. Here we present the Bayesian nonparametric estimator for the components of both systems, illustrating by examples. For both cases we performed a comparative study between the Bayesian nonparametric estimator and the Kaplan-Meier method. / Neste trabalho estudamos a con_abilidade de sistemas com componentes ligados em série e sistemas ligados em paralelo. Para sistemas em série, o dispositivo falha quando o primeiro componente falhar, já no sistema em paralelo isto acontece quando o último componente falhar. De_nimos as funções de distribuição e sub-distribuição, bem como suas propriedades. Apresentamos o estimador Bayesiano não-paramétrico para os componentes de ambos os sistemas, ilustrando através de exemplos. Além disso, para ambos os casos, realizamos um estudo comparativo entre o estimador Bayesiano não paramétrico e o estimador de Kaplan-Meier.
225

Modelo de mistura com dependência Markoviana de primeira ordem

Meira, Silvana Aparecida 12 September 2014 (has links)
Made available in DSpace on 2016-06-02T20:06:10Z (GMT). No. of bitstreams: 1 6237.pdf: 1097574 bytes, checksum: efdba2d8d3f39759e65f53c499f7ee6a (MD5) Previous issue date: 2014-09-12 / We present the mixture model with first order dependence, MMM(1). This model corresponds to a redefinition of the hidden Markov model (HMM) where a non observable variable is used to control the mixture. The usual mixture model is a particular case of the MMM(1). The proposed redefinition makes easier the application of usual estimation tools as the EM algorithm. We present the maximum likelihood and Bayesian estimators for the normal and binomial cases of the MMM(1) and usual mixture models. Simulation studies show the functionality of the proposed models and their estimators. And finally we present an application to a real data set for the binomial case. / Nesse trabalho apresentamos o modelo de mistura com dependência markoviana de primeira ordem, MMM(1). A metodologia proposta corresponde a uma redefinição do modelo markoviano oculto (HMM) na qual utilizamos uma variável não observável como controladora da mistura. O modelo de mistura usual (sem dependência) é um caso particular do MMM(1). A redefinição proposta permite uma adaptação de instrumentos usuais de estimação como por exemplo o algoritmo EM. Apresentamos também os estimadores de máxima verossimilhança e bayesianos para os modelos MMM(1) e de mistura usual para os casos da distribuição normal e binomial. Estudos de simulação demonstram a funcionalidade do modelo e estimadores propostos. Ao final apresentamos uma aplicação a um conjunto de dados reais apresentados na literatura para o caso binomial.
226

Reamostragem bootstrap em amostragem por conjuntos ordenados e intervalos de confiança não paramétricos para a média.

Taconeli, Cesar Augusto 27 January 2005 (has links)
Made available in DSpace on 2016-06-02T20:06:11Z (GMT). No. of bitstreams: 1 DissCAT.pdf: 1246450 bytes, checksum: 08bdf53e7efc64e4dcca7835dee4b601 (MD5) Previous issue date: 2005-01-27 / Financiadora de Estudos e Projetos / Ranked set sampling is an efficient and practice way to obtain more precise estimative when the sample size is small because of the high cost or difficulties to measure the interest variable. Using rough and cheap qualitative or quantitative information, the sample units are ranked before their effective measurement. In 1952, McIntyre introduced the ranked set sample design to estimate the average yields from plots of cropland, using the ranked set sample mean, X . Cesario and Barreto (2003) have shown a parametric version of bootstrap confidence intervals for normal distribution mean. Because of the restriction of small sample size, the distributional assumption may not be reasonable, producing no liable estimates. So the study and proposition of precise interval estimators of the population mean could be relevant and are the main interest of this work. Using resampling methods, we propose in this work an extension of bootstrap resampling for ranked set sampling. A simulation study is conduced to the properties of single random sample bootstrap confidence intervals and the similar using our version for ranked set sampling. The analysis of the simulation study have shown the gain of precision for using the ranked set sampling bootstrap confidence intervals in the population mean. / A amostragem por conjuntos ordenados é uma alternativa prática e eficiente no que concerne à obtenção de estimativas mais precisas frente à impossibilidade de extração de uma amostra numerosa, seja devido a dificuldades na mensuração da variável de interesse ou a um elevado custo inerente a obtenção de tais medidas. A aplicação deste delineamento amostral torna-se viável caso seja possível ordenar amostras extraídas aleatoriamente de maneira eficiente, de acordo com o valor da variável de interesse, sem de fato medi-las, mas baseado apenas em um critério pré-estabelecido, que pode ser alguma variável concomitante altamente correlacionada ou mesmo mediante algum julgamento pessoal. Introduzida por McIntyre (1952), a amostragem por conjuntos ordenados propicia a estimação de diversos parâmetros com um relevante ganho em termos de precisão. Um estimador para a média populacional é a média da amostra por conjuntos ordenados ( X ), proposto por McIntyre com aplicações, inicialmente, na estimação da produção média de pastagens. Cesário e Barreto (2003) apresentam uma alternativa paramétrica na obtenção de intervalos de confiança bootstrap para a média de populações com distribuição normal via amostragem por conjuntos ordenados. Dada a restrição quanto à seleção de grandes amostras, a suposição de alguma distribuição para a variável de interesse muitas vezes não é razoável, gerando estimativas pouco confiáveis. Neste contexto, o estudo e a proposição de estimadores intervalares não paramétricos para a média, elaborados a partir de um esquema de seleção de amostras capaz de gerar estimativas precisas sob circunstâncias adversas, como é a amostragem por conjuntos ordenados, mostra-se altamente relevante, sendo o objeto de estudo deste trabalho. Os intervalos de confiança analisados são obtidos através de um esquema original de reamostragem bootstrap, fundamentado em amostragem por conjuntos ordenados, seguindo algoritmos propostos neste trabalho. A análise das propriedades destes intervalos foi realizada a partir de um amplo estudo via simulação, que evidenciou uma significativa melhora das estimativas propostas, quando comparado àquelas convencionais, baseadas em amostragem aleatória simples, especialmente em relação à precisão de tais estimativas.
227

Uma abordagem clássica e bayesiana para os modelos de Gompertz e de Richards heteroscedásticos.

Buzolin, Prescila Glaucia Christianini 16 September 2005 (has links)
Made available in DSpace on 2016-06-02T20:06:11Z (GMT). No. of bitstreams: 1 DissPGCB.pdf: 1168050 bytes, checksum: 6dc9351b4fed81fa76650df3ca9d8772 (MD5) Previous issue date: 2005-09-16 / This work presents a classical and a Bayesian approaches to two sigmoidal grownth curves, the Gompertz and the Richards models. We consider the homoscedastic assumption and a multiplicative heteroscedastic structure. For the classical approach we use the maximum likelihood method and for bayesian approach we consider non-informative priors. The posterioris summaries were obtained by the use of the Metropolis-Hastings algorithm. The illustration of both approaches is made using a simulated and a real data set. / Esta dissertação apresenta as abordagens Clássica e Bayesiana para os modelos de crescimento sigmoidais de Gompertz e de Richards. São consideradas as suposições de homoscedasticidade e heteroscedasticidade multiplicativa dos erros. Para a análise Clássica foi utilizado o método de máxima verossimilhança onde a obtenção das estimativas dos parâmetros ocorreu através de métodos iterativos. Para a análise bayesiana, foram consideradas prioris não informativas de Jeffreys e para a obtenção dos resumos a posteriori utilizamos o algoritmo de Metropolis-Hastings. Ambos os métodos foram ilustrados através de dados simulados e reais.
228

Ponderação de modelos com aplicação em regressão logística binária.

Brocco, Juliane Bertini 18 April 2006 (has links)
Made available in DSpace on 2016-06-02T20:06:12Z (GMT). No. of bitstreams: 1 DissJBB.pdf: 632747 bytes, checksum: 7f6e8caa78736a965ecb167ee27b7cc3 (MD5) Previous issue date: 2006-04-18 / Universidade Federal de Sao Carlos / This work consider the problem of how to incorporate model selection uncertainty into statistical inference, through model averaging, applied to logistic regression. It will be used the approach of Buckland et. al. (1997), that proposed an weighed estimator to a parameter common to all models in study, where the weights are obtained by information criteria or bootstrap method. Also will be applied bayesian model averaging as shown by Hoeting et. al. (1999), where posterior probability is an average of the posterior distributions under each of the models considered, weighted by their posterior model probability. The aim of this work is to study the behavior of the weighed estimator, both, in the classic approach and in the bayesian, in situations that consider the use of binary logistic regression, with foccus in prediction. The known model-choice selection method Stepwise will be considered as form of comparison of the predictive performance in relation to model averaging. / Esta dissertação considera o problema de incorporação da incerteza devido à escolha do modelo na inferência estatística, segundo a abordagem de ponderação de modelos, com aplicação em regressão logística. Será utilizada a abordagem de Buckland et. al. (1997), que propuseram um estimador ponderado para um parâmetro comum a todos os modelos em estudo, sendo que, os pesos desta ponderação são obtidos a partir do uso de critérios de informação ou do método bootstrap. Também será aplicada a ponderação bayesiana de modelos como apresentada por Hoeting et. al. (1999), onde a distribuição a posteriori do parâmetro de interesse é uma média da distribuição a posteriori do parâmetro sob cada modelo em consideração ponderado por suas respectivas probabilidades a posteriori. O objetivo deste trabalho é estudar o comportamento do estimador ponderado, tanto na abordagem clássica como na bayesiana, em situações que consideram o uso de regressão logística binária, com enfoque na estimação da predição. O método de seleção de modelos Stepwise será considerado como forma de comparação da capacidade preditiva em relação ao método de ponderação de modelos.
229

Uma coleção de resultados sobre números normais

Mengue, Jairo Krás January 2008 (has links)
Entre os mais conhecidos estudos de probabilidades aplicados a teoria dos números, encontra-se o conceito de normalidade. Neste trabalho apresentamos uma coleção de resultados clássicos da teoria dos números normais, incluindo as provas da normalidade da Constante de Champernowne e da Constante de Copeland-Erdos. Listamos tamb em algumas aplicações obtidas da conexão desta teoria com a das sequências equidistribu das módulo um, estudadas em sistemas dinâmicos. Entre elas, vamos provar o resultado conhecido por critério de normalidade devido a Pjateckii-Sapiro. Al em disso, apresentamos um estudo que desenvolvemos sobre translações que preservam a normalidade, introduzindo o conceito de número determinado. Provamos aqui, independentemente, uma versão mais fraca de um resultado devido a Rauzy que caracterizou o conjunto dos números com os quais podemos formar translações que preservam a normalidade. / Normal numbers have a known place in probability applied in number theory. In this Dissertation we show a collection of classical theorems over normal numbers such as the normality of the Champernowne Constant and the Copeland-Erdos Constant. We show some applications obtained from the relations of this theory with the theory of uniform distribution of sequences, studied in dynamical systems, such as the theorem called \normality criteria" of Pjateckii-Sapiro. Besides that, we show a study over translations that preserve normality, introducing the concept of \determined numbers". We prove here a weaker form of a Rauzy's theorem, on the set of numbers that form normality preserving translations.
230

Distribuições das classes Kumaraswamy generalizada e exponenciada: propriedades e aplicações / Distributions of the generalized Kumaraswamy and exponentiated classes: properties and applications

Antonio Carlos Ricardo Braga Junior 04 April 2013 (has links)
Recentemente, Cordeiro e de Castro (2011) apresentaram uma classe generalizada baseada na distribuição Kumaraswamy (Kw-G). Essa classe de distribuições modela as formas de risco crescente, decrescente, unimodal e forma de U ou de banheira. Uma importante distribuição pertencente a essa classe é a distribuição Kumaraswamy Weibull modificada (KwMW) proposta por Cordeiro; Ortega e Silva (2013). Com isso foi utilizada essa distribuição para o desenvolvimento de algumas novas propriedades e análise bayesiana. Além disso, foi desenvolvida uma nova distribuição de probabilidade a partir da distribuição gama generalizada geométrica (GGG) que foi denominada de gama generalizada geométrica exponenciada (GGGE). Para a nova distribuição GGGE foram calculados os momentos, a função geradora de momentos, os desvios médios, a confiabilidade e as estatísticas de ordem. Desenvolveu-se o modelo de regressão log-gama generalizada geométrica exponenciada. Para a estimação dos parâmetros, foram utilizados os métodos de máxima verossimilhança e bayesiano e, finalmente, para ilustrar a aplicação da nova distribuição foi analisado um conjunto de dados reais. / Recently, Cordeiro and de Castro (2011) showed a generalized class based on the Kumaraswamy distribution (Kw-G). This class of models has crescent risk forms, decrescent, unimodal and U or bathtub form. An important distribution belonging to this class the Kumaraswamy modified Weibull distribution (KwMW), proposed by Cordeiro; Ortega e Silva (2013). Thus this distribution was used to develop some new properties and bayesian analysis. Furthermore, we develop a new probability distribution from the generalized gamma geometric distribution (GGG) which it is called generalized gamma geometric exponentiated (GGGE) distribution. For the new distribution we calculate the moments, moment generating function, mean deviation, reliability and order statistics. We define a log-generalized gamma geometric exponentiated regression model. The methods used to estimate the model parameters are: maximum likelihood and bayesian. Finally, we illustrate the potentiality of the new distribution by means of an application to a real data set.

Page generated in 0.3969 seconds