• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 152
  • 86
  • 54
  • 21
  • 10
  • 7
  • 4
  • 4
  • 4
  • 3
  • 2
  • 2
  • Tagged with
  • 412
  • 181
  • 87
  • 86
  • 78
  • 78
  • 77
  • 70
  • 65
  • 58
  • 57
  • 56
  • 48
  • 43
  • 42
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
201

Inferência bayesiana para o tamanho de uma população fechada com erros de registros de dados amostrais

Oda, Fausto Hideki 12 June 2008 (has links)
Made available in DSpace on 2016-06-02T20:04:50Z (GMT). No. of bitstreams: 1 2000.pdf: 560704 bytes, checksum: dc5176aa7963d595ab53cc7cd4313b33 (MD5) Previous issue date: 2008-06-12 / Financiadora de Estudos e Projetos / In this dissertation we determine maximum likelihood and bayesian estimates of the size of a closed population, from two lists of data of elements of the population. It has been supposed that the registers of the individual information in the lists are capable of mismatches and, with relation to the bayesian method, the prioris distributions are noninformative and they have maximum enthropy for the parameters. We also present the bayesian model, witch has considered the numbers elements of the two lists as a latent variable. We compare these models through examples with simulated and real data. / Nesta dissertação determinamos estimativas de máxima verossimilhança e bayesianas do tamanho de uma população fechada, a partir de duas listas de dados de elementos da população. Supomos que os registros das informações individuais nas listas são passíveis de erros e, com relação ao método bayesiano, as distribuições a priori adotadas para os parâmetros são não informativas e de máxima entropia. Apresentamos também um o modelo bayesiano, onde consideramos o número de elementos coincidentes nas duas listas como uma variável latente. Comparamos estes três modelos através de exemplos com dados simulados e reais.
202

Modelo de mistura com número de componentes desconhecido: estimação via método split-merge

Saraiva, Erlandson Ferreira 30 November 2009 (has links)
Made available in DSpace on 2016-06-02T20:04:50Z (GMT). No. of bitstreams: 1 2715.pdf: 5847504 bytes, checksum: 33fc1cbb82d98f376e09b5096d9e726c (MD5) Previous issue date: 2009-11-30 / Financiadora de Estudos e Projetos / We propose the split-merge MCMC and birth-split-merge MCMC algorithms to analyse mixture models with an unknown number of components. The strategy for splitting is based on data and posterior distribution. Allocation probabilities are calculated based on component parameters which are generated from the posterior distribution given the previously allocated observations. The split-merge proposals are developed to be reversible and are accepted according to Metropolis-Hastings probability. This procedure makes possible a greater change in configuration of latent variables, in a single iteration of algorithms, allow a major exploration of clusters and avoid possible local modes. As an advantage, our approach determines a quick split proposal in contrary to former split procedures which require substantial computational effort. In the birth-split-merge MCMC algorithm, the birth movement is obtained directly from the procedure to update the latent variables and occurs when an observation determine a new cluster. The performance of the method is verified using artificial data sets and two real data sets. The first real data set consist of benchmark data of velocities from distant galaxies diverging from our own while the second is Escherichia Coli bacterium gene expression data. / Propomos uma abordagem bayesiana hierárquica e os algoritmos split-merge MCMC e birth-split-merge MCMC para a estimação conjunta dos parâmetros e do número de componentes de um modelo com mistura de distribuições. A proposta split é baseada nos dados e na distribuição a posteriori dos parâmetros. Nesta proposta, utilizamos probabilidades de alocação que são calculadas de acordo com os parâmetros associados a cada componente, que são gerados da distribuição a posteriori dado as observações previamente alocadas. As propostas split e merge são desenvolvidas para serem reversíveis e são aceitas de acordo com a probabilidade de aceitação de Metropolis-Hastings, para garantir a existência da distribuição estacionária. O algoritmo birth-split-merge apresenta as mesmas propostas split-merge porém este algoritmo permite que ao atualizar uma variável latente, esta seja capaz de determinar o nascimento" (birth) de uma nova componente. Verificamos a performance dos algoritmos propostos utilizando dados artificiais, gerados via simulação, e dois conjuntos de dados reais. O primeiro é o bem conhecido conjunto de dados sobre a velocidade de galáxias e o segundo é um conjunto de dados de expressão gênica. A contribuição teórica presente nesta tese é o desenvolvimento de um pocesso estocástico com base nos movimentos split-merge, que são baseados nos dados. Ou seja, se a amostra é proveniente de uma população composta por k subpopulações, nosso método busca informações sobre as k subpopulações diretamente nos dados observados. Com isso, quando propomos o surgimento de uma nova componente esta sempre tem dados associados, i.e., determina uma partição nos dados observados, e os parâmetros são gerados da distribuição a posteriori, o que não ocorre nos métodos alternativos.
203

O efeito de reparametrização em testes de sobrevivência acelerados

Cavali, Wagner Aparecido 11 June 2003 (has links)
Made available in DSpace on 2016-06-02T20:06:00Z (GMT). No. of bitstreams: 1 1883.pdf: 6909454 bytes, checksum: 5c6b14e2d7e917eae5cb1bcb41a853f9 (MD5) Previous issue date: 2003-06-11 / Financiadora de Estudos e Projetos / Accelerated life tests are frequently used in industrial experiments to obtain measures on the reliability of products. In these tests, the units are submited at higher levels of stress than usual and the informations obtained are utilized to inference on the reliability of the product, under normal operating conditions. A practical problem, refers to the accuracy of inferences obtained by asymptotic normal approximation of the maximum likelihood estimator, when the sample size is small or moderate. In this dissertation are described the e¤ects of several reparametrizations on the accuracy of the interval estimation of the parameter of interest, here represented by the mean lifetime. The idea is to obtain a parametrization in order to have independent maximum likelihood estimates with good asymptotic normal approximation. A simulation study presents the coverage probability of the con dence intervals when only small or moderate size datasets are available. The e¤ect of the presence of censoring was also investigated in the simulation study. The methodology is illustrated on a real dataset of an accelerated life test at pressurized containers of Kevlan/Epoxy 49. Under the bayesian perspective, Markov Chain Monte Carlo methods are proposed to evaluate the reliability of products. The e¤ect of reparametrization on convergency of the chains is studied. / Testes de vida acelerados são frequentemente utilizados em experimentos industriais para obter medidas sobre a con abilidade de produtos. Nestes testes, as unidades são submetidas à níveis de estresse mais altos que os usuais e as informações obtidas são utilizadas para inferir sobre a con abilidade dos produtos, em condições normais de operação. Um problema prático, refere-se à precisão de inferências obtidas por aproximação normal assintótica dos estimadores de máxima verossimilhança, quando o tamanho da amostra é pequeno ou moderado. Nesta dissertação são descritos os efeitos de algumas reparametrizações na precisão da estimação intervalar do parâmetro de interesse, aqui representado pelo tempo médio de falha. O interesse é obter uma parametrização que proporcione estimativas de máxima verossimilhança independentes com boa aproximação normal assintótica. Um estudo de simulação apresenta a probabilidade de cobertura dos intervalos de con ança quando somente pequenos ou moderados tamanhos de conjuntos de dados são considerados. O efeito da presença de censura também foi investigado no estudo de simulação. A metodologia é ilustrada com dados reais de um teste de sobrevivência acelerado com containers pressurizados de Kevlan/Epoxy 49. Sob o enfoque Bayesiano, métodos Markov Chain Monte Carlo são propostos para avaliar a con abilidade das unidades. O efeito da reparametrização na convergência das cadeias é estudado.
204

Uso de métodos clássicos e bayesianos em modelos de regressão beta

Reitman, Diomedes Pael 18 May 2007 (has links)
Made available in DSpace on 2016-06-02T20:06:03Z (GMT). No. of bitstreams: 1 1439.pdf: 2669525 bytes, checksum: 610b8a21f9390e878877d6a634cd8873 (MD5) Previous issue date: 2007-05-18 / This work involves a study of a regression model appropriated for situations which the response variable is measured in a continuous scale in the (0, 1) interval, as, for instance, taxes or proportions. The developed inferences were based on the Classic and Bayesian methodology. A discussion about the application of the beta regression model is presented. / Este trabalho compreende um estudo de um modelo de Regressão Beta adequado para situações em que a variável resposta é medida de forma contínua no intervalo (0, 1) como, por exemplo, dados de taxas ou proporções. As inferências desenvolvidas foram baseadas nas metodologias Clássica e Bayesiana. É apresentada uma discussão ampla sobre a aplicação do modelo de regressão beta a conjuntos de dados reais, o caso Charter Schools.
205

Filtro de partículas adaptativo para o tratamento de oclusões no rastreamento de objetos em vídeos / Adaptive MCMC-particle filter to handle of occlusions in object tracking on videos

Oliveira, Alessandro Bof de January 2008 (has links)
O rastreamento de objetos em vídeos representa um importante problema na área de processamento de imagens, quer seja pelo grande número de aplicações envolvidas, ou pelo grau de complexidade que pode ser apresentado. Como exemplo de aplicações, podemos citar sua utilização em áreas como robótica móvel, interface homem-máquina, medicina, automação de processo industriais até aplicações mais tracionais como vigilância e monitoramento de trafego. O aumento na complexidade do rastreamento se deve principalmente a interação do objeto rastreado com outros elementos da cena do vídeo, especialmente nos casos de oclusões parciais ou totais. Quando uma oclusão ocorre a informação sobre a localização do objeto durante o rastreamento é perdida parcial ou totalmente. Métodos de filtragem estocástica, utilizados para o rastreamento de objetos, como os Filtros de Partículas não apresentam resultados satisfatórios na presença de oclusões totais, onde temos uma descontinuidade na trajetória do objeto. Portanto torna-se necessário o desenvolvimento de métodos específicos para tratar o problema de oclusão total. Nesse trabalho, nós desenvolvemos uma abordagem para tratar o problema de oclusão total no rastreamento de objetos utilizando Filtro de Partículas baseados em Monte Carlo via Cadeia de Markov (MCCM) com função geradora de partículas adaptativa. Durante o rastreamento do objeto, em situações onde não há oclusões, nós utilizamos uma função de probabilidade geradora simétrica. Entretanto, quando uma oclusão total, ou seja, uma descontinuidade na trajetória é detectada, a função geradora torna-se assimétrica, criando um termo de “inércia” ou “arraste” na direção do deslocamento do objeto. Ao sair da oclusão, o objeto é novamente encontrado e a função geradora volta a ser simétrica novamente. / The object tracking on video is an important task in image processing area either for the great number of involved applications, or for the degree of complexity that can be presented. How example of application, we can cite its use from robotic area, machine-man interface, medicine, automation of industry process to vigilance and traffic control applications. The increase of complexity of tracking is occasioned principally by interaction of tracking object with other objects on video, specially when total or partial occlusions occurs. When a occlusion occur the information about the localization of tracking object is lost partially or totally. Stochastic filtering methods, like Particle Filter do not have satisfactory results in the presence of total occlusions. Total occlusion can be understood like discontinuity in the object trajectory. Therefore is necessary to develop specific method to handle the total occlusion task. In this work, we develop an approach to handle the total occlusion task using MCMC-Particle Filter with adaptive sampling probability function. When there is not occlusions we use a symmetric probability function to sample the particles. However, when there is a total occlusion, a discontinuity in the trajectory is detected, and the probability sampling function becomes asymmetric. This break of symmetry creates a “drift” or “inertial” term in object shift direction. When the tracking object becomes visible (after the occlusion) it is found again and the sampling function come back to be symmetric.
206

Misturas de escala da distribuição normal assimétrica com dados faltantes

Pinheiro, Camila Xavier Sá Peixoto, 92-98825-5055 03 May 2016 (has links)
Submitted by Ingrid Lima (ingrdslima@hotmail.com) on 2017-11-03T15:24:11Z No. of bitstreams: 2 DISSERTACAO final Camila Sá Peixoto Pinheiro - com folha assinada.pdf: 2249114 bytes, checksum: 3bdd9a6d1539c3d7b14311776dda4f28 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Approved for entry into archive by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br) on 2017-11-07T14:06:59Z (GMT) No. of bitstreams: 2 DISSERTACAO final Camila Sá Peixoto Pinheiro - com folha assinada.pdf: 2249114 bytes, checksum: 3bdd9a6d1539c3d7b14311776dda4f28 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Approved for entry into archive by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br) on 2017-11-07T14:16:03Z (GMT) No. of bitstreams: 2 DISSERTACAO final Camila Sá Peixoto Pinheiro - com folha assinada.pdf: 2249114 bytes, checksum: 3bdd9a6d1539c3d7b14311776dda4f28 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Made available in DSpace on 2017-11-07T14:16:03Z (GMT). No. of bitstreams: 2 DISSERTACAO final Camila Sá Peixoto Pinheiro - com folha assinada.pdf: 2249114 bytes, checksum: 3bdd9a6d1539c3d7b14311776dda4f28 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Previous issue date: 2016-05-03 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / No summary / Neste trabalho estudamos uma ferramenta de estimação para modelos sob a classe de misturas de escala da distribuição normal assimétrica multivariada onde valores faltantes ocorrem nos dados. Desta forma, apresentamos uma proposta utilizando tais modelos flexíveis e algoritmos computacionais para a análise de dados multivariados com comportamento que foge do padrão usual da distribuição normal e outras distribuições simétricas usuais, apresentando forte assimetria e caudas pesadas. Além disso, mostramos a eficiência da aplicação da modelagem sugerida e do método de estimação proposto, por meio de estudos de simulação computacional, analisando a qualidade dos estimadores via estudos de vício e erro quadrático médio e comparando diferentes modelos via critérios de seleção. A abordagem inferencial utilizada foi a Bayesiana, utilizando os métodos MCMC tradicionais para obter gerações de amostras da distribuição a posterior.
207

Um modelo robusto assimétrico de análise fatorial

Carvalho, Silvia Viviane Oliveira 07 May 2014 (has links)
Submitted by Lúcia Brandão (lucia.elaine@live.com) on 2015-12-14T14:04:18Z No. of bitstreams: 1 Dissertacão - Silvia Viviane Oliveira Carvalho.pdf: 2435624 bytes, checksum: 82c054d6eb1b1cabb4d70ff87d47244f (MD5) / Approved for entry into archive by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br) on 2016-01-20T15:03:47Z (GMT) No. of bitstreams: 1 Dissertacão - Silvia Viviane Oliveira Carvalho.pdf: 2435624 bytes, checksum: 82c054d6eb1b1cabb4d70ff87d47244f (MD5) / Approved for entry into archive by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br) on 2016-01-20T15:06:49Z (GMT) No. of bitstreams: 1 Dissertacão - Silvia Viviane Oliveira Carvalho.pdf: 2435624 bytes, checksum: 82c054d6eb1b1cabb4d70ff87d47244f (MD5) / Made available in DSpace on 2016-01-20T15:06:49Z (GMT). No. of bitstreams: 1 Dissertacão - Silvia Viviane Oliveira Carvalho.pdf: 2435624 bytes, checksum: 82c054d6eb1b1cabb4d70ff87d47244f (MD5) Previous issue date: 2014-05-07 / Não informada / In this work we develop an extension of the classic factor analysis model, by relaxing the assumption of normality of the factors. Instead, we suppose that the joint distribution of the factors and observational errors is a scale mixture of skew-normal distributions, allowing us to model data following a nonstandard pattern, presenting skewness and heavy tails at the same time. A relevant feature of the model is the parametrization used for the scale mixture, defined in such a way that all the elements of the shape vector but the first are guaranteed to be zero. / Apresenta-se, nesta dissertação, uma extensão do modelo de análise fatorial, através da flexibilização da suposição de normalidade dos fatores e dos erros de observação. Assume-se que a distribuição conjunta do vetor de erros de observação e do vetor de fatores é uma mistura de escala da distribuição normal assimétrica, o que possibilita a modelagem de dados que seguem um padrão não usual, apresentado assimetria e caudas pesadas ao mesmo tempo, por exemplo. Uma característica relevante do modelo é a parametrização utilizada para a mistura de escala, definida de tal maneira que os elementos do parâmetro vetor de forma, com exceção de um, sejam todos iguais a zero.
208

Association between Folate Levels and Preterm Birth in Tampa, Florida

Heeraman, Carolyn 02 November 2016 (has links)
Background: Preterm birth is one of the leading causes of perinatal mortality and morbidity and poses extensive economic liability. The rate of preterm births globally is approximately 11.1%, and in the US, the preterm birth rate has been estimated to be 12-13%. Folate and B12 requirements increase during pregnancy as a result of increased cell division to accommodate maternal and fetal growth; inadequate levels can result in placental abnormalities and thus present implications for preterm birth. Objective: To investigate the association between red blood cell (RBC) folate and B12 concentrations with the risk of preterm birth. Methods: Study participants were recruited from Tampa General Hospital between January 2011 and May 2013. Women with a singleton delivery occurring less than 37 weeks gestation were classified as cases and those with a singleton delivery occurring between 37 and 42 weeks gestation were classified as controls. The study had a final sample size of 227 women, including 36 cases and 191 controls. Maternal blood was collected in order to measure folate and B12 concentrations. The association between folate/B12 and preterm birth was assessed using logistic regression; odds ratio (OR), 95% confidence interval (CI) and p values are reported. A power analysis was also performed using the available sample as well as imputation for missing values in the B12 variable. Results: Although not statistically significant, the mean concentration of folate and B12 levels were higher in the cases than in the controls, 894 ± 158.1 vs. 869.2 ± 169.6 and 245.2 ± 102.2 vs 238.3 ± 81.5, respectively. No significant associations were found between folate or B12 and the risk of preterm birth. Conclusions: This study did not detect a significant association between folate or B12 and preterm birth; however, due to the small sample size this analysis was underpowered. Additional studies are needed, preferably using a randomized control study design, in order to elucidate the relationship between folate/B12 and preterm births.
209

Comparison of change-point detection algorithms for vector time series

Du, Yang January 2010 (has links)
Change-point detection aims to reveal sudden changes in sequences of data. Special attention has been paid to the detection of abrupt level shifts, and applications of such techniques can be found in a great variety of fields, such as monitoring of climate change, examination of gene expressions and quality control in the manufacturing industry. In this work, we compared the performance of two methods representing frequentist and Bayesian approaches, respectively. The frequentist approach involved a preliminary search for level shifts using a tree algorithm followed by a dynamic programming algorithm for optimizing the locations and sizes of the level shifts. The Bayesian approach involved an MCMC (Markov chain Monte Carlo) implementation of a method originally proposed by Barry and Hartigan. The two approaches were implemented in R and extensive simulations were carried out to assess both their computational efficiency and ability to detect abrupt level shifts. Our study showed that the overall performance regarding the estimated location and size of change-points was comparable for the Bayesian and frequentist approach. However, the Bayesian approach performed better when the number of change-points was small; whereas the frequentist became stronger when the change-point proportion increased. The latter method was also better at detecting simultaneous change-points in vector time series. Theoretically, the Bayesian approach has a lower computational complexity than the frequentist approach, but suitable settings for the combined tree and dynamic programming can greatly reduce the processing time.
210

Topics in Random Matrices: Theory and Applications to Probability and Statistics

Kousha, Termeh January 2012 (has links)
In this thesis, we discuss some topics in random matrix theory which have applications to probability, statistics and quantum information theory. In Chapter 2, by relying on the spectral properties of an associated adjacency matrix, we find the distribution of the maximum of a Dyck path and show that it has the same distribution function as the unsigned Brownian excursion which was first derived in 1976 by Kennedy. We obtain a large and moderate deviation principle for the law of the maximum of a random Dyck path. Our result extends the results of Chung, Kennedy and Khorunzhiy and Marckert. In Chapter 3, we discuss a method of sampling called the Gibbs-slice sampler. This method is based on Neal's slice sampling combined with Gibbs sampling. In Chapter 4, we discuss several examples which have applications in physics and quantum information theory.

Page generated in 0.0636 seconds