• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 543
  • 83
  • 64
  • 20
  • 18
  • 18
  • 17
  • 12
  • 5
  • 5
  • 5
  • 5
  • 4
  • 3
  • 1
  • Tagged with
  • 707
  • 416
  • 267
  • 216
  • 176
  • 166
  • 151
  • 144
  • 132
  • 125
  • 101
  • 87
  • 85
  • 85
  • 83
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
181

Um estudo de métodos bayesianos para dados de sobrevivência com omissão nas covariáveis / A study of Bayesian methods for survival data with missing covariates.

Polli, Demerson Andre 14 March 2007 (has links)
O desenvolvimento de métodos para o tratamento de omissões nos dados é recente na estatística e tem sido alvo de muitas pesquisas. A presença de omissões em covariáveis é um problema comum na análise estatística e, em particular nos modelos de análise de sobrevivência, ocorrendo com freqüência em pesquisas clínicas, epidemiológicas e ambientais. Este trabalho apresenta propostas bayesianas para a análise de dados de sobrevivência com omissões nas covariáveis considerando modelos paramétricos da família Weibull e o modelo semi-paramétrico de Cox. Os métodos estudados foram avaliados tanto sob o enfoque paramétrico quanto o semiparamétrico considerando um conjunto de dados de portadores de insuficiência cardíaca. Além disso, é desenvolvido um estudo para avaliar o impacto de diferentes proporções de omissão. / The development of methods dealing with missing data is recent in Statistics and is the target of many researchers. The presence of missing values in the covariates is very common in statistical analysis and, in particular, in clinical, epidemiological and enviromental studies for survival data. This work considers a bayesian approach to analise data with missing covariates for parametric models in the Weibull family and for the Cox semiparametric model. The studied methods are evaluated for the parametric and semiparametric approaches considering a dataset of patients with heart insufficiency. Also, the impact of different omission proportions is assessed.
182

Modelo secuencial con aplicación a la medición del rendimiento estudiantil

Mejía Campos, Luis Ángel 04 February 2019 (has links)
En este trabajo se presenta el Modelo Secuencial para datos politómicos ordinales de la teoría de respuesta al ítem y sus características. De forma específi ca se estudia el Modelo Secuencial Logístico de 2 parámetros (2PL-SM). La estimación de este modelo se realiza utilizando Métodos de Cadenas de Markov de Montecarlo (MCMC), los cuales fueron implementados en R y WinBUGS. Se realizó un estudio de simulación con el objetivo de estudiar la precisión en la recuperación de parámetros observándose resultados apropiados según los índices de precisión utilizados. El Modelo Secuencial en estudio fue luego aplicado a la prueba de escritura de la Evaluación Muestral 2013 del Ministerio de Educación, evaluación que fue aplicada a una muestra de 4327 estudiantes de sexto grado de primaria de todo el país. Con la aplicación del modelo a la prueba se pudo determinar que en general esta contiene ítems cuyas di ficultades son bajas y que, para los estudiantes, el enfrentarse a esta prueba no debería resultarles complicado. / Tesis
183

Modelos para dados grupados e sensurados aplicados à área biológica : comparação usando fator de Bayes /

Andrade, Sophia Lanza de. January 2015 (has links)
Orientador: Liciana Vaz de Arruda Silveira / Banca: Francisco Torres-Avilés / Banca: Rogério Antonio de Oliveira / Resumo: Dados grupados e um caso particular de dados de sobrevivência com censura intervalar, que ocorre quando as observações são avaliadas nos mesmos intervalos de tempo, e geralmente está associado a dados com grande número de empates, ou seja, quando a proporção de empates e maior que 25% (Chalita et al., 2002), e podem desta forma ser analisados considerando o tempo discreto e ajustando-se modelos a probabilidade do indivíduo falhar em um certo intervalo, dado que sobreviveu ao intervalo anterior (Lawless, 2002). Dentre os possíveis modelos adaptados a este tipo de dados, tem-se o Modelo Logístico e o Modelo de Cox. A comparação entre o ajuste destes dois modelos pode ser feita utilizando o teste escore proposto por Colosimo et al. (2000), Bootstrap não paramétrico ou Critérios de Informação de Akaike (AIC). Uma alternativa a estas téccnicas, do ponto de vista bayesiano, e a utilização do Fator de Bayes. O objetivo deste estudoé comparar o ajuste do Modelo Logístico com o do Modelo de Cox para dados grupados e censurados usando inicialmente critérios clássicos de seleção de modelos: o Critério de Informação de Akaike (AIC), o Critério de Informação de Akaike Corrigido (AICc) e o Critério de Informação Bayesiano (BIC). Posteriormente foi utilizado o Fator de Bayes, assim como o Critério de Informação Deviance (DIC) e adaptações dos critérios clássicos já citados, utilizando as amostras a posteriori geradas por um método MCMC. Como ilustração, foi usado um conjunto de dados referente a uma manifestação clínica da doença de Chagas, conhecida como megacólon chagásico (Almeida, 1996). / Abstract: Grouped data is a particular case of survival data with interval censoring, that occurs when the observations are evaluated at the same time intervals, and is generally associated at data with a large number of draws, or draws ratio more than 25% (Chalita et al., 2002). It can be analyzed considering discrete-time and tting models at the probability of an individual fails in a certain interval, given that survived the previous one (Lawless, 2002). Among the possible models adapted to this type of data we can mention the Logistic Model and the Cox's Model. The comparison between the t of these two models can be made using the score test proposed by Colosimo et al. (2000), nonparametric Bootstrap or the Akaike Information Criterion (AIC). An alternative to these techniques, from the Bayesian point of view, is the Bayes Factor. The purpose of this study is to compare the t of the Logistic Model with the Cox's Model to grouped and censoring data using, initially, classic model selection criteria: Akaike Information Criterion (AIC), Akaike Information Criterion corrected (AICc) and Bayesian Information Criterion (BIC). After that, was used the Bayes Factor, as well as Deviance Information Criterion (DIC) and adaptations of the classic model selection criteria above mentioned, using the posteriori sample generated by a MCMC method. As an example, was used a data set related to a clinical manifestation of Chagas disease known as chagasic megacolon (Almeida, 1996) / Mestre
184

Regressão binária bayesiana com o uso de variáveis auxiliares / Bayesian binary regression models using auxiliary variables

Rafael Braz Azevedo Farias 27 April 2007 (has links)
A inferência Bayesiana está cada vez mais dependente de algoritmos de simulação estocástica, e sua eficiência está diretamente relacionada à eficiência do algoritmo considerado. Uma prática bastante utilizada é a introdução de variáveis auxiliares para obtenção de formas conhecidas para as distribuições {\\it a posteriori} condicionais completas, as quais facilitam a implementação do amostrador de Gibbs. No entanto, a introdução dessas variáveis pode produzir algoritmos onde os valores simulados são fortemente correlacionados, fato esse que prejudica a convergência. O agrupamento das quantidades desconhecidas em blocos, de tal maneira que seja viável a simulação conjunta destas quantidades, é uma alternativa para redução da autocorrelação, e portanto, ajuda a melhorar a eficiência do procedimento de simulação. Neste trabalho, apresentamos propostas de simulação em blocos no contexto de modelos de regressão binária com o uso de variáveis auxiliares. Três classes de funções de ligação são consideradas: probito, logito e probito-assimétrico. Para as duas primeiras apresentamos e implementamos as propostas de atualização conjunta feitas por Holmes e Held (2006). Para a ligação probito-assimétrico propomos quatro diferentes maneiras de construir os blocos, e comparamos estes algoritmos através de duas medidas de eficiência (distância média Euclidiana entre atualizações e tamanho efetivo da amostra). Concluímos que os algoritmos propostos são mais eficientes que o convencional (sem blocos), sendo que um deles proporcionou ganho superior a 160\\% no tamanho efetivo da amostra. Além disso, discutimos uma etapa bastante importante da modelagem, denominada análise de resíduos. Nesta parte adaptamos e implementamos os resíduos propostos para a ligação probito para os modelos logístico e probito-assimétrico. Finalmente, utilizamos os resíduos propostos para verificar a presença de observações discrepantes em um conjunto de dados simulados. / The Bayesian inference is getting more and more dependent of stochastic simulation algorithms, and its efficiency is directly related with the efficiency of the considered algorithm. The introduction of auxiliary variables is a technique widely used for attainment of the full conditional distributions, which facilitate the implementation of the Gibbs sampling. However, the introduction of these auxiliary variables can produce algorithms with simulated values highly correlated, this fact harms the convergence. The grouping of the unknow quantities in blocks, in such way that the joint simulation of this quantities is possible, is an alternative for reduction of the autocorrelation, and therefore, improves the efficiency of the simulation procedure. In this work, we present proposals of simulation using the Gibbs block sampler in the context of binary response regression models using auxiliary variables. Three class of links are considered: probit, logit and skew-probit. For the two first we present and implement the scheme of joint update proposed by Holmes and Held (2006). For the skew-probit, we consider four different ways to construct the blocks, and compare these algorithms through two measures of efficiency (the average Euclidean update distance between interactions and effective sample size). We conclude that the considered algorithms are more efficient than the conventional (without blocks), where one of these leading to around 160\\% improvement in the effective sample size. Moreover, we discuss one important stage of the modelling, called residual analysis. In this part we adapt and implement residuals considered in the probit model for the logistic and skew-probit models. For a simulated data set we detect the presence of outlier used the residuals proposed here for the different models.
185

Construção de redes usando estatística clássica e Bayesiana - uma comparação / Building complex networks through classical and Bayesian statistics - a comparison

Lina Dornelas Thomas 13 March 2012 (has links)
Nesta pesquisa, estudamos e comparamos duas maneiras de se construir redes. O principal objetivo do nosso estudo é encontrar uma forma efetiva de se construir redes, especialmente quando temos menos observações do que variáveis. A construção das redes é realizada através da estimação do coeficiente de correlação parcial com base na estatística clássica (inverse method) e na Bayesiana (priori conjugada Normal - Wishart invertida). No presente trabalho, para resolver o problema de se ter menos observações do que variáveis, propomos uma nova metodologia, a qual chamamos correlação parcial local, que consiste em selecionar, para cada par de variáveis, as demais variáveis que apresentam maior coeficiente de correlação com o par. Aplicamos essas metodologias em dados simulados e as comparamos traçando curvas ROC. O resultado mais atrativo foi que, mesmo com custo computacional alto, usar inferência Bayesiana é melhor quando temos menos observações do que variáveis. Em outros casos, ambas abordagens apresentam resultados satisfatórios. / This research is about studying and comparing two different ways of building complex networks. The main goal of our study is to find an effective way to build networks, particularly when we have fewer observations than variables. We construct networks estimating the partial correlation coefficient on Classic Statistics (Inverse Method) and on Bayesian Statistics (Normal - Invese Wishart conjugate prior). In this current work, in order to solve the problem of having less observations than variables, we propose a new methodology called local partial correlation, which consists of selecting, for each pair of variables, the other variables most correlated to the pair. We applied these methods on simulated data and compared them through ROC curves. The most atractive result is that, even though it has high computational costs, to use Bayesian inference is better when we have less observations than variables. In other cases, both approaches present satisfactory results.
186

Um ambiente computacional para um teste de significância bayesiano / An computational environment for a bayesian significance test

Silvio Rodrigues de Faria Junior 09 October 2006 (has links)
Em 1999, Pereira e Stern [Pereira and Stern, 1999] propuseram o Full Baye- sian Significance Test (FBST), ou Teste de Significancia Completamente Bayesiano, especialmente desenhado para fornecer um valor de evidencia dando suporte a uma hip otese precisa H. Apesar de possuir boas propriedades conceituais e poder tratar virtual- mente quaisquer classes de hip oteses precisas em modelos param etricos, a difus ao deste m etodo na comunidade cient fica tem sido fortemente limitada pela ausencia de um ambiente integrado onde o pesquisador possa formular e implementar o teste de seu interesse. O objetivo deste trabalho e apresentar uma proposta de implementa c ao de um ambiente integrado para o FBST, que seja suficientemente flex vel para tratar uma grande classe de problemas. Como estudo de caso, apresentamos a formula c ao do FBST para um problema cl assico em gen etica populacional, o Equil brio de Hardy-Weinberg / In 1999, Pereira and Stern [Pereira and Stern, 1999] introduced the Full Bayesian Significance Test (FBST), developed to give a value of evidence for a precise hypothesis H. Despite having good conceptual properties and being able to dealing with virtually any classes of precise hypotheses under parametric models, the FBST did not achieve a large difusion among the academic community due to the abscence of an computational environment where the researcher can define and assess the evidence for hypothesis under investigation. In this work we propose an implementation of an flexible computatio- nal environment for FBST and show a case study in a classical problem in population genetics, the Hardy-Weinberg Equilibrium Law.
187

Análise estatística para dados de contagem longitudinais  na presença de covariáveis: aplicações na área médica / Statistical Analyze For Longitudinal Counting Data in Presence of Covariates: Application in Medical Research

Emilio Augusto Coelho Barros 09 February 2009 (has links)
COELHO-BARROS, E. A. Analise estatstica para dados de contagem longitudinais na presenca de covariaveis: Aplicações na area medica. Dissertação (mestrado) - Faculdade de Medicina de Ribeirão Preto - USP, Ribeirão Preto - SP - Brasil, 2009. Dados de contagem ao longo do tempo na presenca de covariaveis são muito comuns em estudos na area da saude coletiva, por exemplo; numero de doenças que uma pessoa, com alguma caracteristica especifica, adquiriu ao longo de um período de tempo; numero de internações hospitalares em um período de tempo, devido a algum tipo de doença; numero de doadores de orgãos em um período de tempo. Nesse trabalho são apresentados diferentes modelos estatsticos de\\fragilidade\" de Poisson para a analise estatística de dados de contagem longitudinais. Teoricamente, a distribuição de Poisson exige que a media seja igual a variância, quando isto não ocorre tem-se a presenca de uma variabilidade extra-Poisson. Os modelos estatsticos propostos nesta dissertação incorporam a variabilidade extra-Poisson e capturam uma possvel correlação entre as contagens para o mesmo indivduo. Para cada modelo foi feito uma analise Bayesiana Hierarquica considerando os metodos MCMC (Markov Chain Monte Carlo). Utilizando bancos de dados reais, cedidos por pesquisadores auxiliados pelo CEMEQ (Centro de Metodos Quantitativos, USP/FMRP), foram discutidos alguns aspectos de discriminação Bayesiana para a escolha do melhor modelo. Um exemplo de banco de dados reais, discutido na Seção 4 dessa dissertação, que se encaixa na area da saude coletiva, e composto de um estudo prospectivo, aberto e randomizado, realizado em pacientes infectados pelo HIV que procuraram atendimento na Unidade Especial de Terapia de Doencas Infecciosas (UETDI) do Hospital das Clnicas da Faculdade de Medicina de Ribeirão Preto da Universidade de São Paulo (HCFMRP-USP). Os esquemas terapêuticos estudados consistiam em zidovudina e lamivudina, associadas ao efavirenz ou lopinavir. Entre setembro de 2004 e maio de 2006 foram avaliados 66 pacientes, sendo 43 deles includos no estudo. Destes, 39 participantes alcançaram a semana 24 de acompanhamento, enquanto 27 atingiram a semana 48. Os grupos de pacientes apresentavam características basais semelhantes, quanto a idade, sexo, mediana de CD4 e carga viral. O interesse desse experimento e estudar a contagem de CD4 considerando os dois esquemas terapêuticos (efavirenz e lopinavir). / COELHO-BARROS, E. A. Analise estatstica para dados de contagem longitudinais na presenca de covariaveis: Aplicac~oes na area medica. Dissertac~ao (mestrado) - Faculdade de Medicina de Ribeir~ao Preto - USP, Ribeir~ao Preto - SP - Brasil, 2009. Longitudinal counting data in the presence of covariates is very common in many applications, especially considering medical data. In this work we present dierent \\frailty\"models to analyze longitudinal Poisson data in the presence of covariates. These models incorporate the extra-Poisson variability and the possible correlation among the repeated counting data for each individual. A hierarchical Bayesian analysis is introduced for each dierent model considering usual MCMC (Markov Chain Monte Carlo) methods. Considering reals biological data set (obtained from CEMEQ, Medical School of Ribeir~ao Preto, University of S~ao Paulo, Brazil), we also discuss some Bayesian discrimination aspects for the choice of the best model. In Section 4 is considering a data set related to an open prospective and randomized study, considering of HIV infected patients, free of treatments, which entered the Infection Diseases Therapy Special Unit (UETDI) of the Clinical Hospital of the Medical School of Ribeir~ao Preto, University of S~ao Paulo (HCFMRP-USP). The therapeutic treatments consisted of the drugs Zidovudine and Lamivudine, associated to Efavirenz and Lopinavir. The data set was related to 66 patients followed from September, 2004 to may, 2006, from which, 43 were included in the study. The patients groups presented similar basal characteristics in terms of sex, age, CD4 counting median and viral load. The main goal of this study was to compare the CD4 cells counting for the two treatments, based on the drugs Efavirenz and Lopinavir, recently adopted as preferencial for the initial treatment of the disease.
188

Análise Bayesiana de ensaios fatoriais 2k usando os princípios dos efeitos esparsos, da hierarquia e da hereditariedade / Bayesian analysis of 2k factorial designs using the sparse eects, hierarchy and heredity principles

Guilherme Biz 29 January 2010 (has links)
No Planejamento de experimentos para o ajuste de modelos polinomiais envolvendo k fatores principais e respectivas interações, e bastante comum a utilização dos fatoriais 2k, 3k ou frações dos mesmos. Para as analises dos resultados desses experimentos, freqüentemente se considera o princípio da hereditariedade, ou seja, uma vez constatada uma interação significativa entre fatores, os fatores que aparecem nesta interação e respectivas interações devem também estar presentes no modelo. Neste trabalho, esse princípio e incorporado diretamente a priori, para um método de seleção de variáveis Bayesiana, seguindo as idéias propostas por Chipman, Hamada e Wu (1997), porem com uma alteração dos valores sugeridos pelos autores para os hiperparâmetros. Essa alteração, proposta neste trabalho, promove uma melhoria considerável na metodologia original. A metodologia e então ilustrada por meio da analise dos resultados de um experimento fatorial para a elaboração de biofilmes de amido originado da ervilha. / In experimental planning for adjustment of polynomials models involving k main factors and their interactions, it is frequent to adopt the 2k, 3k designs or its fractions. Furthermore, it is not unusual, when analysing the results of such experiments, to consider the heredity principle. In other words, once detected a signicant interaction between factors, the factors that appear in this interaction and respective interactions should also be present in the model. In this work, this principle is incorporated directly in the prior, following the ideas proposed by Chipman, Hamada and Wu (1997), but changing some of the hyperparameters. What improves considerably the original methodology. Finally the methodology is illustrated by the analysis of the results of an experiment for the elaboration of pea starch biolms.
189

Aplicação de modelos de volatilidade estocástica em dados de poluição do ar de duas grandes cidades: Cidade do México e São Paulo / Application of stochastic volatility models to air pollution data of two big cities: Mexico City and São Paulo

Henrique Ceretta Zozolotto 30 June 2010 (has links)
Estudos recentes relacionados ao meio ambiente vêm ganhando grande destaque em todo o mundo devido ao fato dos níveis de poluição e a destruição das reservas naturais terem aumentado de maneira alarmante nos últimos anos. As grandes cidades são as que mais sofrem com a poluição e aqui serão estudados os níveis de poluição do ar em duas cidades em particular, a Cidade do México e São Paulo. A Cidade do México apresenta sérios problemas com os níveis de ozônio e São Paulo é a cidade brasileira com os maiores problemas relacionados à poluição. Entre os diferentes modelos considerados para analisar dados de poluição do ar, pode-se considerar o uso de modelos de séries temporais para modelar as médias diárias ou semanais de poluição. Nessa direção pode-se usar modelos de volatilidade estocástica. Essa família de modelos estatísticos tem sido extensivamente usada para analisar séries temporais financeiras, porém não se observa muitas aplicações em dados ambientais e de saúde. Modelos de volatilidade estocástica bivariados e multivariados, sob a aproximação Bayesiana, foram considerados para analisar os dados, especialmente usando métodos MCMC (Monte Carlo em Cadeias de Markov) para obter os sumários a posteriori de interesse, pois pode-se ter muitas dificuldades usando métodos clássicos de inferência estatística / Recent studies related to environmental has been considered in all world due to increasing levels of pollution and of natural resources destruction especially, in the last years. The largest cities in the world are the ones been mostly affected by pollution and in this work we consider the analysis of air pollution data of two important cities: Mexico City and São Paulo. The Mexico City presents serious problems of ozone levels and São Paulo is the Brazilian city with the largest problems related to air pollution. Among the different models which could be used to analyze air pollution data, we consider the use of time series modeling to the weekly or daily levels of pollution. In this way, we consider the use of volatility stochastic models. This family of models has been well explored with financial data but not well explored to analyze environmental and health data. Bivariate and multivariate stochastic models under the Bayesian approach were considered to analyze the data, especially using MCMC (Markov Chain Monte Carlo) methods to obtain the posterior summary of interest, since we usually have big difficulties using standard classical inference methods
190

Métodos estatísticos para equalização de canais de comunicação. / Statistical methods for blind equalization of communication channels.

Claudio José Bordin Júnior 23 March 2006 (has links)
Nesta tese analisamos e propomos métodos para a equalização não-treinada (cega) de canais de comunicação lineares FIR baseados em filtros de partículas, que são técnicas recursivas para a solução Bayesiana de problemas de filtragem estocástica. Iniciamos propondo novos métodos para equalização sob ruído gaussiano que prescindem do uso de codificação diferencial, ao contrário dos métodos existentes. Empregando técnicas de evolução artificial de parâmetros, estendemos estes resultados para o caso de ruído aditivo com distribuição não-gaussiana. Em seguida, desenvolvemos novos métodos baseados nos mesmos princípios para equalizar e decodificar conjuntamente sistemas de comunicação que empregam códigos convolucionais ou em bloco. Através de simulações numéricas, observamos que os algoritmos propostos apresentam desempenhos, medidos em termos de taxa média de erro de bit e velocidade de convergência, marcadamente superiores aos de métodos tradicionais, freqüentemente aproximando o desempenho dos algoritmos ótimos (MAP) treinados. Além disso, observamos que os métodos baseados em filtros de partículas determinísticos exibem desempenhos consistentemente superiores aos dos demais métodos, sendo portanto a melhor escolha caso o modelo de sinal empregado permita a marginalização analítica dos parâmetros desconhecidos do canal. / In this thesis, we propose and analyze blind equalization methods suitable for linear FIR communications channels, focusing on the development of algorithms based on particle filters - recursive methods for approximating Bayesian solutions to stochastic filtering problems. Initially, we propose new equalization methods for signal models with gaussian additive noise that dispense with the need for differentially encoding the transmitted signals, as opposed to the previously existing methods. Next, we extend these algorithms to deal with non-gaussian additive noise by deploying artificial parameter evolution techniques. We next develop new joint blind equalization and decoding algorithms, suitable for convolutionally or block-coded communications systems. Via numerical simulations we show that the proposed algorithms outperform traditional approaches both in terms of mean bit error rate and convergence speed, and closely approach the performance of the optimal (MAP) trained equalizer. Furthermore, we observed that the methods based on deterministic particle filters consistently outperform those based on stochastic approaches, making them preferable when the adopted signal model allows for the analytic marginalization of the unknown channel parameters.

Page generated in 0.0338 seconds