• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 242
  • 12
  • 1
  • 1
  • Tagged with
  • 262
  • 262
  • 208
  • 192
  • 67
  • 60
  • 52
  • 51
  • 51
  • 50
  • 45
  • 44
  • 44
  • 42
  • 41
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Um estudo comparativo entre abordagens Bayesianas à testes de hipóteses / A comparative study of Bayesian approaches to hypothesis testing

Melo, Brian Alvarez Ribeiro de 04 March 2013 (has links)
Neste trabalho, consideramos uma população finita composta por N elementos, sendo que para cada unidade está associado um número (ou vetor) de tal forma que temos para a população o vetor de valores X = (X1, ... ,XN), onde Xi denota a característica de interesse do i-ésimo indivíduo da população, que suporemos desconhecida. Aqui assumimos que a distribuição do vetor X é permutável e que existe disponível uma amostra composta por n < N elementos. Os objetivos são a construção de testes de hipóteses para os parâmetros operacionais, através das distribuições a posteriori obtidas sob a abordagem preditivista para populações finitas e a comparação com os resultados obtidos a partir dos modelos Bayesianos de superpopulação. Nas análises consideramos os modelos Bernoulli, Poisson, Uniforme Discreto e Multinomial. A partir dos resultados obtidos, conseguimos ilustrar situações nas quais as abordagens produzem resultados diferentes, como prioris influenciam os resultados e quando o modelo de populações finitas apresenta melhores resultados que o modelo de superpopulação. / We consider a finite population consisting of N units and to each unit there is a number (or vector) associated such that we have for the population the vector of values X = (X1, ..., XN), where Xi denotes the characteristic of interest of the i-th individual in the population, which we will suppose unknown. Here we assume that the distribution of the vector X is exchangeable and that there is available a sample of size n < N from this population. The goals are to derive tests of hipotheses for the operational parameters through the corresponding posterior distributions obtained under the predictivistic approach for finite populations and to compare them with the results obtained from the usual Bayesian procedures of superpopulation models. In the analysis, the following models are considered: Bernoulli, Poisson, Discrete Uniform and Multinomial. From the results, we can identify situations in which the approaches yield dierent results, how priors influence the results of hipothesis testing and when the finite population model performs better than the superpopulation one.
42

Aprimoramento de método para inferência de espectro de ondas a partir de movimentos de sistemas oceânicos. / Enhancement of method for wave spectrum inference from ocean systems motions.

Bispo, Iuri Baldaconi da Silva 09 November 2011 (has links)
Este trabalho envolve dois diferentes aspectos da estimação de espectros direcionais de onda a partir de movimentos de 1a ordem da embarcação. Sendo a estimação do espectro de ondas feita por meio de um método Bayesiano, existe a necessidade da calibração dos hiperparâmetros derivados da modelagem Bayesiana. O primeiro assunto abordado é a determinação de uma metodologia de calibração dos hiperparâmetros necessários à estimação do espectro direcional de ondas. Desenvolve-se ao longo deste uma primeira análise de um método aplicável a qualquer embarcação do tipo FPSO para a determinação a priori de valores de dois hiperparâmetros de controle da suavização da estimativa. Obtém-se resultados indicativos de que é possível definir valores destes hiperparâmetros dependentes de quantidades observáveis como calado da embarcação e período das ondas, de modo que os erros de estimação ainda se mantém muito próximos aos encontrados por valores ótimos dos hiperparâmetros. Isto leva à conclusão de que na abordagem atual, com valores fixos a cada calado, erros excessivos e desnecessários podem ocorrer no processo de estimação. O segundo tema trata da estimação paramétrica de espectros, utilizando modelos paramétricos de descrição de espectros como forma de obtenção de estatísticas de mar. Abordam-se também os assuntos de mares cruzados, donde se faz necessária a identificação da bimodalidade dos espectros para a estimação correta das estatísticas de mar. / In this work, two differents aspects of directional wave spectra estimation from 1st order ship motions are presented. As the estimation of wave spectrum is made by means of a Bayesian method, it is necessary to calibrate the hyperparameters derived from Bayesian modeling. The first addressed subject is the determination of a calibration methodology of the hyperparameters needed for the directional wave spectrum estimation. It is developed through this work a first analysis of an applicable method to any vessel of FPSO type for the prior determination of values for this two hyperparameters depending on observable quantities, such as draft of the vessel and wave period, in such a way that the estimation errors are still very close to those found by optimum values of the hyperparameters. This leads to the conclusion that in the current approach excessive and unnecessary errors can occur on the estimation process. The second subject addresses the parametric estimation of spectra, using parametric models of spectrum description to acquire the sea statistics. For this purpose, it became necessary the study of crossed-sea states, which was employed in the bimodal spectrum identification for the correct estimation of sea statistics.
43

Inferência bayesiana de ondas do mar a partir de movimentos de uma plataforma FPSO: uma nova metodologia de calibração validada com dados de campo e capaz de reduzir erros de estimação. / Bayesian inference of sea waves from motions of a FPSO platform: a new calibration methodology validated with field data and capable of reducing estimation errors.

Bispo, Iuri Baldaconi da Silva 21 February 2018 (has links)
Estudos de condições oceanográficas tornam-se imperativos a cada dia, tanto no fornecimento de dados para fins de pesquisa quanto para aplicações de engenharia. Tais usos variam desde a validação de modelos de previsão de ondas até a determinação de forças em estruturas offshore, bem como em condições de navegabilidade e operações logísticas. O uso dos movimentos do navio para determinar qual condição de mar os induziu, adotando a embarcação como um sensor, em analogia às boias oceanográficas, é uma das tecnologias disponíveis para a medição das condições oceanográficas. Esta destaca-se pela simplicidade na implementação, além de atender às necessidades da indústria petrolífera, uma vez que o interesse é voltado para eventos de ondas extremas, os quais são bem representados pela tecnologia considerada, como verificado nesta tese. A facilidade de obtenção de dados através da tecnologia mencionada, sem a necessidade de equipamentos adicionais { especialmente no caso de plataformas de petróleo devido à disponibilidade de bases inerciais em muitas embarcações deste tipo { foi essencial para garantir ao presente trabalho um conjunto de dados de campo composto por registros ininterruptos dos movimentos de uma plataforma FPSO durante dois anos, através do qual foi possível realizar estimativas das ondas em intervalos de trinta minutos. Esta rica base de dados, inédita na literatura especializada, aliada às estimativas fornecidas simultaneamente por um sistema de radar de ondas, permitiu um estudo detalhado das características e padrões dos espectros direcionais de onda e uma importante validação da aplicação da tecnologia em campo. Face às incertezas inerentes ao processo, no entanto, observa-se que, para um mesmo registro de movimentos, muitas soluções diferentes e quase equiprováveis podem ser obtidas, uma característica que favorece a aplicação de um método de inferência Bayesiana, afim de fornecer alguma informação a priori sobre as variáveis de estimação. Na presente abordagem, esta informação corresponde a uma suposição de suavidade dos espectros direcionais de onda a serem estimados, cujo grau é controlado pelos chamados hiperparâmetros do processo de inferência - parâmetros dentro do método que controlam a influência da informação a priori sobre a solução. Estudos prévios realizados na EPUSP demonstraram que o uso de hiperparâmetros fixos ou pré-calibrados é vantajoso para tornar o método de estimação operacionalmente aplicável, proporcionando um tempo de execução compatível com aplicações em tempo real. Dada a importância do papel desempenhado pela informação a priori na determinação de soluções viáveis no intervalo de incertezas do método, torna-se patente a necessidade de se definir valores apropriados para estes hiperparâmetros. Assim, neste trabalho, é apresentada uma metodologia de calibração para os hiperparâmetros baseada na dependência destes no período médio de onda e no parâmetro espectral de largura de banda. Esta nova abordagem traz dois aspectos inovadores para a pesquisa: O primeiro é o desenvolvimento de um método iterativo e autossuficiente capaz de identificar erros de estimação causados por incertezas no modelo de previsão de movimentos do navio. O segundo ponto é a capacidade do método de mitigar os erros encontrados, forçando a suavidade espectral ao longo do intervalo de frequências de onda. / Studies of oceanographic conditions become imperative every day, both in the provision of data for research purposes and for engineering applications. Such uses range from the validation of wave prediction models to the determination of forces in offshore structures, as well as navigability and logistical operations. The use of vessel movements to determine which is the condition induced by them, adopting the vessel as a sensor, in analogy to oceanographic buoys, is one of the available technologies for the measurement of oceanographic conditions. It stands out for the simplicity of the implementation, in addition it meets the needs of the oil industry, since the interest is focused on extreme wave events, which are well represented by the technology considered, as verified in this thesis. Ease of data attainment through the mentioned technology, without the need for additional equipment - especially in the case of oil platforms due to the availability of inertial bases in many vessels of this type - was essential to guarantee the present work the data set of field the FPSO platform for two years, through which it was possible to make estimates of the waves in intervals of thirty minutes. This rich database, unprecedented in the specialized literature, together with the estimates provided by a wave radar system, allowed a detailed study of the characteristics and patterns of the directional wave spectra and an important validation of the application of the technology in the field. Given the uncertainties inherent in the process, however, it can be observed that, for the same record of movements, many different and almost equiprobable solutions can be obtained, a feature that favors the application of a Bayesian inference method, in order to provide some information on the variables of estimation. In the present approach, this information corresponds to an assumption of smoothness of the directional wave spectra to be estimated, the degree of which is controlled by so-called hyperparameters of the inference process - parameters within the method that control the influence of a priori information on the solution. Previous studies conducted at EPUSP have demonstrated that the use of fixed or precalibrated hyperparameters is advantageous to make the estimation method operationally applicable, providing a runtime compatible with real-time applications. Given the importance of the role played by a priori information in determining viable solutions in the uncertainty range of the method, it becomes clear that it is necessary to define appropriate values for these hyperparameters. Thus, in this work, the calibration methodology for the hyperparameters is presented, based on the dependency of these on wave mean period and on bandwidth spectral parameter. The _rst is the development of an iterative, self-sufficient method, capable of identifying estimations errors caused by uncertainties on the ship\'s motions prediction model. The second is the ability of the method to mitigate the errors found, forcing spectral smoothness throughout the range of wave frequencies.
44

Modelos para a análise de dados de contagens longitudinais com superdispersão: estimação INLA / Models for data analysis of longitudinal counts with overdispersion: INLA estimation

Rocha, Everton Batista da 04 September 2015 (has links)
Em ensaios clínicos é muito comum a ocorrência de dados longitudinais discretos. Para sua análise é necessário levar em consideração que dados observados na mesma unidade experimental ao longo do tempo possam ser correlacionados. Além dessa correlação inerente aos dados é comum ocorrer o fenômeno de superdispersão (ou sobredispersão), em que, existe uma variabilidade nos dados além daquela captada pelo modelo. Um caso que pode acarretar a superdispersão é o excesso de zeros, podendo também a superdispersão ocorrer em valores não nulos, ou ainda, em ambos os casos. Molenberghs, Verbeke e Demétrio (2007) propuseram uma classe de modelos para acomodar simultaneamente a superdispersão e a correlação em dados de contagens: modelo Poisson, modelo Poisson-gama, modelo Poisson-normal e modelo Poisson-normal-gama (ou modelo combinado). Rizzato (2011) apresentou a abordagem bayesiana para o ajuste desses modelos por meio do Método de Monte Carlo com Cadeias de Markov (MCMC). Este trabalho, para modelar a incerteza relativa aos parâmetros desses modelos, considerou a abordagem bayesiana por meio de um método determinístico para a solução de integrais, INLA (do inglês, Integrated Nested Laplace Approximations). Além dessa classe de modelos, como objetivo, foram propostos outros quatros modelos que também consideram a correlação entre medidas longitudinais e a ocorrência de superdispersão, além da ocorrência de zeros estruturais e não estruturais (amostrais): modelo Poisson inacionado de zeros (ZIP), modelo binomial negativo inacionado de zeros (ZINB), modelo Poisson inacionado de zeros - normal (ZIP-normal) e modelo binomial negativo inacionado de zeros - normal (ZINB-normal). Para ilustrar a metodologia desenvolvida, um conjunto de dados reais referentes à contagens de ataques epilépticos sofridos por pacientes portadores de epilepsia submetidos a dois tratamentos (um placebo e uma nova droga) ao longo de 27 semanas foi considerado. A seleção de modelos foi realizada utilizando-se medidas preditivas baseadas em validação cruzada. Sob essas medidas, o modelo selecionado foi o modelo ZIP-normal, sob o modelo corrente na literatura, modelo combinado. As rotinas computacionais foram implementadas no programa R e são parte deste trabalho. / Discrete and longitudinal structures naturally arise in clinical trial data. Such data are usually correlated, particularly when the observations are made within the same experimental unit over time and, thus, statistical analyses must take this situation into account. Besides this typical correlation, overdispersion is another common phenomenon in discrete data, defined as a greater observed variability than that nominated by the statistical model. The causes of overdispersion are usually related to an excess of observed zeros (zero-ination), or an excess of observed positive specific values or even both. Molenberghs, Verbeke e Demétrio (2007) have developed a class of models that encompasses both overdispersion and correlation in count data: Poisson, Poisson-gama, Poisson-normal, Poissonnormal- gama (combined model) models. A Bayesian approach was presented by Rizzato (2011) to fit these models using the Markov Chain Monte Carlo method (MCMC). In this work, a Bayesian framework was adopted as well and, in order to consider the uncertainty related to the model parameters, the Integrated Nested Laplace Approximations (INLA) method was used. Along with the models considered in Rizzato (2011), another four new models were proposed including longitudinal correlation, overdispersion and zero-ination by structural and random zeros, namely: zero-inated Poisson (ZIP), zero-inated negative binomial (ZINB), zero-inated Poisson-normal (ZIP-normal) and the zero-inated negative binomial-normal (ZINB-normal) models. In order to illustrate the developed methodology, the models were fit to a real dataset, in which the response variable was taken to be the number of epileptic events per week in each individual. These individuals were split into two groups, one taking placebo and the other taking an experimental drug, and they observed up to 27 weeks. The model selection criteria were given by different predictive measures based on cross validation. In this setting, the ZIP-normal model was selected instead the usual model in the literature (combined model). The computational routines were implemented in R language and constitute a part of this work.
45

Uso da abordagem Bayesiana para a estimativa de parâmetros sazonais dos modelos auto-regressivos periódicos / Use of Bayesian method to the estimate of sazonal parameters of periodic autoregressive models

Gomes, Maria Helena Rodrigues 19 March 2003 (has links)
O presente trabalho tem por finalidade o uso da abordagem bayesiana para a estimativa de parâmetros sazonais dos modelos periódicos auto-regressivos (PAR). Após a determinação dos estimadores bayesianos, estes são comparados com os estimadores de máxima verossimilhança. A previsão para 12 meses é realizada usando os dois estimadores e os resultados comparados por meio de gráficos, tabelas e pelos erros de previsão. Para ilustrar o problema as séries escolhidas foram as séries hidrológicas da Usinas Hidroelétricas de Furnas e Emborcação. Tais séries foram selecionadas tendo em vista a necessidade de previsões com reduzido erro já que o sistema de operação das usinas hidroelétricas depende muito da quantidade de água existente em seus reservatórios e de planejamento e gerenciamento eficazes. / The objective of this research is to use bayesian method to estimate of sazonal parameters of periodic autoregressive models (PAR). The bayesian estimators are then compared with maximum likelihood estimators. The forecast for 12 months is made by using two estimators and comparing their results though graphs, tables and forecast error. The hydrological time series chosen were from Furnas and Emborcação Hydroeletric Power Plant. These series were chosen having in mind the necessity of series with reduced error in their forecast because system of operation in the Hydroeletric Power Plant depends on the quantity of the water in their resevoirs, eficient planning and management.
46

Construção de mapas de objetos para navegação de robôs. / Building object-based maps for robot navigation.

Selvatici, Antonio Henrique Pinto 20 March 2009 (has links)
Como a complexidade das tarefas realizadas por robôs móveis vêm aumentando a cada dia, a percepção do robô deve ser capaz de capturar informações mais ricas do ambiente, que permitam a tomada de decisões complexas. Entre os possíveis tipos de informação que podem ser obtidos do ambiente, as informações geométricas e semânticas têm papéis importantes na maioria das tarefas designadas a robôs. Enquanto as informações geométricas revelam como os objetos e obstáculos estão distribuídos no espaço, as informações semânticas capturam a presença de estruturas complexas e eventos em andamento no ambiente, e os condensam em descrições abstratas. Esta tese propõe uma nova técnica probabilística para construir uma representação do ambiente baseada em objetos a partir de imagens capturadas por um robô navegando com uma câmera de vídeo solidária a ele. Esta representação, que fornece descrições geométricas e semânticas de objetos, é chamada O-Map, e é a primeira do gênero no contexto de navegação de robôs. A técnica de mapeamento proposta é também nova, e resolve concomitantemente os problemas de localização, mapeamento e classificação de objetos, que surgem quando da construção de O-Maps usando imagens processadas por detectores imperfeitos de objetos e sem um sensor de localização global. Por este motivo, a técnica proposta é chamada O-SLAM, e é o primeiro algoritmo que soluciona simultaneamente os problemas de localização e mapeamento usando somente odometria e o resultado de algoritmos de reconhecimento de objetos. Os resultados obtidos através da aplicação de O-SLAM em imagens processadas por uma técnica simples de detecção de objetos mostra que o algoritmo proposto é capaz de construir mapas que descrevem consistentemente os objetos do ambiente, dado que o sistema de visão computacional seja capaz de detectá-los regularmente. Em particular, O-SLAM é eficaz em fechar voltas grandes na trajetória do robô, e obtém sucesso mesmo se o sistema de detecção de objetos posuir falhas, relatando falsos positivos e errando a classe do objeto algumas vezes, consertando estes erros. Dessa forma, O-SLAM é um passo em direção à solução integrada do problema de localização, mapeamento e reconhecimento de objetos, a qual deve prescindir de um sistema pronto de reconhecimento de objetos e gerar O-Maps somente pela fusão de informações geométricas e visuais obtidas pelo robô. / As tasks performed by mobile robots are increasing in complexity, robot perception must be able to capture richer information from the environment in order to allow complex decision making. Among the possible types of information that can be retrieved from the environment, geometric and semantic information play important roles in most of the tasks assigned to robots. While geometric information reveals how objects and obstacles are distributed in space, semantic information captures the presence of complex structures and ongoing events from the environment and summarize them in abstract descriptions. This thesis proposes a new probabilistic technique to build an object-based representation of the robot surrounding environment using images captured by an attached video camera. This representation, which provides geometric and semantic descriptions of the objects, is called O-Map, and is the first of its kind in the robot navigation context. The proposed mapping technique is also new, and concurrently solves the localization, mapping and object classification problems arisen from building O-Maps using images processed by imperfect object detectors and no global localization sensor. Thus, the proposed technique is called O-SLAM, and is the first algorithm to solve the simultaneous localization and mapping problem using solely odometers and the output from object recognition algorithms. The results obtained by applying O-SLAM to images processed by simple a object detection technique show that the proposed algorithm is able to build consistent maps describing the objects in the environment, provided that the computer vision system is able to detect them on a regular basis. In particular, O-SLAM is effective in closing large loops in the trajectory, and is able to perform well even if the object detection system makes spurious detections and reports wrong object classes, fixing these errors. Thus, O-SLAM is a step towards the solution of the simultaneous localization, mapping and object recognition problem, which must drop the need for an off-the-shelf object recognition system and generate O-Maps only by fusing geometric and appearance information gathered by the robot.
47

Um estudo de métodos bayesianos para dados de sobrevivência com omissão nas covariáveis / A study of Bayesian methods for survival data with missing covariates.

Polli, Demerson Andre 14 March 2007 (has links)
O desenvolvimento de métodos para o tratamento de omissões nos dados é recente na estatística e tem sido alvo de muitas pesquisas. A presença de omissões em covariáveis é um problema comum na análise estatística e, em particular nos modelos de análise de sobrevivência, ocorrendo com freqüência em pesquisas clínicas, epidemiológicas e ambientais. Este trabalho apresenta propostas bayesianas para a análise de dados de sobrevivência com omissões nas covariáveis considerando modelos paramétricos da família Weibull e o modelo semi-paramétrico de Cox. Os métodos estudados foram avaliados tanto sob o enfoque paramétrico quanto o semiparamétrico considerando um conjunto de dados de portadores de insuficiência cardíaca. Além disso, é desenvolvido um estudo para avaliar o impacto de diferentes proporções de omissão. / The development of methods dealing with missing data is recent in Statistics and is the target of many researchers. The presence of missing values in the covariates is very common in statistical analysis and, in particular, in clinical, epidemiological and enviromental studies for survival data. This work considers a bayesian approach to analise data with missing covariates for parametric models in the Weibull family and for the Cox semiparametric model. The studied methods are evaluated for the parametric and semiparametric approaches considering a dataset of patients with heart insufficiency. Also, the impact of different omission proportions is assessed.
48

Regressão binária bayesiana com o uso de variáveis auxiliares / Bayesian binary regression models using auxiliary variables

Rafael Braz Azevedo Farias 27 April 2007 (has links)
A inferência Bayesiana está cada vez mais dependente de algoritmos de simulação estocástica, e sua eficiência está diretamente relacionada à eficiência do algoritmo considerado. Uma prática bastante utilizada é a introdução de variáveis auxiliares para obtenção de formas conhecidas para as distribuições {\\it a posteriori} condicionais completas, as quais facilitam a implementação do amostrador de Gibbs. No entanto, a introdução dessas variáveis pode produzir algoritmos onde os valores simulados são fortemente correlacionados, fato esse que prejudica a convergência. O agrupamento das quantidades desconhecidas em blocos, de tal maneira que seja viável a simulação conjunta destas quantidades, é uma alternativa para redução da autocorrelação, e portanto, ajuda a melhorar a eficiência do procedimento de simulação. Neste trabalho, apresentamos propostas de simulação em blocos no contexto de modelos de regressão binária com o uso de variáveis auxiliares. Três classes de funções de ligação são consideradas: probito, logito e probito-assimétrico. Para as duas primeiras apresentamos e implementamos as propostas de atualização conjunta feitas por Holmes e Held (2006). Para a ligação probito-assimétrico propomos quatro diferentes maneiras de construir os blocos, e comparamos estes algoritmos através de duas medidas de eficiência (distância média Euclidiana entre atualizações e tamanho efetivo da amostra). Concluímos que os algoritmos propostos são mais eficientes que o convencional (sem blocos), sendo que um deles proporcionou ganho superior a 160\\% no tamanho efetivo da amostra. Além disso, discutimos uma etapa bastante importante da modelagem, denominada análise de resíduos. Nesta parte adaptamos e implementamos os resíduos propostos para a ligação probito para os modelos logístico e probito-assimétrico. Finalmente, utilizamos os resíduos propostos para verificar a presença de observações discrepantes em um conjunto de dados simulados. / The Bayesian inference is getting more and more dependent of stochastic simulation algorithms, and its efficiency is directly related with the efficiency of the considered algorithm. The introduction of auxiliary variables is a technique widely used for attainment of the full conditional distributions, which facilitate the implementation of the Gibbs sampling. However, the introduction of these auxiliary variables can produce algorithms with simulated values highly correlated, this fact harms the convergence. The grouping of the unknow quantities in blocks, in such way that the joint simulation of this quantities is possible, is an alternative for reduction of the autocorrelation, and therefore, improves the efficiency of the simulation procedure. In this work, we present proposals of simulation using the Gibbs block sampler in the context of binary response regression models using auxiliary variables. Three class of links are considered: probit, logit and skew-probit. For the two first we present and implement the scheme of joint update proposed by Holmes and Held (2006). For the skew-probit, we consider four different ways to construct the blocks, and compare these algorithms through two measures of efficiency (the average Euclidean update distance between interactions and effective sample size). We conclude that the considered algorithms are more efficient than the conventional (without blocks), where one of these leading to around 160\\% improvement in the effective sample size. Moreover, we discuss one important stage of the modelling, called residual analysis. In this part we adapt and implement residuals considered in the probit model for the logistic and skew-probit models. For a simulated data set we detect the presence of outlier used the residuals proposed here for the different models.
49

Análise bayesiana de densidades aleatórias simples / Bayesian analysis of simple random densities

Paulo Cilas Marques Filho 19 December 2011 (has links)
Definimos, a partir de uma partição de um intervalo limitado da reta real formada por subintervalos, uma distribuição a priori sobre uma classe de densidades em relação à medida de Lebesgue construindo uma densidade aleatória cujas realizações são funções simples não negativas que assumem um valor constante em cada subintervalo da partição e possuem integral unitária. Utilizamos tais densidades aleatórias simples na análise bayesiana de um conjunto de observáveis absolutamente contínuos e provamos que a distribuição a priori é fechada sob amostragem. Exploramos as distribuições a priori e a posteriori via simulações estocásticas e obtemos soluções bayesianas para o problema de estimação de densidade. Os resultados das simulações exibem o comportamento assintótico da distribuição a posteriori quando crescemos o tamanho das amostras dos dados analisados. Quando a partição não é conhecida a priori, propomos um critério de escolha a partir da informação contida na amostra. Apesar de a esperança de uma densidade aleatória simples ser sempre uma densidade descontínua, obtemos estimativas suaves resolvendo um problema de decisão em que os estados da natureza são realizações da densidade aleatória simples e as ações são densidades suaves de uma classe adequada. / We define, from a known partition in subintervals of a bounded interval of the real line, a prior distribution over a class of densities with respect to Lebesgue measure constructing a random density whose realizations are nonnegative simple functions that integrate to one and have a constant value on each subinterval of the partition. These simple random densities are used in the Bayesian analysis of a set of absolutely continuous observables and the prior distribution is proved to be closed under sampling. We explore the prior and posterior distributions through stochastic simulations and find Bayesian solutions to the problem of density estimation. Simulations results show the asymptotic behavior of the posterior distribution as we increase the size of the analyzed data samples. When the partition is unknown, we propose a choice criterion based on the information contained in the sample. In spite of the fact that the expectation of a simple random density is always a discontinuous density, we get smooth estimates solving a decision problem where the states of nature are realizations of the simple random density and the actions are smooth densities of a suitable class.
50

Análise Bayesiana de ensaios fatoriais 2k usando os princípios dos efeitos esparsos, da hierarquia e da hereditariedade / Bayesian analysis of 2k factorial designs using the sparse eects, hierarchy and heredity principles

Guilherme Biz 29 January 2010 (has links)
No Planejamento de experimentos para o ajuste de modelos polinomiais envolvendo k fatores principais e respectivas interações, e bastante comum a utilização dos fatoriais 2k, 3k ou frações dos mesmos. Para as analises dos resultados desses experimentos, freqüentemente se considera o princípio da hereditariedade, ou seja, uma vez constatada uma interação significativa entre fatores, os fatores que aparecem nesta interação e respectivas interações devem também estar presentes no modelo. Neste trabalho, esse princípio e incorporado diretamente a priori, para um método de seleção de variáveis Bayesiana, seguindo as idéias propostas por Chipman, Hamada e Wu (1997), porem com uma alteração dos valores sugeridos pelos autores para os hiperparâmetros. Essa alteração, proposta neste trabalho, promove uma melhoria considerável na metodologia original. A metodologia e então ilustrada por meio da analise dos resultados de um experimento fatorial para a elaboração de biofilmes de amido originado da ervilha. / In experimental planning for adjustment of polynomials models involving k main factors and their interactions, it is frequent to adopt the 2k, 3k designs or its fractions. Furthermore, it is not unusual, when analysing the results of such experiments, to consider the heredity principle. In other words, once detected a signicant interaction between factors, the factors that appear in this interaction and respective interactions should also be present in the model. In this work, this principle is incorporated directly in the prior, following the ideas proposed by Chipman, Hamada and Wu (1997), but changing some of the hyperparameters. What improves considerably the original methodology. Finally the methodology is illustrated by the analysis of the results of an experiment for the elaboration of pea starch biolms.

Page generated in 0.114 seconds