• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 209
  • 193
  • 31
  • 18
  • 12
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 555
  • 555
  • 214
  • 196
  • 106
  • 101
  • 73
  • 67
  • 67
  • 67
  • 66
  • 57
  • 54
  • 50
  • 49
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Diretrizes para aplicação de inferência Bayesiana aproximada para modelos lineares generalizados e dados georreferenciados / Approximate Bayesian inference guidelines for generalized linear models and georeferenced data

Frade, Djair Durand Ramalho 15 August 2018 (has links)
Neste trabalho, exploramos e propusemos diretrizes para a análise de dados utilizando o método Integrated Nested Laplace Approxímation - INLA para os modelos lineares generalizados (MLG\'s) e modelos baseados em dados georreferenciados. No caso dos MLG\'s, verificou-se o impacto do método de aproximação utilizado para aproximar a distribuição a posteriori conjunta. Nos dados georreferenciados, avaliou-se e propôs-se diretrizes para construção das malhas, passo imprescindível para obtenção de resultados mais precisos. Em ambos os casos, foram realizados estudos de simulação. Para selecionar os melhores modelos, foram calculadas medidas de concordância entre as observações e os valores ajustados pelos modelos, por exemplo, erro quadrático médio e taxa de cobertura. / In this work, we explore and propose guidelines for data analysis using the Integrated Nested Laplace Approximation (INLA) method for generalized linear models (GLM) and models based on georeferenced data. In the case of GLMs, the impact of the approximation method used to approximate the a posteriori joint distribution was verified. In the georeferenced data, we evaluated and proposed guidelines for the construction of the meshes, an essential step for obtaining more precise results. In both cases, simulation studies were performed. To select the best models, agreement measures were calculated between observations and models, for example, mean square error and coverage rate.
102

Um estudo comparativo entre abordagens Bayesianas à testes de hipóteses / A comparative study of Bayesian approaches to hypothesis testing

Melo, Brian Alvarez Ribeiro de 04 March 2013 (has links)
Neste trabalho, consideramos uma população finita composta por N elementos, sendo que para cada unidade está associado um número (ou vetor) de tal forma que temos para a população o vetor de valores X = (X1, ... ,XN), onde Xi denota a característica de interesse do i-ésimo indivíduo da população, que suporemos desconhecida. Aqui assumimos que a distribuição do vetor X é permutável e que existe disponível uma amostra composta por n < N elementos. Os objetivos são a construção de testes de hipóteses para os parâmetros operacionais, através das distribuições a posteriori obtidas sob a abordagem preditivista para populações finitas e a comparação com os resultados obtidos a partir dos modelos Bayesianos de superpopulação. Nas análises consideramos os modelos Bernoulli, Poisson, Uniforme Discreto e Multinomial. A partir dos resultados obtidos, conseguimos ilustrar situações nas quais as abordagens produzem resultados diferentes, como prioris influenciam os resultados e quando o modelo de populações finitas apresenta melhores resultados que o modelo de superpopulação. / We consider a finite population consisting of N units and to each unit there is a number (or vector) associated such that we have for the population the vector of values X = (X1, ..., XN), where Xi denotes the characteristic of interest of the i-th individual in the population, which we will suppose unknown. Here we assume that the distribution of the vector X is exchangeable and that there is available a sample of size n < N from this population. The goals are to derive tests of hipotheses for the operational parameters through the corresponding posterior distributions obtained under the predictivistic approach for finite populations and to compare them with the results obtained from the usual Bayesian procedures of superpopulation models. In the analysis, the following models are considered: Bernoulli, Poisson, Discrete Uniform and Multinomial. From the results, we can identify situations in which the approaches yield dierent results, how priors influence the results of hipothesis testing and when the finite population model performs better than the superpopulation one.
103

Aprimoramento de método para inferência de espectro de ondas a partir de movimentos de sistemas oceânicos. / Enhancement of method for wave spectrum inference from ocean systems motions.

Bispo, Iuri Baldaconi da Silva 09 November 2011 (has links)
Este trabalho envolve dois diferentes aspectos da estimação de espectros direcionais de onda a partir de movimentos de 1a ordem da embarcação. Sendo a estimação do espectro de ondas feita por meio de um método Bayesiano, existe a necessidade da calibração dos hiperparâmetros derivados da modelagem Bayesiana. O primeiro assunto abordado é a determinação de uma metodologia de calibração dos hiperparâmetros necessários à estimação do espectro direcional de ondas. Desenvolve-se ao longo deste uma primeira análise de um método aplicável a qualquer embarcação do tipo FPSO para a determinação a priori de valores de dois hiperparâmetros de controle da suavização da estimativa. Obtém-se resultados indicativos de que é possível definir valores destes hiperparâmetros dependentes de quantidades observáveis como calado da embarcação e período das ondas, de modo que os erros de estimação ainda se mantém muito próximos aos encontrados por valores ótimos dos hiperparâmetros. Isto leva à conclusão de que na abordagem atual, com valores fixos a cada calado, erros excessivos e desnecessários podem ocorrer no processo de estimação. O segundo tema trata da estimação paramétrica de espectros, utilizando modelos paramétricos de descrição de espectros como forma de obtenção de estatísticas de mar. Abordam-se também os assuntos de mares cruzados, donde se faz necessária a identificação da bimodalidade dos espectros para a estimação correta das estatísticas de mar. / In this work, two differents aspects of directional wave spectra estimation from 1st order ship motions are presented. As the estimation of wave spectrum is made by means of a Bayesian method, it is necessary to calibrate the hyperparameters derived from Bayesian modeling. The first addressed subject is the determination of a calibration methodology of the hyperparameters needed for the directional wave spectrum estimation. It is developed through this work a first analysis of an applicable method to any vessel of FPSO type for the prior determination of values for this two hyperparameters depending on observable quantities, such as draft of the vessel and wave period, in such a way that the estimation errors are still very close to those found by optimum values of the hyperparameters. This leads to the conclusion that in the current approach excessive and unnecessary errors can occur on the estimation process. The second subject addresses the parametric estimation of spectra, using parametric models of spectrum description to acquire the sea statistics. For this purpose, it became necessary the study of crossed-sea states, which was employed in the bimodal spectrum identification for the correct estimation of sea statistics.
104

Classification of phylogenetic data via Bayesian mixture modelling

Loza Reyes, Elisa January 2010 (has links)
Conventional probabilistic models for phylogenetic inference assume that an evolutionary tree,andasinglesetofbranchlengthsandstochasticprocessofDNA evolutionare sufficient to characterise the generating process across an entire DNA alignment. Unfortunately such a simplistic, homogeneous formulation may be a poor description of reality when the data arise from heterogeneous processes. A well-known example is when sites evolve at heterogeneous rates. This thesis is a contribution to the modelling and understanding of heterogeneityin phylogenetic data. Weproposea methodfor the classificationof DNA sites based on Bayesian mixture modelling. Our method not only accounts for heterogeneous data but also identifies the underlying classes and enables their interpretation. We also introduce novel MCMC methodology with the same, or greater, estimation performance than existing algorithms but with lower computational cost. We find that our mixture model can successfully detect evolutionary heterogeneity and demonstrate its direct relevance by applying it to real DNA data. One of these applications is the analysis of sixteen strains of one of the bacterial species that cause Lyme disease. Results from that analysis have helped understanding the evolutionary paths of these bacterial strains and, therefore, the dynamics of the spread of Lyme disease. Our method is discussed in the context of DNA but it may be extendedto othertypesof molecular data. Moreover,the classification scheme thatwe propose is evidence of the breadth of application of mixture modelling and a step forwards in the search for more realistic models of theprocesses that underlie phylogenetic data.
105

Estudo e aplicação de diferentes métodos para redução de falsos alarmes no monitoramento de frequência cardíaca

Borges, Gabriel de Morais January 2015 (has links)
O monitoramento automático de pacientes é um recurso essencial em hospitais para o bom gerenciamento de cuidados médicos. Enquanto que alarmes devido a condições fisiológicas anormais são importantes para o rápido tratamento, estes também podem ser uma fonte de ruídos desnecessários devido a falsos alarmes causados por interferência eletromagnética ou movimentação de sensores. Uma fonte significativa de falsos alarmes é relacionada com a frequência cardíaca, o qual é disparado quando o ritmo cardíaco do paciente está muito rápido ou muito lento. Neste trabalho, a fusão de diferentes sensores fisiológicos é explorada para fazer uma estimativa robusta de frequência cardíaca. Um conjunto de algoritmos utilizando índice de variabilidade cardíaca, inferência bayesiana, redes neurais, lógica fuzzy e votador majoritário são propostos para fundir a informação do eletrocardiograma, pressão sanguínea e fotopletismograma. Três informações básicas são extraídas de cada sensor: variabilidade cardíaca, a diferença de frequência cardíaca entre os sensores e a análise espectral. Estas informações são usadas como entradas para os algoritmos. Quarenta gravações selecionadas do banco de dados MIMIC são usadas para validar o sistema. Finalmente, a frequência cardíaca calculada é comparada com as anotações do banco de dados. Resultados mostram que a fusão utilizando redes neurais apresenta a melhor redução de falsos alarmes de 89.33%, enquanto que a técnica bayesiana apresenta uma redução de 83.76%. A lógica fuzzy mostrou uma redução de 77.96%, o votador majoritário 61.25% e o índice de variabilidade cardíaca de 65.43%. Portanto, os algoritmos propostos mostraram bom desempenho e podem ser muito úteis em monitores de sinais vitais modernos. / Automatic patient monitoring is an essential resource in hospitals for good health care management. While alarms due to abnormal physiological conditions are important to deliver fast treatment, it can be also a source of unnecessary noise due to false alarms caused by electromagnetic interference or motion artifacts. One significant source of false alarms are those related to heart rate, which is triggered when the heart rhythm of the patient is too fast or too slow. In this work, the fusion of different physiological sensors is explored in order to create a robust heart rate estimation. A set of algorithms using heart rate variability index, bayesian inference, neural networks, fuzzy logic and majority voting is proposed to fuse information from electrocardiogram, arterial blood pressure and photoplethysmogram. Three basic informations are extracted from each source, namely, heart rate variability, the heart rate difference between sensors and the spectral analysis. These informations are used as inputs to the algorithms. Forty selected recordings from MIMIC database was used to validate the system. Finally, the calculated heart rate is compared with the database annotation. Results show that neural networks fusion presents the best false alarms reduction of 89.33%, while the bayesian technique presents an error reduction of 83.76%. Fuzzy logic showed an error reduction of 77.96%, majority voting 61.25% and the heart rate variability index 65.43%. Therefore, the proposed algorithms showed good performance and can be very useful for modern bedside monitors.
106

Modelos para a análise de dados de contagens longitudinais com superdispersão: estimação INLA / Models for data analysis of longitudinal counts with overdispersion: INLA estimation

Rocha, Everton Batista da 04 September 2015 (has links)
Em ensaios clínicos é muito comum a ocorrência de dados longitudinais discretos. Para sua análise é necessário levar em consideração que dados observados na mesma unidade experimental ao longo do tempo possam ser correlacionados. Além dessa correlação inerente aos dados é comum ocorrer o fenômeno de superdispersão (ou sobredispersão), em que, existe uma variabilidade nos dados além daquela captada pelo modelo. Um caso que pode acarretar a superdispersão é o excesso de zeros, podendo também a superdispersão ocorrer em valores não nulos, ou ainda, em ambos os casos. Molenberghs, Verbeke e Demétrio (2007) propuseram uma classe de modelos para acomodar simultaneamente a superdispersão e a correlação em dados de contagens: modelo Poisson, modelo Poisson-gama, modelo Poisson-normal e modelo Poisson-normal-gama (ou modelo combinado). Rizzato (2011) apresentou a abordagem bayesiana para o ajuste desses modelos por meio do Método de Monte Carlo com Cadeias de Markov (MCMC). Este trabalho, para modelar a incerteza relativa aos parâmetros desses modelos, considerou a abordagem bayesiana por meio de um método determinístico para a solução de integrais, INLA (do inglês, Integrated Nested Laplace Approximations). Além dessa classe de modelos, como objetivo, foram propostos outros quatros modelos que também consideram a correlação entre medidas longitudinais e a ocorrência de superdispersão, além da ocorrência de zeros estruturais e não estruturais (amostrais): modelo Poisson inacionado de zeros (ZIP), modelo binomial negativo inacionado de zeros (ZINB), modelo Poisson inacionado de zeros - normal (ZIP-normal) e modelo binomial negativo inacionado de zeros - normal (ZINB-normal). Para ilustrar a metodologia desenvolvida, um conjunto de dados reais referentes à contagens de ataques epilépticos sofridos por pacientes portadores de epilepsia submetidos a dois tratamentos (um placebo e uma nova droga) ao longo de 27 semanas foi considerado. A seleção de modelos foi realizada utilizando-se medidas preditivas baseadas em validação cruzada. Sob essas medidas, o modelo selecionado foi o modelo ZIP-normal, sob o modelo corrente na literatura, modelo combinado. As rotinas computacionais foram implementadas no programa R e são parte deste trabalho. / Discrete and longitudinal structures naturally arise in clinical trial data. Such data are usually correlated, particularly when the observations are made within the same experimental unit over time and, thus, statistical analyses must take this situation into account. Besides this typical correlation, overdispersion is another common phenomenon in discrete data, defined as a greater observed variability than that nominated by the statistical model. The causes of overdispersion are usually related to an excess of observed zeros (zero-ination), or an excess of observed positive specific values or even both. Molenberghs, Verbeke e Demétrio (2007) have developed a class of models that encompasses both overdispersion and correlation in count data: Poisson, Poisson-gama, Poisson-normal, Poissonnormal- gama (combined model) models. A Bayesian approach was presented by Rizzato (2011) to fit these models using the Markov Chain Monte Carlo method (MCMC). In this work, a Bayesian framework was adopted as well and, in order to consider the uncertainty related to the model parameters, the Integrated Nested Laplace Approximations (INLA) method was used. Along with the models considered in Rizzato (2011), another four new models were proposed including longitudinal correlation, overdispersion and zero-ination by structural and random zeros, namely: zero-inated Poisson (ZIP), zero-inated negative binomial (ZINB), zero-inated Poisson-normal (ZIP-normal) and the zero-inated negative binomial-normal (ZINB-normal) models. In order to illustrate the developed methodology, the models were fit to a real dataset, in which the response variable was taken to be the number of epileptic events per week in each individual. These individuals were split into two groups, one taking placebo and the other taking an experimental drug, and they observed up to 27 weeks. The model selection criteria were given by different predictive measures based on cross validation. In this setting, the ZIP-normal model was selected instead the usual model in the literature (combined model). The computational routines were implemented in R language and constitute a part of this work.
107

Construção de mapas de objetos para navegação de robôs. / Building object-based maps for robot navigation.

Selvatici, Antonio Henrique Pinto 20 March 2009 (has links)
Como a complexidade das tarefas realizadas por robôs móveis vêm aumentando a cada dia, a percepção do robô deve ser capaz de capturar informações mais ricas do ambiente, que permitam a tomada de decisões complexas. Entre os possíveis tipos de informação que podem ser obtidos do ambiente, as informações geométricas e semânticas têm papéis importantes na maioria das tarefas designadas a robôs. Enquanto as informações geométricas revelam como os objetos e obstáculos estão distribuídos no espaço, as informações semânticas capturam a presença de estruturas complexas e eventos em andamento no ambiente, e os condensam em descrições abstratas. Esta tese propõe uma nova técnica probabilística para construir uma representação do ambiente baseada em objetos a partir de imagens capturadas por um robô navegando com uma câmera de vídeo solidária a ele. Esta representação, que fornece descrições geométricas e semânticas de objetos, é chamada O-Map, e é a primeira do gênero no contexto de navegação de robôs. A técnica de mapeamento proposta é também nova, e resolve concomitantemente os problemas de localização, mapeamento e classificação de objetos, que surgem quando da construção de O-Maps usando imagens processadas por detectores imperfeitos de objetos e sem um sensor de localização global. Por este motivo, a técnica proposta é chamada O-SLAM, e é o primeiro algoritmo que soluciona simultaneamente os problemas de localização e mapeamento usando somente odometria e o resultado de algoritmos de reconhecimento de objetos. Os resultados obtidos através da aplicação de O-SLAM em imagens processadas por uma técnica simples de detecção de objetos mostra que o algoritmo proposto é capaz de construir mapas que descrevem consistentemente os objetos do ambiente, dado que o sistema de visão computacional seja capaz de detectá-los regularmente. Em particular, O-SLAM é eficaz em fechar voltas grandes na trajetória do robô, e obtém sucesso mesmo se o sistema de detecção de objetos posuir falhas, relatando falsos positivos e errando a classe do objeto algumas vezes, consertando estes erros. Dessa forma, O-SLAM é um passo em direção à solução integrada do problema de localização, mapeamento e reconhecimento de objetos, a qual deve prescindir de um sistema pronto de reconhecimento de objetos e gerar O-Maps somente pela fusão de informações geométricas e visuais obtidas pelo robô. / As tasks performed by mobile robots are increasing in complexity, robot perception must be able to capture richer information from the environment in order to allow complex decision making. Among the possible types of information that can be retrieved from the environment, geometric and semantic information play important roles in most of the tasks assigned to robots. While geometric information reveals how objects and obstacles are distributed in space, semantic information captures the presence of complex structures and ongoing events from the environment and summarize them in abstract descriptions. This thesis proposes a new probabilistic technique to build an object-based representation of the robot surrounding environment using images captured by an attached video camera. This representation, which provides geometric and semantic descriptions of the objects, is called O-Map, and is the first of its kind in the robot navigation context. The proposed mapping technique is also new, and concurrently solves the localization, mapping and object classification problems arisen from building O-Maps using images processed by imperfect object detectors and no global localization sensor. Thus, the proposed technique is called O-SLAM, and is the first algorithm to solve the simultaneous localization and mapping problem using solely odometers and the output from object recognition algorithms. The results obtained by applying O-SLAM to images processed by simple a object detection technique show that the proposed algorithm is able to build consistent maps describing the objects in the environment, provided that the computer vision system is able to detect them on a regular basis. In particular, O-SLAM is effective in closing large loops in the trajectory, and is able to perform well even if the object detection system makes spurious detections and reports wrong object classes, fixing these errors. Thus, O-SLAM is a step towards the solution of the simultaneous localization, mapping and object recognition problem, which must drop the need for an off-the-shelf object recognition system and generate O-Maps only by fusing geometric and appearance information gathered by the robot.
108

Um estudo de métodos bayesianos para dados de sobrevivência com omissão nas covariáveis / A study of Bayesian methods for survival data with missing covariates.

Polli, Demerson Andre 14 March 2007 (has links)
O desenvolvimento de métodos para o tratamento de omissões nos dados é recente na estatística e tem sido alvo de muitas pesquisas. A presença de omissões em covariáveis é um problema comum na análise estatística e, em particular nos modelos de análise de sobrevivência, ocorrendo com freqüência em pesquisas clínicas, epidemiológicas e ambientais. Este trabalho apresenta propostas bayesianas para a análise de dados de sobrevivência com omissões nas covariáveis considerando modelos paramétricos da família Weibull e o modelo semi-paramétrico de Cox. Os métodos estudados foram avaliados tanto sob o enfoque paramétrico quanto o semiparamétrico considerando um conjunto de dados de portadores de insuficiência cardíaca. Além disso, é desenvolvido um estudo para avaliar o impacto de diferentes proporções de omissão. / The development of methods dealing with missing data is recent in Statistics and is the target of many researchers. The presence of missing values in the covariates is very common in statistical analysis and, in particular, in clinical, epidemiological and enviromental studies for survival data. This work considers a bayesian approach to analise data with missing covariates for parametric models in the Weibull family and for the Cox semiparametric model. The studied methods are evaluated for the parametric and semiparametric approaches considering a dataset of patients with heart insufficiency. Also, the impact of different omission proportions is assessed.
109

A Bayesian approach for modeling stochastic deterioration

SILVA, Rodrigo Bernardo da 31 January 2010 (has links)
Made available in DSpace on 2014-06-12T17:40:37Z (GMT). No. of bitstreams: 2 arquivo720_1.pdf: 2087569 bytes, checksum: 4e440439e51674690e086dbc501c7a58 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2010 / Conselho Nacional de Desenvolvimento Científico e Tecnológico / A modelagem de deterioracão tem estado na vanguarda das analises Bayesianas de confiabilidade. As abordagens mais conhecidas encontradas na literatura para este proposito avaliam o comportamento da medida de confiabilidade ao longo do tempo a luz dos dados empiricos, apenas. No contexto de engenharia de confiabilidade, essas abordagens têm aplicabilidade limitada uma vez que frequentemente lida-se com situacões caracterizadas pela escassez de dados empiricos. Inspirado em estrategias Bayesianas que agregam dados empiricos e opiniões de especialistas na modelagem de medidas de confiabilidade não-dependentes do tempo, este trabalho propõe uma metodologia para lidar com confiabilidade dependente do tempo. A metodologia proposta encapsula conhecidas abordagens Bayesianas, como metodos Bayesianos para combinar dados empiricos e opiniões de especialistas e modelos Bayesianos indexados no tempo, promovendo melhorias sobre eles a fim de encontrar um modelo mais realista para descrever o processo de deterioracão de um determinado componente ou sistema. Os casos a serem discutidos são os tipicamente encontrados na pratica de confiabilidade (por meio de simulacão): avaliacão dos dados sobre tempo de execucão para taxas de falha e a quantidade de deterioracão, dados com base na demanda para probabilidade de falha; e opiniões de especialistas para analise da taxa de falha, quantidade de deterioracão e probabilidade de falha. Estes estudos de caso mostram que o uso de informacões especializadas pode levar a uma reducão da incerteza sobre distribuicões de medidas de confiabilidade, especialmente em situacões em que poucas ou nenhuma falha e observada.
110

Uma abordagem bayesiana para mapeamento de QTLs em populações experimentais / A Bayesian approach for mapping QTL in experimental populations

Andréia da Silva Meyer 03 April 2009 (has links)
Muitos caracteres em plantas e animais são de natureza quantitativa, influenciados por múltiplos genes. Com o advento de novas técnicas moleculares tem sido possível mapear os locos que controlam os caracteres quantitativos, denominados QTLs (Quantitative Trait Loci). Mapear um QTL significa identificar sua posição no genoma, bem como, estimar seus efeitos genéticos. A maior dificuldade para realizar o mapeamento de QTLs, se deve ao fato de que o número de QTLs é desconhecido. Métodos bayesianos juntamente com método Monte Carlo com Cadeias de Markov (MCMC), têm sido implementados para inferir conjuntamente o número de QTLs, suas posições no genoma e os efeitos genéticos . O desafio está em obter a amostra da distribuição conjunta a posteriori desses parâmetros, uma vez que o número de QTLs pode ser considerado desconhecido e a dimensão do espaço paramétrico muda de acordo com o número de QTLs presente no modelo. No presente trabalho foi implementado, utilizando-se o programa estatístico R uma abordagem bayesiana para mapear QTLs em que múltiplos QTLs e os efeitos de epistasia são considerados no modelo. Para tanto foram ajustados modelos com números crescentes de QTLs e o fator de Bayes foi utilizado para selecionar o modelo mais adequado e conseqüentemente, estimar o número de QTLs que controlam os fenótipos de interesse. Para investigar a eficiência da metodologia implementada foi feito um estudo de simulação em que foram considerados duas diferentes populações experimentais: retrocruzamento e F2, sendo que para ambas as populações foi feito o estudo de simulação considerando modelos com e sem epistasia. A abordagem implementada mostrou-se muito eficiente, sendo que para todas as situações consideradas o modelo selecionado foi o modelo contendo o número verdadeiro de QTLs considerado na simulação dos dados. Além disso, foi feito o mapeamento de QTLs de três fenótipos de milho tropical: altura da planta (AP), altura da espiga (AE) e produção de grãos utilizando a metodologia implementada e os resultados obtidos foram comparados com os resultados encontrados pelo método CIM. / Many traits in plants and animals have quantitative nature, influenced by multiple genes. With the new molecular techniques, it has been possible to map the loci, which control the quantitative traits, called QTL (Quantitative Trait Loci). Mapping a QTL means to identify its position in the genome, as well as to estimate its genetics effects. The great difficulty of mapping QTL relates to the fact that the number of QTL is unknown. Bayesian approaches used with Markov Chain Monte Carlo method (MCMC) have been applied to infer QTL number, their positions in the genome and their genetic effects. The challenge is to obtain the sample from the joined distribution posterior of these parameters, since the number of QTL may be considered unknown and hence the dimension of the parametric space changes according to the number of QTL in the model. In this study, a Bayesian approach was applied, using the statistical program R, in order to map QTL, considering multiples QTL and epistasis effects in the model. Models were adjusted with the crescent number of QTL and Bayes factor was used to select the most suitable model and, consequently, to estimate the number of QTL that control interesting phenotype. To evaluate the efficiency of the applied methodology, a simulation study was done, considering two different experimental populations: backcross and F2, accomplishing the simulation study for both populations, considering models with and without epistasis. The applied approach resulted to be very efficient, considering that for all the used situations, the selected model was the one containing the real number of QTL used in the data simulation. Moreover, the QTL mapping of three phenotypes of tropical corn was done: plant height, corn-cob height and grain production, using the applied methodology and the results were compared to the results found by the CIM method.

Page generated in 0.1062 seconds