Spelling suggestions: "subject:"bayesian inference"" "subject:"eayesian inference""
301 |
Interação genótipo - ambiente no peso ao sobreano na raça Nelore /Solar Diaz, Iara Del Pilar. January 2009 (has links)
Orientador: Henrique Nunes de Oliveira / Banca: Lucia Galvão de Albuquerque / Banca: Maria Eugênia Zerlotti Mercadante / Resumo: Com o objetivo de estudar a interação genótipo - ambiente (IGA) no peso ao sobreano, foram utilizados 99.366 registros provenientes de diferentes rebanhos da raça Nelore de cinco estados brasileiros (São Paulo, Mato Grosso, Mato Grosso do Sul, Goiás e Minas Gerais). Os dados são provenientes de animais nascidos entre 1991 a 2006 participantes do Programa de Melhoramento Genético da Raça Nelore (PMGRN). As informações foram coletadas pelos próprios criadores, sendo posteriormente transferidas à Associação Nacional de Criadores e Pesquisadores (ANCP) e então incorporadas ao banco de dados. Neste estudo foram utilizados apenas os dados dos animais criados exclusivamente a pasto. Os componentes de (co)variância foram obtidos através de uma análise unicaracterística (onde considerou-se o peso como mesma característica em todos os estados) e multicaracterística (na qual considerou-se a expressão do peso em cada estado como uma característica distinta). As estimativas foram obtidas por meio de inferência bayesiana, e o modelo de análise incluiu os efeitos fixos de grupos de contemporâneos e, como aleatórios, os efeitos genético aditivo direto e residual. A interação genótipo - ambiente foi verificada através da correlação genética (rg). As interações foram consideradas importantes quando os valores de rg ficaram abaixo de 0,80. Posteriormente, verificou-se o efeito da interação sobre a seleção considerando uma análise uni ou multicaracterística. As estimativas de herdabilidade em Mato Grosso (0,39±0,03) e Mato Grosso do Sul (0,37±0,02) foram mais baixas que as encontradas em Goiás (0,51±0,02), São Paulo (0,44±0,02) e Minas Gerais (0,41±0,04). As correlações genéticas estimadas entre os pesos nos diferentes estados foram positivas... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: The goal was to study genotype by environment interaction (GEI) for yearling weight. Records of 99,366 Nellore cattle from five Brazilian states (São Paulo, Mato Grosso, Mato Grosso do Sul, Goias and Minas Gerais) were used. Animals were born between 1991 to 2006 belonging to the Nellore Cattle Breeding Program (NCBP). Information was collected by farmers then, was transferred to the National Association of Breeders and Researchers (NABR) and incorporated into the database. This study used only data from animals raised exclusively on pasture. The (co)variance components were obtained using univariate (considering record as same trait in all states) and multiple-trait models, considering record from each state as a different trait. Estimates were obtained by Bayesian inference. The model for yearling weight included genetic fixed factor of contemporary groups and random animal genetic and residual effects. The genotype environment interaction was verified by genetic correlation (rg), where values below 0.80 indicated important interaction. Subsequently, the effect of interaction was verified on the selection considering a univariate or multiple-trait models. The direct heritability estimates of yearling weight in Mato Grosso (0.39±0.03) and Mato Grosso do Sul (0.37±0.02) were lower than Goiás (0.51±0.02), São Paulo (0.44±0.02) and Minas Gerais (0.41±0.04). The acrossstates estimates of genetic correlations were positive and moderate (0.67 to 0.75) between the states Goiás and Mato Grosso, Goias and Minas Gerais, São Paulo and Minas Gerais, and between Mato Grosso do Sul and Minas Gerais. These estimates indicates that genotype by environment interactions are biologically important. These results show that the animals selected will not be the same depending of the considered state, reducing the response... (Complete abstract click electronic access below) / Mestre
|
302 |
A Bayesian Finite Mixture Model for Network-Telecommunication DataManikas, Vasileios January 2016 (has links)
A data modeling procedure called Mixture model, is introduced beneficial to the characteristics of our data. Mixture models have been proved flexible and easy to use, a situation which can be confirmed from the majority of papers and books which have been published the last twenty years. The models are estimated using a Bayesian inference through an efficient Markov Chain Monte Carlo (MCMC) algorithm, known as Gibbs Sampling. The focus of the paper is on models for network-telecommunication lab data (not time dependent data) and on the valid predictions we can accomplish. We categorize our variables (based on their distribution) in three cases, a mixture of Normal distributions with known allocation, a mixture of Negative Binomial Distributions with known allocations and a mixture of Normal distributions with unknown allocation.
|
303 |
Adaptação dinâmica de vídeo / Dynamic video adaptingRobson Eisinger 21 June 2007 (has links)
O presente trabalho apresenta o resultado de um estudo comparando o uso de técnicas de aprendizado de máquina na adaptação dinâmica de vídeo. O sistema utiliza informações de contexto, como as características de um dispositivo, preferências do usuário e condições de rede, como entrada de um mecanismo de decisão responsável por encontrar parâmetros de codificação mais adequados ao contexto à geração de um novo fluxo de vídeo dinamicamente personalizado / This work presents the results of a comparative study about machine learning techniques used in dynamic video adaptation. The system uses contextual information, such as devices? characteristics, user?s preferences and network condition as an input for a decision engine, responsible to find the best encoding parameters to be used during the generation of a new dynamically personalized video stream
|
304 |
Ajuste de modelos de degradabilidade ruminal por meio da técnica de produção de gases utilizando as metodologias clássica e bayesiana / Adjustment of ruminal degradability models applying the technique of gas production by using classical and Bayesian methodologiesGabriel Batalini de Souza 15 March 2013 (has links)
Dado o poder agropecuário nacional e sabendo que a pastagem tem papel fundamental na nutrição animal, torna-se primordial o estudo dos mecanismos da digestão ruminal das forragens, para um aproveitamento mais racional das pastagens pelos animais, propiciando uma fermentação ruminal ótima e possibilitando o balanceamento de rações de forma mais adequada. Esta abordagem é possível por meio dos modelos de degradação ruminal, que são classificados como modelos de regressão não lineares. Neste trabalho são abordadas as metodologias clássica e bayesiana para ajustar os modelos que descrevem a cinética de degradação ruminal por meio da técnica de produção de gases. Na abordagem clássica foram considerados os modelos não sigmoidal proposto por Orskov&McDonald (1979), o Logístico proposto por Schofield (1994) e o Gompertz proposto por Lavrencic (1997), considerando a necessidade de fatores autorregressivos de primeira e segunda ordem mediante o teste de razão de verossimilhança (TRV); os modelos foram avaliados por meio dos critérios de Akaike (AIC), coeficiente de determinação ajustado (R2 aj) e quadrado médio residual (QMR). Em uma segunda etapa realizou-se o ajuste do modelo não sigmoidal sem fator autorregressivo utilizando a abordagem bayesiana, em que a condição de convergência das cadeias foi analisada por meio dos critérios de Geweke (1992), Heidelberger&Welch (1993), Raftery& Lewis (1992) e o Erro de Monte Carlo (EMC). Dentre os modelos utilizados, o que melhor se ajustou aos dados analisados foi o modelo não sigmoidal proposto por Orskov e McDonald (1979), sem o fator autorregressivo, obtendo estimativas condizentes com a realidade do fenômeno. Os resultados obtidos por meio da abordagem bayesiana também foram satisfatórios, mostrando que a técnica, apesar de pouco difundida em estudos de degradação ruminal é uma metodologia bastante viável e tem muito a agregar em estudos da área. / Given the national agricultural power and knowing that grazing plays an important role in animal nutrition, it becomes primordial to study the mechanisms of ruminal digestion of forages, for a more rational use of pastures by the animals, providing an optimal rumen fermentation and allowing a more adequate and balanced feed. This approach is possible by using the rumen degradation models, which are classified as non-linear regression models. This essay discusses the classical and Bayesian methods to adjust the models that describe the kinetics of degradation by rumen gas production technique. In the classical approach, the \"Non Sigmoidal models\", proposed by Orskov& McDonald (1979), the \"Logistic\", proposed by Schofield (1994), and \"Gompertz\", proposed by Lavrencic (1997), were considered, taking into account the need for autoregressive factors of first and second order, by the \"likelihood ratio test \" (TRV). These models were evaluated using the Akaike criteria (AIC), the coefficient of determination adjusted (R2aj) and \"the residual average square\" (QMR). In the following stage, the adjustment of the non sigmoidal model without the autoregressive factor were performed, using the Bayesian approach. For these matters, the condition of the convergence of chains was analyzed using Geweke (1992), Heidelberger & Welch (1993), Raftery& Lewis (1992) and Monte Carlo error(EMC) criteria.Among the models used, the one that best settle to the data analyzed was the non sigmoidal model without the autoregressive factor, proposed by Orskov and McDonald (1979), obtaining consistent estimates with the reality of the phenomenon. The results obtained through the Bayesian approach were also satisfactory, showing that the technique, although less diffused in studies of rumen methodology, is very viable and has a lot to add in these area studies.
|
305 |
Caracterização e extensões da distribuição Burr XII: propriedades e aplicações / Characterization and extensions of the Burr XII distribution: Properties and ApplicationsPatrícia Ferreira Paranaíba 21 September 2012 (has links)
A distribuição Burr XII (BXII) possui, como casos particulares, as distribuições normal, log-normal, gama, logística, valor extremo tipo I, entre outras. Por essa razão, ela é considerada uma distribuição flexível no ajuste dos dados. As ideias de Eugene; Lee e Famoye (2002) e Cordeiro e Castro (2011) foram utilizadas para o desenvolvimento de duas novas distribuições de probabilidade a partir da distribuição BXII. Uma delas é denominada beta Burr XII (BBXII) e possui cinco parâmetros. Desenvolveu-se o modelo de regressão log-beta Burr XII (LBBXII). A outra distribuição é denominada de Kumaraswamy Burr XII (KwBXII) e possui cinco parâmetros. A vantagem desses novos modelos reside na capacidade de acomodar várias formas da função risco, além disso, eles também se mostraram úteis na discriminação de modelos. Para cada um dos modelos foram calculados os momentos, função geradora de momentos, os desvios médios, a confiabilidade e a função densidade de probabilidade da estatística de ordem. Foi realizado um estudo de simulação para avaliar o desempenho desses modelos. Para a estimação dos parâmetros, foram utilizados os métodos de máxima verossimilhança e bayesiano e, finalmente, para ilustrar a aplicação das novas distribuições foram analisados alguns conjuntos de dados reais. / The Burr XII (BXII) distribution has as particular cases the normal, lognormal, gamma, logistic and extreme-value type I distributions, among others. For this reason, it is considered a flexible distribution for fitting data. In this paper, the ideas of Eugene; Lee e Famoye (2002) and Cordeiro and Castro (2011) is used to develop two new probability distributions based on the BBXII distribution. The first is called beta Burr XII (BBXII) and has five parameters. Based in these, we develop the extended generalized log-beta Burr XII regression model. The other distribution is called Kumaraswamy Burr XII (KwBXII) and has five parameters. The advantage of these new models rests in their capacity to accommodate various risk function forms. They are also useful in model discrimination. We calculate the moments, moments generating function, mean deviations, reliability and probability density function of the order statistics. A simulation study was conducted to evaluate the performance of these models. To estimate the parameters we use the maximum likelihood and Bayesian methods. Finally, to illustrate the application of the new distributions, we analyze some real data sets.
|
306 |
Modelos SEIR com taxa de remoção não homogênea / SEIR models with time in-homogeneous removal rateDiniz, Márcio Augusto 17 August 2018 (has links)
Orientadores: Jorge Alberto Achcar, Luiz Koodi Hotta / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matemática, Estatística e Computação Científica / Made available in DSpace on 2018-08-17T21:22:44Z (GMT). No. of bitstreams: 1
Diniz_MarcioAugusto_M.pdf: 2168206 bytes, checksum: 900902dfc4c68974431fbf2286d5cca6 (MD5)
Previous issue date: 2011 / Resumo: A modelagem matemática de epidemias apresenta grande relevância para a área de epidemiologia por possibilitar uma melhor compreensão do desenvolvimento da doença na população e permitir analisar o impacto de medidas de controle e erradicação. Neste contexto, os modelos compartimentais SEIR (Suscetíveis - Expostos - Infectantes - Removidos) que foram introduzidos por Kermarck e Mckendrick (1927 apud YANG, 2001, Capítulo 1) são extremamente utilizados. Esta dissertação discute o modelo SEIR encontrado em Lekone e Finkenstädt (2006) que considera a introdução das medidas de intervenção na taxa de contato entre suscetíveis e infectantes, e é aplicado aos dados parcialmente observados da epidemia de febre hemorrágica Ebola, ocorrida no Congo em 1995, através de métodos bayesianos. Em uma segunda etapa, o modelo é modificado a fim de considerar a introdução das medidas de intervenção também na taxa de remoção. A utilização da taxa de remoção não homogênea permite uma quantificação do impacto das medidas de intervenção mais próxima da realidade. Além disso, nos dois modelos considerados, uma análise da incerteza gerada pela observação parcial dos dados e uma análise de sensibilidade da escolha das distribuições a priori são realizadas a partir de simulações. E também, é apresentada uma discussão sobre erros de especificação da taxa de remoção Por fim, os dois modelos são aplicados aos dados da epidemia de febre hemorrágica Ebola e os resultados são discutidos / Abstract: Mathematical modeling of epidemics has great relevance to the area of epidemiology by enabling a better understanding of the development of the disease in the population and allow the analysis of the impact of eradication and control measures. In this context, SEIR (Susceptible-Exposed-Infectious-Removed) compartmental models that were introduced by Kermarck e Mckendrick (1927 apud YANG, 2001, Chapter 1) are extremely used. This essay discusses the SEIR model found in Lekone e Finkenstädt (2006) that considers the introduction of intervention measures in the contact rate between susceptible and infectious, and is applied to data partially observed the outbreak of Ebola hemorrhagic fever in Congo, held in 1995, by Bayesian methods. In a second step, the model is modified in order to consider the introduction of intervention measures in the removal rate. The use of time in-homogeneous removal rate allows quantification of the impact of intervention measures closer to reality. In addition, both models considered, an analysis of uncertainty generated by partial observation and a sensitivity analysis of the choice of a priori distributions are made from simulations. And also, a discussion about errors of removal rate specification. Finally, the two models are applied to the data of Ebola hemorrhagic fever epidemic and the results are discussed / Mestrado / Métodos Estatísticos / Mestre em Estatística
|
307 |
Modelagem da dependência entre testes para diagnóstico clínico usando funções cópula / Modelling the dependence between diagnostic tests using copula functionsTovar Cuevas, José Rafael 18 August 2018 (has links)
Orientador: Jorge Alberto Achcar / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Matemática, Estatística e Computação Científica / Made available in DSpace on 2018-08-18T02:57:38Z (GMT). No. of bitstreams: 1
TovarCuevas_JoseRafael_D.pdf: 2314079 bytes, checksum: 3de8e433bd4d02c785316e5d57f1a980 (MD5)
Previous issue date: 2011 / Resumo: A maioria dos estudos sobre estimação da prevalência e parâmetros de desempenho de testes para diagnóstico clínico não tem considerado que muitos dos métodos de diagnóstico incluem a medição de traços biológicos cuja resposta é expressa em escala contínua e que, devido ao fato de serem medidos no mesmo indivíduo, esses traços necessariamente apresentam algum tipo de dependência que pode ou não ser explicada como um fenômeno de comportamento linear ou de concordância. Além disso, a análise de dados realizada nesses estudos parte do pressuposto de que a estrutura dos testes é binária sem considerar o fato de que as observações assumem essa apresentação depois de serem dicotomizadas usando um ponto de corte estabelecido a partir de critérios clínicos. Nesta tese, apresenta-se uma proposta de abordagem Bayesiana ao problema da estimação da prevalência, da sensibilidade e da especificidade dos testes dentro de planejamentos que incluem a aplicação de dois ou três testes diagnósticos de triagem, os quais são produto da medição de igual número de traços biológicos expressos em escala contínua com ponto de corte para dicotimização e um padrão-ouro para verificação. Embora o objetivo principal do modelo estatístico proposto seja estudar o efeito da dependência entre resultados dos testes de triagem sobre as estimativas da prevalência e os parâmetros de desempenho, também se consideram alternativas para contornar outras dificuldades comuns neste tipo de estudos, como a falta de identificabilidade e o viés devido à não verificação com padrão-ouro de indivíduos com resultado negativo em ambos os testes de triagem (viés de verificação). A proposta considera o uso de três funções cópula para modelar a dependência e a avaliação de três níveis da mesma. Dado o enfoque Bayesiano do estudo, foi necessário desenvolver um procedimento para elicitar distribuições a priori em situações de total ausência de informação sobre o parâmetro de interesse, o que acontece com as cópulas, funções bastante desconhecidas na pesquisa médica. Os resultados obtidos com o modelo proposto foram comparados com aqueles obtidos utilizando a covariância como parâmetro de dependência e o pressuposto de independência. O modelo apresenta uma reparametrização que, a diferença da maioria dos métodos apresentados na literatura sobre o tema, permite obter diretamente as estimativas de interesse sem a necessidade de complexos procedimentos analíticos e computacionais. A presença de dependência tem pouco efeito sobre a estimativa da prevalência e afeta as estimativas dos parâmetros de desempenho, o efeito é mais forte quando o planejamento apresenta viés de verificação. Dependências fracas subestimam as sensibilidades e os outros parâmetros não apresentam viés, enquanto que dependências fortes superestimam todos os parâmetros. Nos casos em que os traços biológicos medidos não apresentam fortes modificações devido à presença da enfermidade (ou infecção) no indivíduo, as estimativas podem chegar a tomar valores 50% maiores que o valor real, o que pode implicar importantes erros na tomada de decisões relacionadas à forma de tratar a doença / Abstract: Most studies to estimate the prevalence and performance clinical diagnostic test parameters have not considered that many of the diagnostic methods include the measurement of biological traits with outcome expressed in a continuous scale and that, due to these traits, are measured on the same individual, they necessarily have some kind of dependence that may or not be explained as a phenomenon of linear relation or agreement. Generally authors assume that the data have binary structure and they do not consider the fact the data take that form after of they be dichotomized using a cut-off. In this thesis, it is developed a proposal based on a Bayesian approach to the problem of estimating the prevalence, the sensitivity and the specificity of tests within designs that include the application of a gold standard for verification and two or three screening diagnostic tests each of them resulting from a measurement of a biological trait expressed in a continuous scale and dichotomization. Although the main objective of the proposed statistical model is to study the effect of dependence between test results on prevalence and performance test parameter estimates, it is also studied some alternatives found in the literature to address common difficulties in diagnostic test studies such as the lack of identifiability and the verification bias (specially when individuals with negative results in both screening tests are not verified by "gold standard"procedure). The proposed estimation method considers the use of three copula functions to study the effect of same number of dependence levels on the parameter test estimates. Since the study is based on a Bayesian approach, it was necessary to develop a procedure to eliciting prior distributions in situations of total absence of information about the parameter of interest, as is the case of copula functions that have been very little used in medical research. The obtained results are compared with those obtained using binary covariance and independence between test outcomes assumption, methods frequently used by other authors. Unlike the majority of methods presented in the literature on the matter, the proposed estimation model has a reparametrization that gives the estimates of interest directly without need of use complex analytical and computational methods and the results are easily obtained using a Winbugs 1.4. program. The dependence affects the estimates of the test parameters and it has little effect on the prevalence estimate. The effect is stronger in presence of verification bias. Weak dependences underestimate the sensitivities and other parameters are unbiased, while strong dependencies overestimate all parameters. In situations in which the biological traits measured did not show strong changes due to the presence of the disease (or infection) on the individual, the estimates can reach values close to 50% higher than the real value, which may involve important errors in decision making related to how to treat the disease / Doutorado / Estatistica e Probabilidade / Doutor em Estatística
|
308 |
Regressão binária nas abordagens clássica e Bayesiana / Binary regression in the classical and Bayesian approachesAmélia Milene Correia Fernandes 16 December 2016 (has links)
Este trabalho tem como objetivo estudar o modelo de regressão binária nas abordagens clássica e bayesiana utilizando as funções de ligações probito, logito, complemento log-log, transformação box-cox e probito-assimétrico. Na abordagem clássica apresentamos as suposições e o procedimento para ajustar o modelo de regressão e verificamos a precisão dos parâmetros estimados, construindo intervalos de confiança e testes de hipóteses. Enquanto que, na inferência bayesiana fizemos um estudo comparativo utilizando duas metodologias. Na primeira metodologia consideramos densidades a priori não informativas e utilizamos o algoritmo Metropolis-Hastings para ajustar o modelo. Na segunda metodologia utilizamos variáveis auxiliares para obter a distribuição a posteriori conhecida, facilitando a implementação do algoritmo do Amostrador de Gibbs. No entanto, a introdução destas variáveis auxiliares podem gerar valores correlacionados, o que leva à necessidade de se utilizar o agrupamento das quantidades desconhecidas em blocos para reduzir a autocorrelação. Através do estudo de simulação mostramos que na inferência clássica podemos usar os critérios AIC e BIC para escolher o melhor modelo e avaliamos se o percentual de cobertura do intervalo de confiança assintótica está de acordo com o esperado na teoria assintótica. Na inferência bayesiana constatamos que o uso de variáveis auxiliares resulta em um algoritmo mais eficiente segundo os critérios: erro quadrático médio (EQM), erro percentual absoluto médio (MAPE) e erro percentual absoluto médio simétrico (SMAPE). Como ilustração apresentamos duas aplicações com dados reais. Na primeira, consideramos um conjunto de dados da variação do Ibovespa e a variação do valor diário do fechamento da cotação do dólar no período de 2013 a 2016. Na segunda aplicação, trabalhamos com um conjunto de dados educacionais (INEP-2013), focando nos estudos das variáveis que influenciam a aprovação do aluno. / The objective of this work is to study the binary regression model under the frequentist and Bayesian approaches using the probit, logit, log-log complement, Box-Cox transformation and skewprobit as link functions. In the classical approach we presented assumpti- ons and procedures used in the regression modeling. We verified the accuracy of the estimated parameters by building confidence intervals and conducting hypothesis tests. In the Bayesian approach we made a comparative study using two methodologies. For the first methodology, we considered non-informative prior distributions and the Metropolis-Hastings algorithm to estimate the model. In the second methodology we used auxiliary variables to obtain the known a posteriori distribution, allowing the use of the Gibbs Sampler algorithm. However, the introduction of these auxiliary variables can generate correlated values and needs the use of clustering of unknown quantities in blocks to reduce the autocorrelation. In the simulation study we used the AIC and BIC information criteria to select the most appropriate model and we evaluated whether the coverage probabilities of the confidence interval is in agre- ement with that expected by the asymptotic theory. In Bayesian approach we found that the inclusion of auxiliary variables in the model results in a more efficient algoritm according to the MSE, MAPE and SMAPE criteria. In this work we also present applications to two real datasets. The first dataset used is the variation of the Ibovespa and variation of the daily value of the American dollar at the time of closing the 2013 to 2016. The second dataset, used is an educational data set (INEP-2013), where we are interested in studying the factors that influence the approval of the student.
|
309 |
Incorporação de informações de marcadores genéticos em programas de melhoramento genético de bovinos de corte / Incorporation of genetic markers information in beef cattle breeding programsFernanda Marcondes de Rezende 02 May 2012 (has links)
A disponibilidade de informações baseadas nos marcadores genéticos surgiu como oportunidade de aprimorar os programas de melhoramento animal pela incorporação desses efeitos nas avaliações genéticas. Nesse contexto, o presente estudo teve como objetivos comparar modelos que consideraram ou não os efeitos dos marcadores para a estimação dos valores genéticos dos animais, bem como estimar os efeitos de substituição alélica dos marcadores por seis metodologias distintas (regressão múltipla bayesiana, regressão de cumeeira bayesiana, Bayes A, Bayes B, Bayes Cπ e LASSO bayesiano) e avaliar o impacto da inclusão desses efeitos na acurácia das estimativas dos valores genéticos e os conflitos de seleção existentes aos serem comparadas as classificações dos animais com base nos valores genéticos clássicos e nos valores genéticos assistidos por marcadores. Dados de 83.404 animais pertencentes a um programa de seleção de animas da raça Nelore, mensurados para peso na desmama, ganho de peso pós-desmama, perímetro escrotal e escore de musculosidade, que corresponderam a 116.652 animais na matriz de parentesco, foram utilizados. Do total de animais com informações fenotípicas e genealógicas disponíveis, apenas 3.160 foram genotipados para 106 marcadores do tipo SNP. Os resultados obtidos para a comparação de modelos não demonstraram vantagens claras da inclusão conjunta dos efeitos poligênicos e dos marcadores nos modelos de avaliação genética, entretanto, os modelos que incluíram apenas o efeito dos marcadores tiveram os piores ajustes e desempenhos preditivos. As diferenças observadas entre as estimativas dos efeitos de substituição alélica dos marcadores pelas diferentes metodologias analisadas se devem à maneira como cada método regulariza esses efeitos. A incorporação das informações dos marcadores nas avaliações genéticas proporcionou, no geral, um aumento na acurácia das estimativas dos valores genéticos, especialmente para os tourinhos de reposição. Ao serem comparados os 20% melhores animais classificados com base no valor genético clássico e no valor genético assistido por marcadores, os maiores conflitos de seleção foram observados para os touros e tourinhos genotipados. Em suma, o presente projeto demonstrou que, embora a utilização de painéis de marcadores de muito baixa densidade não altere a capacidade preditiva dos modelos de avaliação genética, esses têm impacto na acurácia das estimativas dos valores genéticos. / The availability of molecular markers information turned out to be an opportunity to improve animal breeding programs, by the inclusion of those effects in the estimation of breeding values. Under that perspective, the aims of present research were to compare genetic evaluation models that assumed or not markers effects on the estimation of breeding values, as well estimate the allelic substitution effects of SNP markers applying six different methodologies (Bayesian multiple regression, Bayesian ridge regression, Bayes A, Bayes B, Bayes Cπ and Bayesian Lasso) and evaluate the impact of these effects on the reliability of breeding values and the divergences on animals classification based on classical breeding values and marker assisted breeding values. Data of 83,404 animals belonging to a Nellore beef cattle (Bos indicus) selection program, measured for post-weaning gain, scrotal circumference and muscle score, corresponding to 116,562 animals on the relationship matrix, were used. From those animals, a set of 3,160 animals with phenotypic and genealogy data available, was genotyped for a panel of 106 SNP markers. Model comparison results did not demonstrate clearly the advantage of assuming polygenic and markers effects together in genetic evaluation models, however, models that considered only markers effects presented the worst global fit and predictive ability. Differences observed on the markers effects estimates were due the shrinkage process applied by each method. The incorporation of markers information on genetic evaluations provided, in general, increases on the reliability of breeding values, mainly for replacement young animals. Comparing the 20% best animals classified by classical breeding value and marker assisted breeding value, the highest divergences were observed to sires and young bulls that were genotyped. Summarizing, although this research showed that the inclusion of very low density SNP chip information was not able to improve the predictive ability of genetic evaluation models, they increased the reliability of breeding values estimates.
|
310 |
Física estatística de compressed sensing online / Statistical Physics of Online Compressed SensingPaulo Victor Camargo Rossi 02 March 2018 (has links)
Neste trabalho, Compressed Sensing é introduzido do ponto de vista da Física Estatística. Após uma introdução sucinta onde os conceitos básicos da teoria são apresentados, incluindo condições necessárias para as medições e métodos básicos de reconstrução do sinal, a performance típica do esquema Bayesiano de reconstrução é analisada através de um cálculo de réplicas exposto em detalhe pedagógico. Em seguida, a principal contribuição original do trabalho é introduzida --- o algoritmo Bayesiano de Compressed Sensing Online faz uso de uma aproximação de campo médio para simplificar cálculos e reduzir os requisitos de memória e computação, enquanto mantém a acurácia de reconstrução do esquema offline na presença de ruído aditivo. A última parte deste trabalho contém duas extensões do algoritmo online que permitem reconstrução otimizada do sinal no cenário mais realista onde conhecimento perfeito da distribuição geradora não está disponível. / In this work, Compressed Sensing is introduced from a Statistical Physics point of view. Following a succinct introduction where the basic concepts of the framework are presented, including necessary measurement conditions and basic signal reconstruction methods, the typical performance of the Bayesian reconstruction scheme is analyzed through a replica calculation shown in pedagogical detail. Thereafter, the main original contribution of this work is introduced --- the Bayesian Online Compressed Sensing algorithm makes use of a mean-field approximation to simplify calculations and reduce memory and computation requirements, while maintaining the asymptotic reconstruction accuracy of the offline scheme in the presence of additive noise. The last part of this work are two extensions of the online algorithm that allow for optimized signal reconstruction in the more realistic scenarios where perfect knowledge of the generating distribution is unavailable.
|
Page generated in 0.1179 seconds