Spelling suggestions: "subject:"deoria bayesian"" "subject:"ateoria bayesian""
81 |
Tratamento bayesiano de interações entre atributos de alta cardinalidade / Handling interactions among high cardinality attributesJambeiro Filho, Jorge Eduardo de Schoucair 11 July 2007 (has links)
Orientador: Jacques Wainer / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-09T21:11:41Z (GMT). No. of bitstreams: 1
JambeiroFilho_JorgeEduardodeSchoucair_D.pdf: 736285 bytes, checksum: b7d7f186f743f9b0e541c857b0ca8226 (MD5)
Previous issue date: 2007 / Resumo: Analisamos o uso de métodos Bayesianos em um problema de classificação de padrões de interesse prático para a Receita Federal do Brasil que é caracterizado pela presença de atributos de alta cardinalidade e pela existência de interações relevantes entre eles. Mostramos que a presença de atributos de alta cardinalidade pode facilmente gerar tantas subdivisões no conjunto de treinamento que, mesmo tendo originalmente uma grande quantidade de dados, acabemos obtendo probabilidades pouco confiáveis, inferidas a partir de poucos exemplos. Revisamos as estratégias usualmente adotadas para lidar com esse problema dentro do universo Bayesiano, exibindo sua dependência em suposições de não interação inaceitáveis em nosso domínio alvo. Mostramos empiricamente que estratégias Bayesianas mais avançadas para tratamento de atributos de alta cardinalidade, como pré-processamento para redução de cardinalidade e substituição de tabelas de probabilidades condicionais (CPTs) de redes Bayesianas (BNs) por tabelas default (DFs), árvores de decisão (DTs) e grafos de decisão (DGs) embora tragam benefícios pontuais não resultam em ganho de desempenho geral em nosso domínio alvo. Propomos um novo método Bayesiano de classificação, chamado de hierarchical pattern Bayes (HPB), que calcula probabilidades posteriores para as classes dado um padrão W combinando as observações de W no conjunto de treinamento com probabilidades prévias que são obtidas recursivamente a partir das observações de padrões estritamente mais genéricos que W. Com esta estratégia, ele consegue capturar interações entre atributos de alta cardinalidade quando há dados suficientes para tal, sem gerar probabilidades pouco confiáveis quando isso não ocorre. Mostramos empiricamente que, em nosso domínio alvo, o HPB traz benefícios significativos com relação a redes Bayesianas com estruturas populares como o naïve Bayes e o tree augmented naïve Bayes, com relação a redes Bayesianas (BNs) onde as tabelas de probabilidades condicionais foram substituídas pelo noisy-OR, por DFs, por DTs e por DGs, e com relação a BNs construídas, após uma fase de redução de cardinalidade usando o agglomerative information bottleneck. Além disso, explicamos como o HPB, pode substituir CPTs e mostramos com testes em outro problema de interesse prático que esta substituição pode trazer ganhos significativos. Por fim, com testes em vários conjuntos de dados públicos da UCI, mostramos que a utilidade do HPB ser bastante ampla / Abstract: In this work, we analyze the use of Bayesian methods in a pattern classification problem of practical interest for Brazil¿s Federal Revenue which is characterized by the presence of high cardinality attributes and by the existence of relevant interactions among them.We show that the presence of high cardinality attributes can easily produce so many subdivisions in the training set that, even having originally a great amount of data, we end up with unreliable probability estimates, inferred from small samples. We cover the most common strategies to deal with this problem within the Bayesian universe and show that they rely strongly on non interaction assumptions that are unacceptable in our target domain. We show empirically that more advanced strategies to handle high cardinality attributes like cardinality reduction by preprocessing and conditional probability tables replacement with default tables, decision trees and decision graphs, in spite of some restricted benefits, do not improve overall performance in our target domain. We propose a new Bayesian classification method, named hierarchical pattern Bayes (HPB), which calculates posterior class probabilities given a pattern W combining the observations of W in the training set with prior class probabilities that are obtained recursively from the observations of patterns that are strictly more generic than W. This way, it can capture interactions among high cardinality attributes when there is enough data, without producing unreliable probabilities when there is not. We show empirically that, in our target domain, HPB achieves significant performance improvements over Bayesian networks with popular structures like naïve Bayes and tree augmented naïve Bayes, over Bayesian networks where traditional conditional probability tables were substituted by noisy-OR gates, default tables, decision trees and decision graphs, and over Bayesian networks constructed after a cardinality reduction preprocessing phase using the agglomerative information bottleneck method. Moreover, we explain how HPB can replace conditional probability tables of Bayesian Networks and show, with tests in another practical problem, that such replacement can result in significant benefits. At last, with tests over several UCI datasets we show that HPB may have a quite wide applicability / Doutorado / Sistemas de Informação / Doutor em Ciência da Computação
|
82 |
Regressão quantílica sob enfoque bayesiano como alternativa no ajuste da eficiência técnica: uma aplicação para a agricultura familiar brasileira / Bayesian quantile regression as an alternative to tecnical efficiency estimation: an application to family farming in Brazilneto, Raimundo Cardoso de Oliveira 23 February 2018 (has links)
Submitted by Nathália Faria da Silva (nathaliafsilva.ufv@gmail.com) on 2018-07-10T19:43:00Z
No. of bitstreams: 1
textocompleto.pdf: 1702143 bytes, checksum: 51706f2c8c1a831cdb9c323d9c970ecd (MD5) / Made available in DSpace on 2018-07-10T19:43:00Z (GMT). No. of bitstreams: 1
textocompleto.pdf: 1702143 bytes, checksum: 51706f2c8c1a831cdb9c323d9c970ecd (MD5)
Previous issue date: 2018-02-23 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / O presente trabalho tem como objetivo propor o uso de Regressão Quantílica sob o enfoque bayesiano para ajustar a eficiência técnica de unidades produtivas. Para tanto, é fornecida uma breve revisão compreendendo os primeiros trabalhos relevantes para a definição de eficiência técnica, métodos tradicionais utilizados para ajustar esta medida, e as propostas de Regressão Quantílica encontradas na literatura. Foi realizado um estudo de simulação consistindo do ajuste da efici- ência por Análise Envoltória de Dados (DEA), Análise de Fronteira Estocástica (SFA) e Regressão Quantílica frequentista (RQ) e bayesiana (BRQ), em conjuntos de dados simulados. Os dados foram simulados por um modelo de SFA abran- gendo cenários com e sem quebra de suposições quanto a homogeneidade das unidades produtivas e diferentes suposições de dominância do erro por parte de fatores aleatórios. Verificou-se que a Regressão Quantílica bayesiana fornece bom ajuste da eficiência, com relação a viés e classificação das unidades produ- tivas, inclusive em cenários considerados ideais para SFA e DEA, mesmo sem ter usado informação a priori relevante. Além disso, a metodologia foi aplicada ao estudo da eficiência da agricultura familiar brasileira, a nível de microrregião. Observou-se que a eficiência técnica média das microrregiões com base no quan- til 0,95 é 41,09% com desvio padrão de 25,26%, tendo a região Nordeste a menor média de eficiência. Observou-se também, que nas microrregiões com melho- res práticas de produção a mão-de-obra é o insumo mais importante, seguido de máquinas e implementos agrícolas, e ainda, que a produção destas microrregiões não responde de forma significativa à mudanças na quantidade de área utilizada. Assim, concluiu-se que a regressão quantílica sob enfoque bayesiano caracteriza- se como uma alternativa interessante para ajustar a eficiência técnica / This work proposes the use of Bayesian Quantile Regression to estimate the tech- nical efficiency of productive units. For such, it is given a short review comprising from the initial relevant works for the definition of tecnical efficiency, traditional methods for estimating such a measure, and the Quantile Regression proposals found in the literature. Besides that, a simulation study was conducted consis- ting of the estimation of efficiency by Data Envelopment Analyzes (DEA), Sto- chastic Frontier Analyzes (SFA) and Quantile Regression, frequentist (QR) and bayesian (BQR). The datasets were simulated by a SFA model with and without the homocesdasticity assumption about the produtive units as well as different assumptions of error dominance by random noise.it was verified that Bayesian Quantile Regression estimates the efficiency consistently, considering bias and units ranking, including in scenarios considered ideal for DEA and SFA, although no relevant a priori information was used. As an ilustration, the efficiency of fa- mily farming, at microregion level, in Brazil is estimated by Bayesian Quantile Regression. The mean efficiency in the country was 41.09%, based on the 0.95 quantile, with standard deviation of 25.26%, while the Northestern region had the highest concentration of microregions with lower levels of efficiency. In ad- dition, the microregions with best practices have the labor as the most important input, followed by machinery, and their production does not change significantly in response to changes in area used for production. Thus, it can be concluded that Bayesian regression quantile is an interesting alternative to estimate efficiency le- vels
|
83 |
Modelos de predição utilizando lógica fuzzy : uma abordagem inspirada na inferência bayesiana / Prediction models using fuzzy logic : an approach inspired in the bayesian inferenceBacani, Felipo, 1985- 20 August 2018 (has links)
Orientador: Laécio Carvalho de Barros / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matemática, Estatística e Computação Científica / Made available in DSpace on 2018-08-20T13:51:43Z (GMT). No. of bitstreams: 1
Bacani_Felipo_M.pdf: 2024723 bytes, checksum: badf6f6540880c17a7c2ffbf9d211db0 (MD5)
Previous issue date: 2012 / Resumo: O presente trabalho tem por objetivo aplicar a teoria de conjuntos fuzzy a modelos de predição (inferência) de dados. O modelo utilizado baseia-se fortemente nas relações fuzzy em espaços contínuos (caso não matricial) e na regra de inferência modus ponens, utilizando t-normas (que neste contexto são similares à operação de cópula em estatística). é do modus ponens que surge o caráter \condicional" de alguns dos termos envolvidos, e a partir daí é que a analogia com a inferência bayesiana é feita. Entretanto, são apenas analogias conceituais: o presente trabalho não lida com nenhuma distribuição de probabilidades. Na verdade, conjuntos fuzzy são tratados como distribuições de possibilidades. A metodologia proposta é utilizada com o objetivo de tornar mais precisa a previsão de um especialista, levando em conta um registro histórico sobre o problema. Ou seja, melhorar a previsão do especialista levando em conta o que ocorreu com as previsões anteriores. Para testar a metodologia, utilizou-se dados meteorológicos de temperatura e umidade provenientes de lavouras de café. Os dados foram gentilmente cedidos pelo CEPAGRI/Unicamp. Os testes foram avaliados através de dois indicadores estatísticos, 'D' de Willmott e MAPE (Mean Absolute Percentage Error), mostrarando que a metodologia foi capaz de melhorar a previsão do especialista na maioria das situações estudadas / Abstract: This work aims to apply Fuzzy set theory in forecasting models. The modeling methodology is largely based on continuous fuzzy relations and in the modus ponens, using t-norms (that in this context are similar to the copula operations in statistics). It is from the modus ponens that arises the \conditional" interpretation of some of the terms involved, and it is from there that an analogy with the Bayesian inference is made. However, it is only a conceptual analogy: this work do not involve probability distributions. Actually, fuzzy sets are treated as possibility distributions. The methodology is used to improve the accuracy of expert forecasting considering a historic data. Namely, to improve expert prediction based on past performance. To evaluate the test the methodology, temperature and humidity data from coffee crop was used. The data was gently provided by CEPAGRI/Unicamp. Results were validated using two different statistic indicators, MAPE (mean absolute percentage error) and Willmott 'D', showing that the methodology was able to improve the expert prediction in most cases / Mestrado / Matematica Aplicada / Mestre em Matemática Aplicada
|
84 |
Inferencia e indicadores de viabilidade para modelos estocasticos de crescimento de populaçõesLoibel, Selene Maria Coelho 03 August 2018 (has links)
Orientador : João Bosco Ribeiro do Val / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-03T22:23:30Z (GMT). No. of bitstreams: 1
Loibel_SeleneMariaCoelho_D.pdf: 1823268 bytes, checksum: e8aedb6f1752a8f09cb81f4bc6ac985b (MD5)
Previous issue date: 2004 / Doutorado
|
85 |
Comparação de métodos de seleção de variáveis em regressão aplicados a dados genômicos e de espectroscopia NIR / Comparison of selection methods of regression variables applied to genomic data and NIR spectroscopyFerreira, Roberta de Amorim 21 February 2018 (has links)
Submitted by Marco Antônio de Ramos Chagas (mchagas@ufv.br) on 2018-06-13T16:38:53Z
No. of bitstreams: 1
texto completo.pdf: 1190631 bytes, checksum: 2b92d725f9f689a441f7d27c62a316aa (MD5) / Made available in DSpace on 2018-06-13T16:38:53Z (GMT). No. of bitstreams: 1
texto completo.pdf: 1190631 bytes, checksum: 2b92d725f9f689a441f7d27c62a316aa (MD5)
Previous issue date: 2018-02-21 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Muitas áreas de pesquisa possuem conjuntos de dados com os desafios da alta dimensionalidade e multicolinearidade a serem superados, de modo que métodos específicos para ajuste do modelo devem ser empregados. Embora os métodos existentes sejam eficientes para construção do modelo, frequentemente se faz necessário selecionar as variáveis mais importantes em explicar o modelo, visto que essa prática pode aumentar sua capacidade preditiva, diminuir custos e tempo das análises. Esse trabalho teve como objetivo principal avaliar e construir modelos empregando três métodos de seleção de variáveis aplicados a dados de marcadores SNPs (Single Nucleotide Polymorphisms) e a dados de espectroscopia no infravermelho próximo (NIR), além de avaliar a melhoria na qualidade de predição, quando comparado ao uso dos dados completos. Os métodos avaliados foram o de seleção dos preditores ordenados associado a regressão por quadrados mínimos parciais (PLS-OPS), o Sparce partial least Square (SPLS) e o Lasso bayesiano (BLASSO) supervisionado, este último é uma adaptação do método BLASSO com a vantagem de selecionar as variáveis. Foram utlizados conjuntos de dados simulados compostos por 100 amostras e 500 marcadores SNPs avaliados em dois cenários que diferem entre si no vetor de coeficientes de regressão utilizado e quatro conjuntos de dados reais, sendo um de SNPs e três de dados NIR. Usou-se o software R para a modelagem dos dados. As amostras foram separadas em conjuntos de treinamento e de teste via algoritmo de Kennard e Stone. A qualidade preditiva do modelo foi avaliada com base no coeficiente médio de correlação (r) entre valores preditos e reais, e a raiz quadrada do erro quadrático médio (RMSE). No conjunto de dados simulados avaliado no primeiro cenário, havia 52 marcadores de maiores efeitos. Os modelos usando o BLASSO supervisionado, o SPLS e o PLS-OPS selecionaram, respectivamente, em média, 100, 310 e 124 variáveis. Em termos de capacidade preditiva os modelos após seleção foram semelhantes quando comparados ao uso dos dados completos. No segundo cenário, 10 marcadores de menor efeito foram escolhidos para serem significativos. Nesse cenário, para escolha do número de variáveis a serem selecionadas pelo BLASSO supervisionado utilizou-se dois critérios: no primeiro 20% das variáveis foram selecionadas, e no segundo o número de variáveis selecionadas eram iguais ao do SPLS e do PLS-OPS. Em média os modelos apresentaram um desempenho melhor utlizando a seleção de variáveis em relação aos modelos construídos com os dados completos, sendo o SPLS levemente superior, com r = 0,846 e intervalo de RMSE de menor amplitude. Para a predição da produção de grãos em dados de SNPs, o método BLASSO supervisionado foi superior, com menor valor de RMSE (0,56) e maior valor de r (0,569). O PLS-OPS também apresentou bom desempenho nesse conjunto de dados, atestando o uso deste método para dados dessa natureza. No primeiro conjunto de dados NIR em que foi avaliado o teor de fibra da cana-de-açúcar, de maneira geral os valores de RMSE e de r se mantiveram próximos àqueles obtidos para os dados completos. No segundo conjunto de dados reais NIR em que foi avaliado o teor de lignina da cana-de-açúcar, pode-se observar que os melhores resultados foram obtidos com o método BLASSO supervisionado (RMSE = 0,705 e r = 0,956). No terceiro conjunto de dados reais NIR em que foram avaliadas amostras de repolho roxo, os melhores resultados foram obtidos quando utlizou-se o PLS-OPS (RMSE = 13,05 e r = 0,996). No segundo e terceiro conjuntos de dados NIR avaliados as estatísticas obtidas foram próximas às obtidas com os dados completos, porém com a vantagem de possuir menos variáveis. De maneira geral, os métodos funcionam de forma semelhante, mas cada um exibe vantagens sobre o outro em determinadas situações. Ao utilizarmos os métodos de seleção, podemos observar que os modelos se tornaram mais simples, visto que o número de variáveis reduziu significamente em todos os conjuntos de dados estudados. / Researches from many different areas have data sets with the challenges of high dimensionality and multicollinearity still to be overcome, therefore specific methods for model fit must be employed. Although the existing methods are efficient to construct the model, it is often necessary to select the most important variables in explaining the model, once this practice can increase its predictive capacity, reduce costs, and analysis time. The main objective of this work was to evaluate and construct models using three methods of variable selection applied to single nucleotide polymorphisms (SNPs) and near infrared spectroscopy (NIR) data, besides evaluating the improvement in prediction quality, when compared to the use of complete data. The methods evaluated were: the selection of ordered predictors associated with partial least squares regression (PLS-OPS); the Sparce partial least square (SPLS); and the supervised Bayesian Lasso (BLASSO) – the last one is an adaptation of the BLASSO method with advantage of selecting variables. Were used simulated data sets composed of 100 samples and 500 SNP markers evaluated in two scenarios that differ from one another in the regression coefficient vector used, and four real data sets – composed by one set of SNPs and three sets of NIR data. It was used the software R in order to model the data. Samples were separated into training and test sets via Kennard and Stone algorithm. The predictive quality of the model was evaluated based on the mean correlation coefficient (r) between predicted and actual values, and the square root mean square error (RMSE). In the simulated data set evaluated in the first scenario, there were 52 markers of greater effects. The models using supervised BLASSO, SPLS and PLS-OPS selected an average of 100, 310 and 124 variables, respectively. In terms of predictive capacity, the models after selection were similar when compared to the use of the complete data. In the second scenario, 10 lower-effect markers were chosen to be significant. In this scenario, two criteria were used to select the number of variables to be selected by supervised BLASSO: in the first 20% of the variables were selected, and in the second, the number of variables selected were the same as SPLS and PLS-OPS. On average, the models presented a better performance when using the variables selection, than in relation to the models constructed with the complete data, once the SPLS was slightly higher – with r = 0.846 and a lower amplitude RMSE interval. For the prediction of grain yield in SNP data, the supervised BLASSO method was superior, with a lower RMSE value (0.56) and a higher r value (0.569). PLS-OPS also performed well in this data set, attesting to the use of this method for data of this nature. In the first set of NIR data in which the sugar cane fiber content was evaluated, the RMSE and r values were, in general, close to those obtained for the complete data. In the second set of real NIR data in which the lignin content of sugarcane was evaluated, it can be observed that the best results were obtained with the supervised BLASSO method (RMSE = 0.705 and r = 0.956). In the third set of real NIR data in which samples of purple cabbage were evaluated, the best results were obtained when PLS-OPS (RMSE = 13.05 and r = 0.996) was used. In the second and third NIR data sets, the statistics obtained were close to those obtained with the complete data, but with the advantage of having fewer variables. In general, the methods used work in a similar way; however, each one of them has advantages over another in specific situations. By using the selection methods, it can be observed that the models have become simpler, once the number of variables reduced significantly in all datasets studied.
|
86 |
Análise de fatores aplicada na seleção genômica em suínos / Factor analysis applied to genomic selection in pigsTeixeira, Filipe Ribeiro Formiga 26 February 2015 (has links)
Submitted by Marco Antônio de Ramos Chagas (mchagas@ufv.br) on 2015-11-16T15:48:51Z
No. of bitstreams: 1
texto completo.pdf: 691384 bytes, checksum: aab815327caf398b574398b645aac346 (MD5) / Made available in DSpace on 2015-11-16T15:48:51Z (GMT). No. of bitstreams: 1
texto completo.pdf: 691384 bytes, checksum: aab815327caf398b574398b645aac346 (MD5)
Previous issue date: 2015-02-26 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / A seleção genômica, ou seleção genômica ampla foi proposta com a finalidade de otimizar o processo de melhoramento genético utilizando simultaneamente dados fenotípicos e genotípicos por meio de marcadores SNP’s, presentes em todo o genoma. Várias metodologias têm sido implementadas, principalmente utilizando regressão linear e considerando os efeitos dos marcadores fixos (BLUP, LS, etc.) ou considerando os efeitos aleatórios (Bayes A, Bayes B, LASSO Bayesiano, dentre outras). Em geral, tais metodologias analisam cada característica individualmente, ou seja, os resultados obtidos são válidos apenas para uma única variável. Entretanto, em programas de melhoramento o interesse recai em ganhos para mais de uma característica conjuntamente. Dessa forma, desenvolver uma abordagem que trabalhe com análises que considerem várias características simultaneamente pode ser interessante, visto que poderíamos estudar um conjunto de caracteres importantes conjuntamente. Uma metodologia possível de ser utilizada para este fim é a análise fatorial (ou análise de fatores - AF). Tal metodologia permite a obtenção de variáveis latentes (fatores comuns) que representam um conjunto das variáveis originais. A partir de então, análises posteriores podem ser realizadas utilizando as variáveis latentes criadas. Diante do exposto, o principal objetivo deste trabalho foi propor a utilização da análise de fatores para criação de variáveis latentes altamente associadas às variáveis fenotípicas originais, de modo que possamos estimar o mérito genético para os indivíduos considerando várias variáveis simultaneamente. Objetivou-se também comparar os resultados obtidos com aqueles advindos das análises individuais. Para tanto, foram utilizados dados fenotípicos e genotípicos provenientes de 345 suínos obtidos pelo cruzamento das raças Piau e Comercial, oriundos da Granja de Melhoramento de Suínos do Departamento de Zootecnia da Universidade Federal de Viçosa (UFV), no período de novembro de 1998 a julho de 2001, utilizando 237 marcadores SNP’s e 41 variáveis fenotípicas. No primeiro capítulo foi aplicada a análise de fatores para verificar a estrutura de associação entre as variáveis e averiguar a que fator cada variável pertence, onde são identificados os fatores interpretáveis. No segundo capítulo, técnicas bayesianas de seleção genômica ampla foram aplicadas nas variáveis latentes interpretáveis para predição do mérito genético e seleção dos indivíduos, comparando assim os resultados com o que foi encontrado para as variáveis fenotípicas individualmente. Os resultados obtidos indicam que a aplicação da análise de fatores para obtenção de variáveis latentes que representam um conjunto de caracteres para posterior uso em seleção genômica ampla se mostrou eficiente, visto que apresentou valores de acurácia semelhantes aos encontrados considerando as análises individuais das variáveis e alta concordância entre os indivíduos selecionados considerando a variável latente e as variáveis individuais. / Genomic selection, or genome-wide selection was proposed in order to optimize breeding process using both phenotypic and genotypic data by SNP's markers, present throughout the genome. Various methodologies have been implemented mostly using linear regression and considering the effects of fixed markers (BLUP, LS, etc.) or considering the random effects (The Bayes, Bayes B, Bayesian LASSO, among others). In general, such methods analyze each feature individually, or the results obtained are valid only for a single variable. However, in breeding programs interest falls in earnings to more than one feature together. Thus, developing an approach that works with analyzes that consider various features can be simultaneously interesting, because we could study a number of important characters together. One possible method to be used for this purpose is the factor analysis (or analysis of factors - AF). This methodology allows obtaining latent variables (common factors) that represent a set of original variables. Since then, further analysis can be performed using the latent variables created. Given the above, the main objective of this work was to propose the use of factor analysis for creating highly latent variables associated with the original phenotypic variables, so that we can estimate the genetic merit for individuals considering several variables simultaneously. The objective is to also compare the results with those arising from the individual reviews. Therefore, phenotypic and genotypic data from 345 pigs obtained by crossing the breeds were used Piau and Trade, coming from the Farm Improvement Pigs Department of Animal Science of the Federal University of Viçosa (UFV), from November 1998 to July 2001, using 237 markers SNP's and 41 phenotypic variables. In the first chapter was applied to factor analysis to assess the association structure between variables and determine the factor which each variable belongs, where interpretable factors are identified. In the second chapter, Bayesian techniques of genome-wide selection were applied in interpretable latent variables to predict genetic merit and selection of individuals, and compare it to what was found for the phenotypic variables individually. The results indicate that the application of the factor analysis to obtain latent variables representing a character set for later use in genome wide selection proved to be efficient, since accuracy showed similar values to those found considering the analysis of individual variable and high agreement among the individuals selected considering the latent variable and individual variables.
|
87 |
Investigação e caracterização filogenética de Coronavírus na biota de aves silvestres e sinantrópicas provenientes das regiões Sul e Sudeste do Brasil / Investigation and phylogenetic characterization of Coronavirus in biota of wild and synanthropic birds from Southern and Southeastern BrazilCarvalho, Ricardo Durães de, 1985- 27 August 2018 (has links)
Orientadores: Clarice Weis Arns, Márcia Bianchi dos Santos / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Biologia / Made available in DSpace on 2018-08-27T11:13:27Z (GMT). No. of bitstreams: 1
Carvalho_RicardoDuraesde_D.pdf: 3518273 bytes, checksum: 7b6f8b159eb057429823e23f6852c29b (MD5)
Previous issue date: 2015 / Resumo: A evolução e a dinâmica populacional dos Coronavírus (CoVs) ainda permanecem pouco exploradas. No presente estudo, análises filogenéticas e de filogeografia foram conduzidas para investigar a dinâmica evolutiva dos CoVs detectados em aves silvestres e sinantrópicas. Um total de 500 amostras, que inclui os suabes traqueais e cloacais coletados de 312 aves silvestres pertencentes a 42 espécies, foram analisadas através da RT-qPCR. Sessenta e cinco amostras (13%) provenientes de 23 espécies foram positivas para o Coronavírus aviário (AvCoV). Trezentos e duas amostras foram investigadas para a pesquisa do Pan-Coronavírus (Pan-CoV) através do nPCR, destas, 17 (5,6%) foram positivas, sendo que 11 foram detectadas em espécies diferentes. Análises filogenéticas dos AvCoVs revelaram que as sequências de DNA das amostras coletadas no Brasil não agruparam com nenhuma das sequências do gene Spike (S1) dos AvCoVs depositados no banco de dados GenBank. Análise Bayesiana estimou uma variante do AvCoV proveniente da Suécia (1999) como o ancestral comum mais recente dos AvCoVs detectados neste estudo. Além disso, as análises realizadas através do "Bayesian Skyline Plot" (BSP) inferiram um aumento na dinâmica da população demográfica do AvCoV em diferentes espécies de aves silvestres e sinantrópicas. As análises filogenéticas do Pan-CoV mostrou que a maioria das amostras se agruparam com o Vírus da Hepatite Murina A59 (MHV A59), CoV pertencente ao grupo dos Beta-CoVs. Uma amostra [CoV detectado em Amazona vinacea(Papagaio-de-peito-roxo)] se agrupou com um CoV de Suínos, o PCoV HKU15, que pertence ao gênero Delta-CoV, ainda não relatado na América do Sul. Nossos achados sugerem que as aves podem ser novos potenciais hospedeiros responsáveis pela propagação e disseminação de diferentes CoVs para diferentes espécies de animais / Abstract: The evolution and population dynamics of Coronaviruses (CoVs) still remain underexplored. In the present study, phylogenetic and phylogeographic analyseswere conducted to investigate the evolutionary dynamics of CoV detected in wild and synanthropic birds. A total of 500 samples, including tracheal and cloacal swabs collected from 312 wild birds belonging to 42species, were analysed by RT-qPCR. A total of 65 samples from 23bird species were positive for Avian Coronaviruses (AvCoVs).Three hundred and two samples were screened for the Pan-Coronavirus (Pan-CoV) through the nPCR, 17 (5.6%) were positive, being that 11 were detected in different species. AvCoVs phylogenetic analyses revealed that the DNA sequences from samples collected in Brazil did not cluster with any of the AvCoV S1 gene sequences deposited in the GenBank database. Bayesian framework analysis estimated an AvCoV strain from Sweden (1999) as the most recent common ancestor of the AvCoVs detected in this study. Furthermore, Bayesian Skyline Plot (BSP) analysis inferred an increase in the AvCoV dynamic demographic population in different wild and synanthropic bird species. Phylogenetic analysis of the Pan-CoV showed that most of the samples clustered with the Murine Hepatitis Virus A59 strain (MHV A59) belong to the BetaCoV group. Besides, one of our samples [CoV detected in Amazona vinacea (parrot-breasted-purple)] clustered with a CoV isolated from pigs, PCoV HKU15, belonging to the DeltaCoV genus, still not reported in South America. Our findings suggest that birds may be potential new hosts responsible for spreading of different CoVs for different species of animals / Doutorado / Microbiologia / Doutor em Genetica e Biologia Molecular
|
88 |
Genetic relationship between reproductive traits in Nellore cattle /Guarini, Aline Rocha. January 2013 (has links)
Orientador: Sandra Aidar de Queiroz / Banca: Roberto Carvalheiro / Banca: Vânia Cardoso / Resumo: Não disponível / Abstract: The aim of this study was to estimate genetic parameters between scrotal circumference obtained at 18 months of age (SC) and reproductive traits measured directly in Nellore females, such as number of calvings at 53 months (NC53), heifers rebreeding (HR) and stayability (STAY) in order to investigate the possibility of using traits measured directly in females as a selection criteria in cattle breeding programs, besides, studying and evaluating if number of calvings at 53 months could be used as an alternative way for measuring longevity in cattle herds. Two methods were applied for estimating variance components in order to predict breeding values: restricted maximum likelihood (REML) and Bayesian inference. The average estimates of heritability by bivariate model using REML were equal to 0.013 ± 0.003, 0.057 ± 0.007, 0.039 ± 0.007 and 0.530 ± 0.013 for NC53, STAY, HR and SC, respectively. Using the Bayesian method, the estimates were 0.22 ± 0.009, 0.19 ± 0.025, 0.15 ± 0.021 and 0.52 ± 0.019 for NC53, STAY, HR and SC, respectively. Based on the correlations between reproductive traits measured in females, the selection of animals for NC53 will cause anticipation on genetic evaluation of bulls for longevity, based on the performance of their daughters, from 76 to 53 months / Mestre
|
89 |
Genetic analysis of feet and legs in Nelore cattle /Vargas, Giovana. January 2015 (has links)
Orientador: Roberto Carvalheiro / Coorientador: Danísio Prado Munari / Coorientador: Haroldo Henrique de Rezende Neves / Banca: Fernando Sebastián Baldi Rey / Banca: Idalmo Garcia Pereira / Resumo: O objetivo deste estudo foi estimar os componentes de variância para a característica aprumo em bovinos da raça Nelore, e realizar estudos de associação genômica ampla para identificar possíveis regiões genômicas relacionadas com sua expressão. Os registros de aprumo foram obtidos pela atribuição de escores visuais em dois momentos diferentes: FL1) característica binária medida ao sobreano, com o objetivo de identificar se o animal apresenta (FL1=1) ou não (FL1=0) defeito de aprumo; FL2) escores de aprumo variando de 1 (menos desejável) a 5 (mais desejável), foram designados aos animais top 20% para o índice de seleção adotado pelo programa de melhoramento genético de bovinos de corte PAINT (CRV Lagoa), e foram medidos em torno de 2 a 5 meses após a avaliação de sobreano. As características FL1 e FL2 foram avaliadas em conjunto com peso ao sobreano (YW). Os componentes de variância e covariância e os valores genéticos foram estimados por inferência Bayesiana, por meio de modelo animal bi-característica (três análises: FL1-FL2, YW-FL1 e YW-FL2). O estudo de associação genômica ampla (GWAS) para FL1 e FL2 foi realizado utilizando o método weighted single-step GBLUP, a partir do qual foram estimados os efeitos dos SNPs. As janelas top 10 de 1 Mb que explicam a maior proporção da variância genética foram observadas para cada característica. As médias (erros padrão) a posteriori das estimativas de herdabilidade foram iguais a 0,18 (0,04) e 0,39 (0,07), para FL1 e FL2, respectivamente. A estimativa de correlação genética entre FL1 e FL2 (-0,47) foi de moderada magnitude e negativa, conforme esperado, considerando que o escore de classificação que favorece cada característica corresponde a valores numéricos atribuídos em sentidos opostos. A correlação genética estimada entre FL2 e YW (0,39) sugere que a média do peso ao sobreano da população em estudo não é alta a ponto de causar... / Abstract: The aim of this study was to estimate variance components of two traits associated to feet and legs in Nelore cattle and identify putative genomic regions underlying the expression of these traits through genome-wide association (GWA) analyses. Feet and legs was evaluated by the assignment of visual scores at two different moments: FL1) binary trait measured at yearling (about 550 days of age), aimed to identify whether an animal had defects related to feet and legs (FL1=1) or not (FL1=0); FL2) feet and legs score ranging from 1 (less desirable) to 5 (more desirable) was assigned to the top 20% animals for the selection index adopted by the beef cattle breeding program PAINT (CRV Lagoa), which were measured around 2-5 months after the evaluation of yearling. The FL1 and FL2 traits were evaluated together with yearling weight (YW). The components of variance and covariance and breeding values were estimated by Bayesian inference, using two-trait animal models (three analyses: FL1-FL2, YW-FL1 and YW-FL2). The genome-wide association (GWA) analyses for FL1 and FL2 was performed using the weighted single-step GBLUP method, from which were estimated the SNP effects. Functional annotation was focused on the ten 1Mb windows explaining the largest fraction of the genetic variance for each trait. Posterior means (standard errors) of heritability estimates were equal to 0.18 (0.04) and 0.39 (0.07), for FL1 and FL2, respectively. The estimate of genetic correlation between FL1 and FL2 (-0.47) was of moderate magnitude and negative, as expected considering that the classification score that favors each trait represents numerical values assigned in opposite directions. The genetic correlation estimated between FL2 and YW (0.39) suggests that the average yearling weight of the studied population is currently not high enough to cause a negative association with feet and legs problems. The genetic trends estimated for FL1 and FL2 (-0.043 and ... / Mestre
|
90 |
Modelagem Bayesiana dos níveis máximos do Índice de Preços ao ConsumidorPORTES, Pablo Cescon 10 February 2017 (has links)
O Índice de Preços ao Consumidor Amplo (IPCA) é o índice utilizado pelo Banco Central do Brasil ao estabelecer suas metas inflacionárias. Por servir como uma referência de inflação, o IPCA é atentamente monitorado, tanto por investidores estrangeiros e brasileiros, quanto por gestores públicos. Sabe-se que uma inflação alta e descontrolada causa distorções e perdas econômicas no país, assim há um interesse por parte de administradores e gestores financeiros em prever a inflação máxima para um determinado período de tempo. Dessa forma, o objetivo do trabalho foi modelar os níveis máximos de IPCA, que podem ocorrer em um quadrimestre. A escolha de quadrimestres visa equiparar a análise com os intervalos entre as apresentações dos demonstrativos de cumprimento das metas fiscais por parte do Poder Executivo. Foi utilizada a distribuição Generalizada de Valores Extremos (do inglês Generalized Extreme Values - GEV) para modelagem. Para a estimação dos parâmetros da distribuição GEV utilizou-se o método da Máxima Verossimilhança e a Inferência Bayesiana. Na elicitação de informação para construção das distribuições a priori, foram utilizados dados de países economicamente semelhantes ao Brasil, a Rússia, China e Índia, os quais pertencem ao BRICS. Além disso, foram criadas diferentes combinações de distribuição a priori, usando informações desses países com diferentes estruturas de variância. Para avaliar qual melhor metodologia de estimação foram analisadas a acurácia e precisão das estimativas dos níveis máximos de inflação para determinados tempos de retorno. Os resultados permitiram observar que a abordagem Bayesiana, que utilizou como informação a média de dados dos países do BRICS para construção da distribuição a priori Normal Trivariada, levou a predições mais precisas e acuradas. / The Brazilian Consumer Price Index (CPI) is the index used by the Central Bank of Brazil in establishing its inflation targets. By serving as an inflation reference, the Brazilian CPI is closely monitored by foreign and Brazilian investors as well as by public managers. It is known that high and uncontrolled inflation causes distortions and economic losses in the country, so there is an interest on the part of managers and financial managers to predict maximum inflation for a certain period of time. Thus, the objective of the work was to model the maximum Brazilian CPI levels, which can occur in a four-month period. The choice of four-month periods aims to equate the analysis with the intervals between the presentations of the statements of compliance with the fiscal targets by the government. The Generalized Extreme Values (GEV) distribution was used for modeling. For the estimation of the parameters of the GEV distribution the maximum likelihood method and the Bayesian Inference were used. In the elicitation of information for the construction of the prior distributions, we used data from countries economically similar to Brazil: Russia, China and India, which belong to BRICS. In addition, different combinations of prior distribution were created, using information from these countries with different variance structures. In order to evaluate the best estimation methodology, the accuracy and precision of the estimates of the maximum inflation levels for certain return times were analyzed. The results showed that the Bayesian approach, which used as information the mean data of the BRICS countries for construction of the Normal Trivariate prior distribution, led to more accurate and accurate predictions. / Fundação de Amparo à Pesquisa do Estado de Minas Gerais - FAPEMIG
|
Page generated in 0.0495 seconds