Spelling suggestions: "subject:"estatística bayesiana"" "subject:"estatística bayesianas""
1 |
As Supernovas tipo Ia e a Cosmologia.OLIVEIRA, P. L. C. 09 August 2010 (has links)
Made available in DSpace on 2018-08-01T22:29:32Z (GMT). No. of bitstreams: 1
tese_4557_.pdf: 3091584 bytes, checksum: f3f8012b211cf4052797c2a8cbf07695 (MD5)
Previous issue date: 2010-08-09 / Esta dissertação é dedicada à investigação sobre a natureza da matéria e da energia escura no Universo através da técnica que utiliza observações a explosões de supernovae do tipo Ia como indicadoras de distâncias, usada no -fim do séc. XX para detectar a aceleração da expansão do Universo. Desde então alguns projetos voltados à observação de supernovae foram executados e tornaram públicos os seus dados, que são usados neste trabalho para a estimativa de parâmetros e comparação de modelos cosmológicos. O objetivo
deste trabalho é de estudar a capacidade do teste cosmolgico feito com os dados das distâncias às supernovae tipo Ia e a sua resposta a diferentes modelos cosmológicos e parâmetros livres. Para isto foi feito uma revisão do modelo padrão da Cosmologia e das evidências que apontam para a presença da matéria e da energia escuras, seguida de
um estudo sobre o fenômeno das supernovae tipo Ia em seus aspectos observacionais e astrofísicos, que permitem a construção das técnicas de calibração de suas magnitudes e a estimativa de suas distâncias. Antes de seguir para a análise cosmológica introduz-se a ferramenta apropriada que é a estatística bayesiana, estudada aqui apenas em suas ferramentas e aplicações mais elementares. E por último aplicamos estas ferramentas às amostras de dados de supernovae tipo Ia disponíveis na literatura conhecidas como Gold, SNLS, Essence e Constitution, para estudar alguns modelos cosmológicos de interesse, a
começar pelo próprio modelo de concordância CDM e a parametrização wCDM que testa a consistência da suposição wX = -1 para a energia escura. Em seguida testamos dois modelos de energia do vácuo dinâmica (t) e por último um caso especial de quartessência, o Gás de Chaplygin generalisado. Os resultados mostram que os dados das supernovae usados isoladamente dão resultados bem menos expressivos do que os encontrados na literatura onde são usados em conjunto com outras evidências. Duas das amostras de dados incluindo a mais atual dão origem a resultados que apresentam irregularidades inesperadas, que apontam para a existência de fatores ainda não controlados pelas técnicas de calibração da supernovae. Ambos os resultados indicam que o teste cosmológico baseados nas distância às supernovae Ia ainda passará por um outro salto de
qualidade num futuro próximo.
|
2 |
FBST seqüencial / Sequential FBSTArruda, Marcelo Leme de 04 June 2012 (has links)
O FBST (Full Bayesian Significance Test) é um instrumento desenvolvido por Pereira e Stern (1999) com o objetivo de apresentar uma alternativa bayesiana aos testes de hipóteses precisas. Desde sua introdução, o FBST se mostrou uma ferramenta muito útil para a solução de problemas para os quais não havia soluções freqüentistas. Esse teste, contudo, depende de que a amostra seja coletada uma única vez, após o que a distribuição a posteriori dos parâmetros é obtida e a medida de evidência, calculada. Ensejadas por esse aspecto, são apresentadas abordagens analíticas e computacionais para a extensão do FBST ao contexto de decisão seqüencial (DeGroot, 2004). É apresentado e analisado um algoritmo para a execução do FBST Seqüencial, bem como o código-fonte de um software baseado nesse algoritmo. / FBST (Full Bayesian Significance Test) is a tool developed by Pereira and Stern (1999), to show a bayesian alternative to the tests of precise hypotheses. Since its introduction, FBST has shown to be a very useful tool to solve problems to which there were no frequentist solutions. This test, however, needs that the sample be collected just one time and, after this, the parameters posterior distribution is obtained and the evidence measure, computed. Suggested by this feature, there are presented analytic and computational approaches to the extension of the FBST to the sequential decision context (DeGroot, 2004). It is presented and analyzed an algorithm to execute the Sequential FBST, as well as the source code of a software based on this algorithm.
|
3 |
FBST seqüencial / Sequential FBSTMarcelo Leme de Arruda 04 June 2012 (has links)
O FBST (Full Bayesian Significance Test) é um instrumento desenvolvido por Pereira e Stern (1999) com o objetivo de apresentar uma alternativa bayesiana aos testes de hipóteses precisas. Desde sua introdução, o FBST se mostrou uma ferramenta muito útil para a solução de problemas para os quais não havia soluções freqüentistas. Esse teste, contudo, depende de que a amostra seja coletada uma única vez, após o que a distribuição a posteriori dos parâmetros é obtida e a medida de evidência, calculada. Ensejadas por esse aspecto, são apresentadas abordagens analíticas e computacionais para a extensão do FBST ao contexto de decisão seqüencial (DeGroot, 2004). É apresentado e analisado um algoritmo para a execução do FBST Seqüencial, bem como o código-fonte de um software baseado nesse algoritmo. / FBST (Full Bayesian Significance Test) is a tool developed by Pereira and Stern (1999), to show a bayesian alternative to the tests of precise hypotheses. Since its introduction, FBST has shown to be a very useful tool to solve problems to which there were no frequentist solutions. This test, however, needs that the sample be collected just one time and, after this, the parameters posterior distribution is obtained and the evidence measure, computed. Suggested by this feature, there are presented analytic and computational approaches to the extension of the FBST to the sequential decision context (DeGroot, 2004). It is presented and analyzed an algorithm to execute the Sequential FBST, as well as the source code of a software based on this algorithm.
|
4 |
Anotação probabilística de perfis de metabólitos obtidos por cromatografia líquida acoplada a espectrometria de massas / Probabilistic annotation of metabolite profiles obtained by liquid chromatography coupled to mass spectrometrySilva, Ricardo Roberto da 16 April 2014 (has links)
A metabolômica é uma ciência emergente na era pós-genômica que almeja a análise abrangente de pequenas moléculas orgânicas em sistemas biológicos. Técnicas de cromatografia líquida acoplada a espectrometria de massas (LC-MS) figuram como as abordagens de amostragem mais difundidas. A extração e detecção simultânea de metabólitos por LC-MS produz conjuntos de dados complexos que requerem uma série de etapas de pré-processamento para que a informação possa ser extraída com eficiência e precisão. Para que as abordagens de perfil metabólico não direcionado possam ser efetivamente relacionadas às alterações de interesse no metabolismo, é estritamente necessário que os metabólitos amostrados sejam anotados com confiabilidade e que a sua inter-relação seja interpretada sob a pressuposição de uma amostra conectada do metabolismo. Diante do desafio apresentado, a presente tese teve por objetivo desenvolver um arcabouço de software, que tem como componente central um método probabilístico de anotação de metabólitos que permite a incorporação de fontes independentes de informações espectrais e conhecimento prévio acerca do metabolismo. Após a classificação probabilística, um novo método para representar a distribuição de probabilidades a posteriori em forma de grafo foi proposto. Uma biblioteca de métodos para o ambiente R, denominada ProbMetab (Probilistic Metabolomics), foi criada e disponibilizada de forma aberta e gratuita. Utilizando o software ProbMetab para analisar um conjunto de dados benchmark com identidades dos compostos conhecidas de antemão, demonstramos que até 90% das identidades corretas dos metabólitos estão presentes entre as três maiores probabilidades. Portanto, pode-se enfatizar a eficiência da disponibilização da distribuição de probabilidades a posteriori em lugar da classificação simplista usualmente adotada na área de metabolômica, em que se usa apenas o candidato de maior probabilidade. Numa aplicação à dados reais, mudanças em uma via metabólica reconhecidamente relacionada a estresses abióticos em plantas (Biossíntese de Flavona e Flavonol) foram automaticamente detectadas em dados de cana-de-açúcar, demonstrando a importância de uma visualização centrada na distribuição a posteriori da rede de anotações dos metabólitos. / Metabolomics is an emerging science field in the post-genomic era, which aims at a comprehensive analysis of small organic molecules in biological systems. Techniques of liquid chromatography coupled to mass spectrometry (LC-MS) figure as the most widespread approaches to metabolomics studies. The metabolite detection by LC-MS produces complex data sets, that require a series of preprocessing steps to ensure that the information can be extracted efficiently and accurately. In order to be effectively related to alterations in the metabolism of interest, is absolutely necessary that the metabolites sampled by untargeted metabolic profiling approaches are annotated with reliability and that their relationship are interpreted under the assumption of a connected metabolism sample. Faced with the presented challenge, this thesis developed a software framework, which has as its central component a probabilistic method for metabolite annotation that allows the incorporation of independent sources of spectral information and prior knowledge about metabolism. After the probabilistic classification, a new method to represent the a posteriori probability distribution in the form of a graph has been proposed. A library of methods for R environment, called ProbMetab (Probilistic Metabolomics), was created and made available as an open source software. Using the ProbMetab software to analyze a set of benchmark data with compound identities known beforehand, we demonstrated that up to 90% of the correct metabolite identities were present among the top-three higher probabilities, emphasizing the efficiency of a posteriori probability distribution display, in place of a simplistic classification with only the most probable candidate, usually adopted in the field of metabolomics. In an application to real data, changes in a known metabolic pathway related to abiotic stresses in plants (Biosynthesis of Flavone and Flavonol) were automatically detected on sugar cane data, demonstrating the importance of a view centered on the posterior distribution of metabolite annotation network.
|
5 |
Análise Bayesiana de dois problemas em Astrofísica Relativística: neutrinos do colapso gravitacional e massas das estrelas de nêutrons / Bayesian analysis of two problems in Relativistic Astrophysics: neutrinos from gravitational collapse and mass distribution of neutron stars.Lima, Rodolfo Valentim da Costa 19 April 2012 (has links)
O evento estraordinário de SN1987A vem sendo investigado há mais de vinte e cinco anos. O fascínio que cerca tal evento astronômico está relacionado com a observação em tempo real da explosão à luz da Física de neutrinos. Detectores espalhados pelo mundo observaram um surto neutrinos que dias mais tarde foi confirmado como sendo a SN1987A. Kamiokande, IMB e Baksan apresentaram os eventos detectados que permitiu o estudo de modelos para a explosão e resfriamento da hipotética estrela de nêutrons remanescente. Até hoje não há um consenso a origem do progenitor e a natureza do objeto compacto remanescente. O trabalho se divide em duas partes: estudo dos neutrinos de SN1987A através de Análise Estatística Bayesiana através de um modelo proposto com duas temperaturas que evidenciam dois surtos de neutrinos. A motivação está na hipótese do segundo surto como resultado da formação de matéria estranha no objeto compacto. A metodologia empregada foi a desenvolvida por um trabalho interessante de Loredo (2002) que permite modelar e testar hipóteses sobre os modelos via Bayesian Information Criterion (BIC). A segunda parte do trabalho, a mesma metodologia estatística é usada no estudo da distribuição de massas das estrelas de nêutrons usando a base de dados disponível (http://stellarcollapse.org). A base de dados foi analisada utilizando somente o valor do objeto e seu desvio padrão. Construindo uma função de verossimilhança e utilizando distribuições ``a priori\'\' com hipótese de bimodalidade da distribuição das massas contra uma distribuição unimodal sobre todas as massas dos objetos. O teste BIC indica forte tendência favorável à existência da bimodalidade com valores centrados em 1.37M para objetos de baixa massa e 1.73M para objetos de alta massa e a confirmação da fraca evidência de um terceiro pico esperado em 1.25M. / The extraordinary event of supernova has been investigated twenty five years ago. The fascination surrounds such astronomical event is on the real time observation the explosion at light to neutrino Physics. Detectors spread for the world had observed one burst neutrinos that days later it was confirmed as being of SN1987A. Kamiokande, IMB and Baksan had presented the detected events that allowed to the study of models for the explosion and cooling of hypothetical neutron star remain. Until today it does not have a consensus the origin of the progenitor and the nature of the remaining compact object. The work is divided in two parts: study of the neutrinos of SN1987A through Analysis Bayesiana Statistics through a model considered with two temperatures that two evidence bursts of neutrinos. The motivation is in the hypothesis of as burst as resulted of the formation of strange matter in the compact object. The employed methodology was developed for an interesting work of Loredo & Lamb (2002) that it allows shape and to test hypotheses on the models saw Bayesian Information Criterion (BIC). The second part of the work, the same methodology statistics is used in the study of the distribution of masses of the neutron stars using the available database http://stellarcollapse.org/. The database was analyzed only using the value of the object and its shunting line standard. Constructing to a a priori function likelihood and using distributions with hypothesis of bimodal distribution of the masses against a unimodal distribution on all the masses of objects. Test BIC indicates fort favorable trend the existence of the bimodality with values centered in 1.37M for objects of low mass and 1.73M for objects of high mass and week evidence of one third peak around 1.25M.
|
6 |
Construção de redes usando estatística clássica e Bayesiana - uma comparação / Building complex networks through classical and Bayesian statistics - a comparisonThomas, Lina Dornelas 13 March 2012 (has links)
Nesta pesquisa, estudamos e comparamos duas maneiras de se construir redes. O principal objetivo do nosso estudo é encontrar uma forma efetiva de se construir redes, especialmente quando temos menos observações do que variáveis. A construção das redes é realizada através da estimação do coeficiente de correlação parcial com base na estatística clássica (inverse method) e na Bayesiana (priori conjugada Normal - Wishart invertida). No presente trabalho, para resolver o problema de se ter menos observações do que variáveis, propomos uma nova metodologia, a qual chamamos correlação parcial local, que consiste em selecionar, para cada par de variáveis, as demais variáveis que apresentam maior coeficiente de correlação com o par. Aplicamos essas metodologias em dados simulados e as comparamos traçando curvas ROC. O resultado mais atrativo foi que, mesmo com custo computacional alto, usar inferência Bayesiana é melhor quando temos menos observações do que variáveis. Em outros casos, ambas abordagens apresentam resultados satisfatórios. / This research is about studying and comparing two different ways of building complex networks. The main goal of our study is to find an effective way to build networks, particularly when we have fewer observations than variables. We construct networks estimating the partial correlation coefficient on Classic Statistics (Inverse Method) and on Bayesian Statistics (Normal - Invese Wishart conjugate prior). In this current work, in order to solve the problem of having less observations than variables, we propose a new methodology called local partial correlation, which consists of selecting, for each pair of variables, the other variables most correlated to the pair. We applied these methods on simulated data and compared them through ROC curves. The most atractive result is that, even though it has high computational costs, to use Bayesian inference is better when we have less observations than variables. In other cases, both approaches present satisfactory results.
|
7 |
Identification and photometric redshifts for type-I quasars with medium- and narrow-band filter surveys / Identificação e redshifts fotométricos para quasares do tipo-I com sistemas de filtros de bandas médias e estreitasSilva, Carolina Queiroz de Abreu 16 November 2015 (has links)
Quasars are valuable sources for several cosmological applications. In particular, they can be used to trace some of the heaviest halos and their high intrinsic luminosities allow them to be detected at high redshifts. This implies that quasars (or active galactic nuclei, in a more general sense) have a huge potential to map the large-scale structure. However, this potential has not yet been fully realized, because instruments which rely on broad-band imaging to pre-select spectroscopic targets usually miss most quasars and, consequently, are not able to properly separate broad-line emitting quasars from other point-like sources (such as stars and low resolution galaxies). This work is an initial attempt to investigate the realistic gains on the identification and separation of quasars and stars when medium- and narrow-band filters in the optical are employed. The main novelty of our approach is the use of Bayesian priors both for the angular distribution of stars of different types on the sky and for the distribution of quasars as a function of redshift. Since the evidence from these priors convolve the angular dependence of stars with the redshift dependence of quasars, this allows us to control for the near degeneracy between these objects. However, our results are inconclusive to quantify the efficiency of star-quasar separation by using this approach and, hence, some critical refinements and improvements are still necessary. / Quasares são objetos valiosos para diversas aplicações cosmológicas. Em particular, eles podem ser usados para localizar alguns dos halos mais massivos e suas luminosidades intrinsecamente elevadas permitem que eles sejam detectados a altos redshifts. Isso implica que quasares (ou núcleos ativos de galáxias, de um modo geral) possuem um grande potencial para mapear a estrutura em larga escala. Entretanto, esse potencial ainda não foi completamente atingido, porque instrumentos que se baseiam no imageamento por bandas largas para pré-selecionar alvos espectroscópicos perdem a maioria dos quasares e, consequentemente, não são capazes de separar adequadamente quasares com linhas de emissão largas de outras fontes pontuais (como estrelas e galáxias de baixa resolução). Esse trabalho é uma tentativa inicial de investigar os ganhos reais na identificação e separação de quasares e estrelas quando são usados filtros de bandas médias e estreitas. A principal novidade desse método é o uso de priors Bayesianos tanto para a distribuição angular de estrelas de diferentes tipos no céu quanto para a distribuição de quasares como função do redshift. Como a evidência desses priors é uma convolução entre a dependência angular das estrelas e a dependência em redshift dos quasares, isso permite que a degenerescência entre esses objetos seja levada em consideração. Entretanto, nossos resultados ainda são inconclusivos para quantificar a eficiência da separação entre estrelas e quasares utilizando esse método e, portanto, alguns refinamentos críticos são necessários.
|
8 |
Construção de redes usando estatística clássica e Bayesiana - uma comparação / Building complex networks through classical and Bayesian statistics - a comparisonLina Dornelas Thomas 13 March 2012 (has links)
Nesta pesquisa, estudamos e comparamos duas maneiras de se construir redes. O principal objetivo do nosso estudo é encontrar uma forma efetiva de se construir redes, especialmente quando temos menos observações do que variáveis. A construção das redes é realizada através da estimação do coeficiente de correlação parcial com base na estatística clássica (inverse method) e na Bayesiana (priori conjugada Normal - Wishart invertida). No presente trabalho, para resolver o problema de se ter menos observações do que variáveis, propomos uma nova metodologia, a qual chamamos correlação parcial local, que consiste em selecionar, para cada par de variáveis, as demais variáveis que apresentam maior coeficiente de correlação com o par. Aplicamos essas metodologias em dados simulados e as comparamos traçando curvas ROC. O resultado mais atrativo foi que, mesmo com custo computacional alto, usar inferência Bayesiana é melhor quando temos menos observações do que variáveis. Em outros casos, ambas abordagens apresentam resultados satisfatórios. / This research is about studying and comparing two different ways of building complex networks. The main goal of our study is to find an effective way to build networks, particularly when we have fewer observations than variables. We construct networks estimating the partial correlation coefficient on Classic Statistics (Inverse Method) and on Bayesian Statistics (Normal - Invese Wishart conjugate prior). In this current work, in order to solve the problem of having less observations than variables, we propose a new methodology called local partial correlation, which consists of selecting, for each pair of variables, the other variables most correlated to the pair. We applied these methods on simulated data and compared them through ROC curves. The most atractive result is that, even though it has high computational costs, to use Bayesian inference is better when we have less observations than variables. In other cases, both approaches present satisfactory results.
|
9 |
Um ambiente computacional para um teste de significância bayesiano / An computational environment for a bayesian significance testSilvio Rodrigues de Faria Junior 09 October 2006 (has links)
Em 1999, Pereira e Stern [Pereira and Stern, 1999] propuseram o Full Baye- sian Significance Test (FBST), ou Teste de Significancia Completamente Bayesiano, especialmente desenhado para fornecer um valor de evidencia dando suporte a uma hip otese precisa H. Apesar de possuir boas propriedades conceituais e poder tratar virtual- mente quaisquer classes de hip oteses precisas em modelos param etricos, a difus ao deste m etodo na comunidade cient fica tem sido fortemente limitada pela ausencia de um ambiente integrado onde o pesquisador possa formular e implementar o teste de seu interesse. O objetivo deste trabalho e apresentar uma proposta de implementa c ao de um ambiente integrado para o FBST, que seja suficientemente flex vel para tratar uma grande classe de problemas. Como estudo de caso, apresentamos a formula c ao do FBST para um problema cl assico em gen etica populacional, o Equil brio de Hardy-Weinberg / In 1999, Pereira and Stern [Pereira and Stern, 1999] introduced the Full Bayesian Significance Test (FBST), developed to give a value of evidence for a precise hypothesis H. Despite having good conceptual properties and being able to dealing with virtually any classes of precise hypotheses under parametric models, the FBST did not achieve a large difusion among the academic community due to the abscence of an computational environment where the researcher can define and assess the evidence for hypothesis under investigation. In this work we propose an implementation of an flexible computatio- nal environment for FBST and show a case study in a classical problem in population genetics, the Hardy-Weinberg Equilibrium Law.
|
10 |
Um ambiente computacional para um teste de significância bayesiano / An computational environment for a bayesian significance testFaria Junior, Silvio Rodrigues de 09 October 2006 (has links)
Em 1999, Pereira e Stern [Pereira and Stern, 1999] propuseram o Full Baye- sian Significance Test (FBST), ou Teste de Significancia Completamente Bayesiano, especialmente desenhado para fornecer um valor de evidencia dando suporte a uma hip otese precisa H. Apesar de possuir boas propriedades conceituais e poder tratar virtual- mente quaisquer classes de hip oteses precisas em modelos param etricos, a difus ao deste m etodo na comunidade cient fica tem sido fortemente limitada pela ausencia de um ambiente integrado onde o pesquisador possa formular e implementar o teste de seu interesse. O objetivo deste trabalho e apresentar uma proposta de implementa c ao de um ambiente integrado para o FBST, que seja suficientemente flex vel para tratar uma grande classe de problemas. Como estudo de caso, apresentamos a formula c ao do FBST para um problema cl assico em gen etica populacional, o Equil brio de Hardy-Weinberg / In 1999, Pereira and Stern [Pereira and Stern, 1999] introduced the Full Bayesian Significance Test (FBST), developed to give a value of evidence for a precise hypothesis H. Despite having good conceptual properties and being able to dealing with virtually any classes of precise hypotheses under parametric models, the FBST did not achieve a large difusion among the academic community due to the abscence of an computational environment where the researcher can define and assess the evidence for hypothesis under investigation. In this work we propose an implementation of an flexible computatio- nal environment for FBST and show a case study in a classical problem in population genetics, the Hardy-Weinberg Equilibrium Law.
|
Page generated in 0.0653 seconds