Spelling suggestions: "subject:"estatística bayesiana"" "subject:"estatística bayesianas""
11 |
Um modelo Bayesiano de meta-análise para dados de ChIP-Seq / A meta-analysis Bayesian model for ChIP-Seq dataAndrade, Pablo de Morais 17 April 2017 (has links)
Com o desenvolvimento do sequenciamento em larga escala, novas tecnologias surgiram para auxiliar o estudo de sequências de ácidos nucleicos (DNA e cDNA); como consequência, o desenvolvimento de novas ferramentas para analisar o grande volume de dados gerados fez-se necessário. Entre essas novas tecnologias, uma, em particular, chamada Imunoprecipitação de Cromatina seguida de sequenciamento de DNA em larga escala ou CHIP-Seq, tem recebido muita atenção nos últimos anos. Esta tecnologia tornou-se um método usado amplamente para mapear sítios de ligação de proteínas de interesse no genoma. A análise de dados resultantes de experimentos de ChIP-Seq é desaadora porque o mapeamento das sequências no genoma apresenta diferentes formas de viés. Os métodos existentes usados para encontrar picos em dados de ChIP-Seq apresentam limitações relacionadas ao número de amostras de controle e tratamento usadas, e em relação à forma como essas amostras são combinadas. Nessa tese, mostramos que métodos baseados em testes estatísticos de hipótese tendem a encontrar um número muito maior de picos à medida que aumentamos o tamanho da amostra, o que os torna pouco conáveis para análise de um grande volume de dados. O presente estudo descreve um método estatístico Bayesiano, que utiliza meta-análise para encontrar sítios de ligação de proteínas de interesse no genoma resultante de experimentos de ChIPSeq. Esse métodos foi chamado Meta-Analysis Bayesian Approach ou MABayApp. Nós mostramos que o nosso método é robusto e pode ser utilizado com diferentes números de amostras de controle e tratamentos, assim como quando comparando amostras provenientes de diferentes tratamentos. / With the development of high-throughput sequencing, new technologies emerged for the study of nucleic acid sequences (DNA and cDNA) and as a consequence, the necessity for tools to analyse a great volume of data was made necessary. Among these new technologies, one in special Chromatin Immunoprecipitation followed by massive parallel DNA Sequencing, or ChIP-Seq, has been evidenced during the last years. This technology has become a widely used method to map locations of binding sites for a given protein in the genome. The analysis of data resulting from ChIP-Seq experiments is challenging since it can have dierent sources of bias during the sequencing and mapping of reads to the genome. Current methods used to nd peaks in this ChIP-Seq have limitations regarding the number of treatment and control samples used and on how these samples should be used together. In this thesis we show that since most of these methods are based on traditional statistical hypothesis tests, by increasing the sample size the number of peaks considered signicant changes considerably. This study describes a Bayesian statistical method using meta-analysis to discover binding sites of a protein of interest based on peaks of reads found in ChIP-Seq data. We call it Meta- Analysis Bayesian Approach or MABayApp. We show that our method is robust and can be used for dierent number of control and treatment samples, as well as when comparing samples under dierent treatments.
|
12 |
Desenvolvimento de interfaces gráficas para estatística Bayesiana aplicada à comparação mista de tratamentos / Graphical User Interface development for Bayesian Statistics applied to Mixed Treatment ComparisonMarcelo Goulart Correia 12 September 2013 (has links)
A partir dos avanços obtidos pela industria farmacêutica surgiram diversos
medicamentos para o combate de enfermidades. Esses medicamentos possuem
efeito tópico similar porém com suaves modificações em sua estrutura bioquímica,
com isso a concorrência entre as industrias farmacêuticas se torna cada vez mais
acirrada. Como forma de comparar a efetividade desses medicamentos, surgem
diversas metodologias, com o objetivo de encontrar qual seria o melhor
medicamento para uma dada situação. Uma das metodologias estudadas é a
comparação mista de tratamentos, cujo objetivo é encontrar a efetividade de
determinadas drogas em estudos e/ou ensaios clínicos que abordem, mesmo que de
maneira indireta, os medicamentos estudados. A utilização dessa metodologia é
demasiadamente complexa pois requer conhecimento de linguagens de
programação em ambientes estatísticos além do domínio sobre as metodologias
aplicadas a essa técnica. O objetivo principal desse estudo é a criação de uma
interface gráfica que facilite a utilização do MTC para usuários que não possuam
conhecimento em linguagens de programação, que seja de código aberto e
multiplataforma. A expectativa é que, com essa interface, a utilização de técnicas
mais abrangentes e avançadas seja facilitada, além disso, venha tornar o
ensinamento sobre o tema mais facilitado para pessoas que ainda não conhecem o
método / Based on the progress made by the pharmaceutical industry, several
medications have emerged to combat diseases. These drugs have similar topic
effects but with subtle changes in their biochemical structure, thus competition
between the pharmaceutical industry becomes increasingly fierce. In order to
compare the effectiveness of these drugs, appear different methodologies with the
objective of find what would be the best medicine for a given situation. One of the
methods studied is the Mixed Treatment Comparision (MTC) whose objective is to
find the effectiveness of certain drugs in studies and / or clinical trials that address,
even if indirectly, the drugs studied. The use of this methodology is too complex
because it requires knowledge of programming languages in statistical environments,
beyond the mastery of the methodologies applied to this technique. The main
objective of this study is to create a graphical user interface (GUI) that facilitates the
use of MTC for users who have no knowledge in programming languages, which is
open source and cross-platform. The expectation about this interface is that the use
of more comprehensive and advanced techniques is facilitated, moreover, make the
teaching about the topic easier for people who do not know the method
|
13 |
Desenvolvimento de interfaces gráficas para estatística Bayesiana aplicada à comparação mista de tratamentos / Graphical User Interface development for Bayesian Statistics applied to Mixed Treatment ComparisonMarcelo Goulart Correia 12 September 2013 (has links)
A partir dos avanços obtidos pela industria farmacêutica surgiram diversos
medicamentos para o combate de enfermidades. Esses medicamentos possuem
efeito tópico similar porém com suaves modificações em sua estrutura bioquímica,
com isso a concorrência entre as industrias farmacêuticas se torna cada vez mais
acirrada. Como forma de comparar a efetividade desses medicamentos, surgem
diversas metodologias, com o objetivo de encontrar qual seria o melhor
medicamento para uma dada situação. Uma das metodologias estudadas é a
comparação mista de tratamentos, cujo objetivo é encontrar a efetividade de
determinadas drogas em estudos e/ou ensaios clínicos que abordem, mesmo que de
maneira indireta, os medicamentos estudados. A utilização dessa metodologia é
demasiadamente complexa pois requer conhecimento de linguagens de
programação em ambientes estatísticos além do domínio sobre as metodologias
aplicadas a essa técnica. O objetivo principal desse estudo é a criação de uma
interface gráfica que facilite a utilização do MTC para usuários que não possuam
conhecimento em linguagens de programação, que seja de código aberto e
multiplataforma. A expectativa é que, com essa interface, a utilização de técnicas
mais abrangentes e avançadas seja facilitada, além disso, venha tornar o
ensinamento sobre o tema mais facilitado para pessoas que ainda não conhecem o
método / Based on the progress made by the pharmaceutical industry, several
medications have emerged to combat diseases. These drugs have similar topic
effects but with subtle changes in their biochemical structure, thus competition
between the pharmaceutical industry becomes increasingly fierce. In order to
compare the effectiveness of these drugs, appear different methodologies with the
objective of find what would be the best medicine for a given situation. One of the
methods studied is the Mixed Treatment Comparision (MTC) whose objective is to
find the effectiveness of certain drugs in studies and / or clinical trials that address,
even if indirectly, the drugs studied. The use of this methodology is too complex
because it requires knowledge of programming languages in statistical environments,
beyond the mastery of the methodologies applied to this technique. The main
objective of this study is to create a graphical user interface (GUI) that facilitates the
use of MTC for users who have no knowledge in programming languages, which is
open source and cross-platform. The expectation about this interface is that the use
of more comprehensive and advanced techniques is facilitated, moreover, make the
teaching about the topic easier for people who do not know the method
|
14 |
Identification and photometric redshifts for type-I quasars with medium- and narrow-band filter surveys / Identificação e redshifts fotométricos para quasares do tipo-I com sistemas de filtros de bandas médias e estreitasCarolina Queiroz de Abreu Silva 16 November 2015 (has links)
Quasars are valuable sources for several cosmological applications. In particular, they can be used to trace some of the heaviest halos and their high intrinsic luminosities allow them to be detected at high redshifts. This implies that quasars (or active galactic nuclei, in a more general sense) have a huge potential to map the large-scale structure. However, this potential has not yet been fully realized, because instruments which rely on broad-band imaging to pre-select spectroscopic targets usually miss most quasars and, consequently, are not able to properly separate broad-line emitting quasars from other point-like sources (such as stars and low resolution galaxies). This work is an initial attempt to investigate the realistic gains on the identification and separation of quasars and stars when medium- and narrow-band filters in the optical are employed. The main novelty of our approach is the use of Bayesian priors both for the angular distribution of stars of different types on the sky and for the distribution of quasars as a function of redshift. Since the evidence from these priors convolve the angular dependence of stars with the redshift dependence of quasars, this allows us to control for the near degeneracy between these objects. However, our results are inconclusive to quantify the efficiency of star-quasar separation by using this approach and, hence, some critical refinements and improvements are still necessary. / Quasares são objetos valiosos para diversas aplicações cosmológicas. Em particular, eles podem ser usados para localizar alguns dos halos mais massivos e suas luminosidades intrinsecamente elevadas permitem que eles sejam detectados a altos redshifts. Isso implica que quasares (ou núcleos ativos de galáxias, de um modo geral) possuem um grande potencial para mapear a estrutura em larga escala. Entretanto, esse potencial ainda não foi completamente atingido, porque instrumentos que se baseiam no imageamento por bandas largas para pré-selecionar alvos espectroscópicos perdem a maioria dos quasares e, consequentemente, não são capazes de separar adequadamente quasares com linhas de emissão largas de outras fontes pontuais (como estrelas e galáxias de baixa resolução). Esse trabalho é uma tentativa inicial de investigar os ganhos reais na identificação e separação de quasares e estrelas quando são usados filtros de bandas médias e estreitas. A principal novidade desse método é o uso de priors Bayesianos tanto para a distribuição angular de estrelas de diferentes tipos no céu quanto para a distribuição de quasares como função do redshift. Como a evidência desses priors é uma convolução entre a dependência angular das estrelas e a dependência em redshift dos quasares, isso permite que a degenerescência entre esses objetos seja levada em consideração. Entretanto, nossos resultados ainda são inconclusivos para quantificar a eficiência da separação entre estrelas e quasares utilizando esse método e, portanto, alguns refinamentos críticos são necessários.
|
15 |
Anotação probabilística de perfis de metabólitos obtidos por cromatografia líquida acoplada a espectrometria de massas / Probabilistic annotation of metabolite profiles obtained by liquid chromatography coupled to mass spectrometryRicardo Roberto da Silva 16 April 2014 (has links)
A metabolômica é uma ciência emergente na era pós-genômica que almeja a análise abrangente de pequenas moléculas orgânicas em sistemas biológicos. Técnicas de cromatografia líquida acoplada a espectrometria de massas (LC-MS) figuram como as abordagens de amostragem mais difundidas. A extração e detecção simultânea de metabólitos por LC-MS produz conjuntos de dados complexos que requerem uma série de etapas de pré-processamento para que a informação possa ser extraída com eficiência e precisão. Para que as abordagens de perfil metabólico não direcionado possam ser efetivamente relacionadas às alterações de interesse no metabolismo, é estritamente necessário que os metabólitos amostrados sejam anotados com confiabilidade e que a sua inter-relação seja interpretada sob a pressuposição de uma amostra conectada do metabolismo. Diante do desafio apresentado, a presente tese teve por objetivo desenvolver um arcabouço de software, que tem como componente central um método probabilístico de anotação de metabólitos que permite a incorporação de fontes independentes de informações espectrais e conhecimento prévio acerca do metabolismo. Após a classificação probabilística, um novo método para representar a distribuição de probabilidades a posteriori em forma de grafo foi proposto. Uma biblioteca de métodos para o ambiente R, denominada ProbMetab (Probilistic Metabolomics), foi criada e disponibilizada de forma aberta e gratuita. Utilizando o software ProbMetab para analisar um conjunto de dados benchmark com identidades dos compostos conhecidas de antemão, demonstramos que até 90% das identidades corretas dos metabólitos estão presentes entre as três maiores probabilidades. Portanto, pode-se enfatizar a eficiência da disponibilização da distribuição de probabilidades a posteriori em lugar da classificação simplista usualmente adotada na área de metabolômica, em que se usa apenas o candidato de maior probabilidade. Numa aplicação à dados reais, mudanças em uma via metabólica reconhecidamente relacionada a estresses abióticos em plantas (Biossíntese de Flavona e Flavonol) foram automaticamente detectadas em dados de cana-de-açúcar, demonstrando a importância de uma visualização centrada na distribuição a posteriori da rede de anotações dos metabólitos. / Metabolomics is an emerging science field in the post-genomic era, which aims at a comprehensive analysis of small organic molecules in biological systems. Techniques of liquid chromatography coupled to mass spectrometry (LC-MS) figure as the most widespread approaches to metabolomics studies. The metabolite detection by LC-MS produces complex data sets, that require a series of preprocessing steps to ensure that the information can be extracted efficiently and accurately. In order to be effectively related to alterations in the metabolism of interest, is absolutely necessary that the metabolites sampled by untargeted metabolic profiling approaches are annotated with reliability and that their relationship are interpreted under the assumption of a connected metabolism sample. Faced with the presented challenge, this thesis developed a software framework, which has as its central component a probabilistic method for metabolite annotation that allows the incorporation of independent sources of spectral information and prior knowledge about metabolism. After the probabilistic classification, a new method to represent the a posteriori probability distribution in the form of a graph has been proposed. A library of methods for R environment, called ProbMetab (Probilistic Metabolomics), was created and made available as an open source software. Using the ProbMetab software to analyze a set of benchmark data with compound identities known beforehand, we demonstrated that up to 90% of the correct metabolite identities were present among the top-three higher probabilities, emphasizing the efficiency of a posteriori probability distribution display, in place of a simplistic classification with only the most probable candidate, usually adopted in the field of metabolomics. In an application to real data, changes in a known metabolic pathway related to abiotic stresses in plants (Biosynthesis of Flavone and Flavonol) were automatically detected on sugar cane data, demonstrating the importance of a view centered on the posterior distribution of metabolite annotation network.
|
16 |
Análise Bayesiana de dois problemas em Astrofísica Relativística: neutrinos do colapso gravitacional e massas das estrelas de nêutrons / Bayesian analysis of two problems in Relativistic Astrophysics: neutrinos from gravitational collapse and mass distribution of neutron stars.Rodolfo Valentim da Costa Lima 19 April 2012 (has links)
O evento estraordinário de SN1987A vem sendo investigado há mais de vinte e cinco anos. O fascínio que cerca tal evento astronômico está relacionado com a observação em tempo real da explosão à luz da Física de neutrinos. Detectores espalhados pelo mundo observaram um surto neutrinos que dias mais tarde foi confirmado como sendo a SN1987A. Kamiokande, IMB e Baksan apresentaram os eventos detectados que permitiu o estudo de modelos para a explosão e resfriamento da hipotética estrela de nêutrons remanescente. Até hoje não há um consenso a origem do progenitor e a natureza do objeto compacto remanescente. O trabalho se divide em duas partes: estudo dos neutrinos de SN1987A através de Análise Estatística Bayesiana através de um modelo proposto com duas temperaturas que evidenciam dois surtos de neutrinos. A motivação está na hipótese do segundo surto como resultado da formação de matéria estranha no objeto compacto. A metodologia empregada foi a desenvolvida por um trabalho interessante de Loredo (2002) que permite modelar e testar hipóteses sobre os modelos via Bayesian Information Criterion (BIC). A segunda parte do trabalho, a mesma metodologia estatística é usada no estudo da distribuição de massas das estrelas de nêutrons usando a base de dados disponível (http://stellarcollapse.org). A base de dados foi analisada utilizando somente o valor do objeto e seu desvio padrão. Construindo uma função de verossimilhança e utilizando distribuições ``a priori\'\' com hipótese de bimodalidade da distribuição das massas contra uma distribuição unimodal sobre todas as massas dos objetos. O teste BIC indica forte tendência favorável à existência da bimodalidade com valores centrados em 1.37M para objetos de baixa massa e 1.73M para objetos de alta massa e a confirmação da fraca evidência de um terceiro pico esperado em 1.25M. / The extraordinary event of supernova has been investigated twenty five years ago. The fascination surrounds such astronomical event is on the real time observation the explosion at light to neutrino Physics. Detectors spread for the world had observed one burst neutrinos that days later it was confirmed as being of SN1987A. Kamiokande, IMB and Baksan had presented the detected events that allowed to the study of models for the explosion and cooling of hypothetical neutron star remain. Until today it does not have a consensus the origin of the progenitor and the nature of the remaining compact object. The work is divided in two parts: study of the neutrinos of SN1987A through Analysis Bayesiana Statistics through a model considered with two temperatures that two evidence bursts of neutrinos. The motivation is in the hypothesis of as burst as resulted of the formation of strange matter in the compact object. The employed methodology was developed for an interesting work of Loredo & Lamb (2002) that it allows shape and to test hypotheses on the models saw Bayesian Information Criterion (BIC). The second part of the work, the same methodology statistics is used in the study of the distribution of masses of the neutron stars using the available database http://stellarcollapse.org/. The database was analyzed only using the value of the object and its shunting line standard. Constructing to a a priori function likelihood and using distributions with hypothesis of bimodal distribution of the masses against a unimodal distribution on all the masses of objects. Test BIC indicates fort favorable trend the existence of the bimodality with values centered in 1.37M for objects of low mass and 1.73M for objects of high mass and week evidence of one third peak around 1.25M.
|
17 |
Estimation and Identification of a DSGE model: an Application of the Data Cloning Methodology / Estimação e identificação de um Modelo DSGE: uma applicação da metodologia data cloningChaim, Pedro Luiz Paulino 18 January 2016 (has links)
We apply the data cloning method developed by Lele et al. (2007) to estimate the model of Smets and Wouters (2007). The data cloning algorithm is a numerical method that employs replicas of the original sample to approximate the maximum likelihood estimator as the limit of Bayesian simulation-based estimators. We also analyze the identification properties of the model. We measure the individual identification strength of each parameter by observing the posterior volatility of data cloning estimates, and access the identification problem globally through the maximum eigenvalue of the posterior data cloning covariance matrix. Our results indicate that the model is only poorly identified. The system displays bad global identification properties, and most of its parameters seem locally ill-identified. / Neste trabalho aplicamos o método data cloning de Lele et al. (2007) para estimar o modelo de Smets e Wouters (2007). O algoritmo data cloning é um método numérico que utiliza réplicas da amostra original para aproximar o estimador de máxima verossimilhança como limite de estimadores Bayesianos obtidos por simulação. Nós também analisamos a identificação dos parâmetros do modelo. Medimos a identificação de cada parâmetro individualmente ao observar a volatilidade a posteriori dos estimadores de data cloning. O maior autovalor da matriz de covariância a posteriori proporciona uma medida global de identificação do modelo. Nossos resultados indicam que o modelo de Smets e Wouters (2007) não é bem identificado. O modelo não apresenta boas propriedades globais de identificação, e muitos de seus parâmetros são localmente mal identificados.
|
18 |
Um estudo de estresse através dos níveis de cortisol em crianças / A study of stress through cortisol levels in childrenMendes, Karine Zanuto 26 May 2017 (has links)
O nível de cortisol é considerado uma forma de medir o estresse de pessoas. Um estudo foi realizado a fim de verificar se crianças que trabalhavam nas ruas durante o dia tem estresse mais alto do que crianças que não trabalhavam. O nível de cortisol de uma pessoa pode ser considerado uma função crescente até atingir um máximo e depois decrescente (função quasicôncava). O cortisol das crianças foram coletados 4 vezes ao dia,sendo considerado dois grupos de crianças: aquelas que trabalham na rua e aquelas que ficavam em casa. Para a análise dos dados, foi considerada uma metanálise de um modelo de dados funcionais sob enfoque Bayesiano. Cada individuo é analisado por um modelo de dados funcionais e a metánalise foi usada para termos uma inferência para cada grupo. A geração de uma amostra da distribuição a posteriori foi obtida pelo o método de Gibbs com Metrópolis-Hasting. Na comparação das curvas calculamos a probabilidade a posteriori ponto-a-ponto da função do cortisol de um grupo ser maior do que a do outro. / The level of cortisol is considered as a measure of peoples stress. We perform an statistical analysis of the data from a study conducted to evaluate if children that work on the streets during the day have higher stress than children who does not work. The cortisol level of a person can be considered as an increasing function until reaching a maximum level and then decreasing to almost zero (quasi-concave function). Childrens cortisol were collected 4 times in one day, where two groups of children were considered: those who work in the street and those who stay at home. To analyse the data we considered a meta-analysis of a functional data model under Bayesian approach. Each individual is analysed by a functional data model, and then, a meta-analysis was used to have inference for each group. We used the Gibbs Metropolis-Hastings method to sample from the posteriori distribution. Also, we calculated the pointwise posterior probability of the cortisol function of one group being greater than the cortisol function of other group to compare the groups.
|
19 |
Diagramas de influência e teoria estatística / Influence Diagrams and Statistical TheoryStern, Rafael Bassi 09 January 2009 (has links)
O objetivo principal deste trabalho foi analisar o controverso conceito de informação em estatística. Para tal, primeiramente foi estudado o conceito de informação dado por Basu. A seguir, a análise foi dividida em três partes: informação nos dados, informação no experimento e diagramas de influência. Nas duas primeiras etapas, sempre se tentou definir propriedades que uma função de informação deveria satisfazer para se enquadrar ao conceito. Na primeira etapa, foi estudado como o princípio da verossimilhança é uma classe de equivalência decorrente de acreditar que experimentos triviais não trazem informação. Também foram apresentadas métricas que satisfazem o princípio da verossimilhança e estas foram usadas para avaliar um exemplo intuitivo. Na segunda etapa, passamos para o problema da informação de um experimento. Foi apresentada a relação da suficiência de Blackwell com experimentos triviais e o conceito usual de suficiência. Também foi analisada a equivalência de Blackwell e a sua relação com o Princípio da Verossimilhança anteriormente estudado. Além disso, as métricas apresentadas para medir a informação de conjuntos de dados foram adaptadas para também medir a informação de um experimento. Finalmente, observou-se que nas etapas anteriores uma série de simetrias mostraram-se como elementos essenciais do conceito de informação. Para ganhar intuição sobre elas, estas foram reescritas através da ferramenta gráfica dos diagramas de influência. Assim, definições como suficiência, suficiência de Blackwell, suficiência mínima e completude foram reapresentadas apenas usando essa ferramenta. / The main objective of this work is to analyze the controversial concept of information in Statistics. To do so, firstly the concept of information according to Basu is presented. Next, the analysis is divided in three parts: information in a data set, information in an experiment and influence diagrams. In the first two parts, we always tried to define properties an information function should satisfy in order to be in accordance to the concept of Basu. In the first part, it was studied how the likelihood principle is an equivalence class which follows from believing that trivial experiments do not bring information. Metrics which satisfy the likelihood principle were also presented and used to analyze an intuitive example. In the second part, the problem became that of determining information of a particular experiment. The relation between Blackwell\'s suciency, trivial experiments and classical suciency was presented. Blackwell\'s equivalence was also analyzed and its relationship with the Likelihood Principle was exposed. The metrics presented to evaluate the information in a data set were also adapted to do so with experiments. Finally, in the first parts a number of symmetries were shown as essencial elements of the concept of information. To gain more intuition about these elements, we tried to rewrite them using the graphic tool of influence diagrams. Therefore, definitions as sufficiency, Blackwell\'s sufficiency, minimal sufficiency and completeness were shown again, only using influence diagrams.
|
20 |
Análise estatística na interpretação de imagens: microarranjos de DNA e ressonância magnética funcional / Statistical analysis of image interpretation: DNA microarrays and functional magnetic resonanceVencio, Ricardo Zorzetto Nicoliello 01 September 2006 (has links)
O objetivo deste trabalho é apresentar os métodos originais em Bioinformática desenvolvidos para a análise estatística na interpretação dos dados de duas técnicas baseadas em imagens: a técnica de microarranjos de DNA e a técnica de ressonância magnética funcional. O interesse principal é abordar essas técnicas experimentais quando enfrenta-se uma situação clara de amostras escassas, isto é, quando existem relativamente poucas observações experimentais do fenômeno estudado, sendo a análise individual/personalizada o representante extremo desta situação, que tem que ser resolvida. Para tanto, opta-se pelo uso da Inferência Bayesiana no contexto da Teoria da Decisão sob Incerteza, implementada computacionalmente sob o arcabouço dos Sistemas de Suporte à Decisão. Ambas as tecnologias estudadas produzem dados complexos, baseados na interpretação das diferenças entre imagens obtidas da resposta do sistema a um estímulo e da resposta numa situação controle. O resultado deste trabalho é o desenvolvimento de dois sistemas de suporte à decisão, chamados HTself e Dotslashen, para a análise de dados de microarranjos e ressonância magnética funcional, respectivamente; e de seus métodos matemáticos/computacionais subjacentes. Os sistemas desenvolvidos extraem conhecimento racional de bancos-de-dados normativos, através de modelos matemáticos específicos, contornando então o problema de amostras escassas. Finalmente, neste trabalho são descritas aplicações a problemas reais, para destacar a utilidade dos sistemas de suporte à decisão desenvolvidos nas áreas de Biologia Molecular e Neuroimagem Funcional. / The goal of this work is to present the novel Bioinformatics methods that were developed aiming the statistical analysis of two image-based techniques: DNA microarrays and functional magnetic resonance imaging. The main interest is to approach these experimental techniques in small sample size situations, i.e., when there are relatively few experimental observations of the phenomena of interest, for which the case of single subject/datum analysis is its most extreme. In order to approach these problems we chose to use Bayesian Inference in the context of the Decision Theory under Uncertainty, computationally implemented under the Decision Support Systems framework. Both technologies produce complex data, based on the interpretation of differences between images from the response to a given stimulus and the control situation. The result of this work is the development of two decision support systems, called HTself and Dotslashen, to analyze microarray and functional magnetic resonance imaging data, respectively; and the underling mathematical and computational methods. These systems use the rational knowledge from normative databases implemented in specific mathematical models, overcoming the problem of small sample size. Finally, in this work it is described applications to real problems in order to stress the utility for Molecular Biology and Functional Neuroimaging of the developed decision support systems.
|
Page generated in 1.0106 seconds