Spelling suggestions: "subject:"verossimilhança."" "subject:"verossimilhanças.""
161 |
Estimativa do valor da taxa de penetrância em doenças autossômicas dominantes: estudo teórico de modelos e desenvolvimento de um programa computacional / Penetrance rate estimation for autosomal dominant diseases: study of models and development of a computer programHorimoto, Andréa Roselí Vançan Russo 17 September 2009 (has links)
O objetivo principal do trabalho foi o desenvolvimento de um programa computacional, em linguagem Microsoft Visual Basic 6.0 (versão executável), para estimativa da taxa de penetrância a partir da análise de genealogias com casos de doenças com herança autossômica dominante. Embora muitos dos algoritmos empregados no programa tenham se baseado em idéias já publicadas na literatura (em sua maioria por pesquisadores e pós-graduandos do Laboratório de Genética Humana do Instituto de Biociências da Universidade de São Paulo), desenvolvemos alguns métodos inéditos para lidar com situações encontradas com certa frequência nos heredogramas publicados na literatura, como: a) ausência de informações sobre o fenótipo do indivíduo gerador da genealogia; b) agrupamento de árvores de indivíduos normais sem a descrição da distribuição de filhos entre os progenitores; c) análise de estruturas da genealogia contendo uniões consanguíneas, utilizando um método alternativo ao descrito na literatura; d) determinação de soluções gerais para as funções de verossimilhança de árvores de indivíduos normais com ramificação regular e para as probabilidades de heterozigose de qualquer indivíduo pertencente a essas árvores. Além da versão executável, o programa, denominado PenCalc, é apresentado também numa versão para Internet (PenCalc Web), a qual fornece adicionalmente as probabilidades de heterozigose e o cálculo de afecção na prole de todos os indivíduos da genealogia. Essa versão pode ser acessada livre e gratuitamente no endereço http://www.ib.usp.br/~otto/pencalcweb. Desenvolvemos também um modelo com taxa de penetrância variável dependente da geração, uma vez que a inspeção de famílias com doenças autossômicas dominantes, como é o caso da síndrome da ectrodactilia associada à hemimelia tibial (EHT), sugere a existência de um fenômeno similar à antecipação, em relação à taxa de penetrância. Os modelos com taxa de penetrância constante e variável, e os métodos desenvolvidos neste trabalho foram aplicados a 21 heredogramas de famílias com afetados pela EHT e ao conjunto das informações de todas essas genealogias (meta-análise), obtendo-se em todos os casos estimativas da taxa de penetrância. / The main objective of this dissertation was the development of a computer program, in Microsoft® Visual Basic® 6.0, for estimating the penetrance rate of autosomal dominant diseases by means of the information contained on genealogies. Some of the algorithms we used in the program were based on ideas already published in the literature by researchers and (post-) graduate students of the Laboratory of Human Genetics, Department of Genetics and Evolutionary Biology, Institute of Biosciences, University of São Paulo. We developed several other methods to deal with particular structures found frequently in the genealogies published in the literature, such as: a) the absence of information on the phenotype of the individual generating of the genealogy; b) the grouping of trees of normal individuals without the separate description of the offspring number per individual; c) the analysis of structures containing consanguineous unions; d) the determination of general solutions in simple analytic form for the likelihood functions of trees of normal individuals with regular branching and for the heterozygosis probabilities of any individual belonging to these trees. In addition to the executable version of the program summarized above, we also prepared, in collaboration with the dissertation supervisor and the undergraduate student Marcio T. Onodera (main author of this particular version), another program, represented by a web version (PenCalc Web). It enables the calculation of heterozygosis probabilities and the offspring risk for all individuals of the genealogy, two details we did not include in the present version of our program. The program PenCalc Web can be accessed freely at the home-page address http://www.ib.usp.br/~otto/pencalcweb. Another important contribution of this dissertation was the development of a model of estimation with generationdependent penetrance rate, as suggested by the inspection of families with some autosomal dominant diseases, such as the ectrodactyly-tibial hemimelia syndrome (ETH), a condition which exhibits a phenomenon similar to anticipation in relation to the penetrance rate. The models with constant and variable penetrance rates, as well as practically all the methods developed in this dissertation, were applied to 21 individual genealogies from the literature with cases of ETH and to the set of all these genealogies (meta-analysis). The corresponding results of all these analysis are comprehensively presented.
|
162 |
Contributions to the analysis of dispersed count data / Contribuições à análise de dados de contagemRibeiro Junior, Eduardo Elias 18 February 2019 (has links)
In many agricultural and biological contexts, the response variable is a nonnegative integer value which we wish to explain or analyze in terms of a set of covariates. Unlike the Gaussian linear model, the response variable is discrete with a distribution that places probability mass at natural numbers only. The Poisson regression is the standard model for count data. However, assumptions of this model forces the equality between mean and variance, which may be implausible in many applications. Motivated by experimental data sets, this work intended to develop more realistic methods for the analysis of count data. We proposed a novel parametrization of the COM-Poisson distribution and explored the regression models based on it. We extended the model to allow the dispersion, as well as the mean, depending on covariates. A set of count statistical models, namely COM-Poisson, Gamma-count, discrete Weibull, generalized Poisson, double Poisson and Poisson-Tweedie, was reviewed and compared, considering the dispersion, zero-inflation, and heavy tail indexes, together with the results of data analyzes. The computational routines developed in this dissertation were organized in two R packages available on GitHub. / Em diversos estudos agrícolas e biológicos, a variável resposta é um número inteiro não negativo que desejamos explicar ou analisar em termos de um conjunto de covariáveis. Diferentemente do modelo linear Gaussiano, a variável resposta é discreta com distribuição de probabilidade definida apenas em valores do conjunto dos naturais. O modelo Poisson é o modelo padrão para dados em forma de contagens. No entanto, as suposições desse modelo forçam que a média seja igual a variância, o que pode ser implausível em muitas aplicações. Motivado por conjuntos de dados experimentais, este trabalho teve como objetivo desenvolver métodos mais realistas para a análise de contagens. Foi proposta uma nova reparametrização da distribuição COM-Poisson e explorados modelos de regressão baseados nessa distribuição. Uma extensão desse modelo para permitir que a dispersão, assim como a média, dependa de covariáveis, foi proposta. Um conjunto de modelos para contagens, nomeadamente COM-Poisson, Gamma-count, Weibull discreto, Poisson generalizado, duplo Poisson e Poisson-Tweedie, foi revisado e comparado, considerando os índices de dispersão, inflação de zero e cauda pesada, juntamente com os resultados de análises de dados. As rotinas computacionais desenvolvidas nesta dissertação foram organizadas em dois pacotes R disponíveis no GitHub.
|
163 |
Algumas novas distribuições: desenvolvimento e aplicações / The new distributions: development and applicationsBrito, Edleide de 30 July 2014 (has links)
Nos últimos anos, diversos autores têm concentrado seus esforços na generalização de distribuições de probabilidades obtendo, dessa forma, maior flexibilidade e, consequentemente, ganho na análise de dados e na capacidade de incorporar um grande número de sub-modelos nas distribuições generalizadas. Neste trabalho, serão apresentadas duas novas distribuições de probabilidade: McGumbel e gama Burr XII; e uma nova família de distribuições de probabilidade: Marshall-Olkin binomial negativa. Algumas propriedades das novas distribuições são apresentadas e o método de máxima verossimilhança foi utilizado para estimar os parâmetros dos modelos propostos. / In recent years, several authors have concentrated their efforts on the generalization of probability distributions obtained in this way more flexibility and hence gain in data analysis and the ability to incorporate a large number of sub-models in the generalized distributions. In this work, two new probability distributions will be presented: MacDonald Gumbel and gamma Burr XII; and a new family of probability distributions: negative binomial Marshall-Olkin. Some properties of the new distributions are presented and the method of maximum likelihood was used to estimate the parameters of the proposed models.
|
164 |
O Processo penal e a busca pela verdadeFerreira, Rosana Miranda 29 March 2006 (has links)
Made available in DSpace on 2016-04-26T20:23:55Z (GMT). No. of bitstreams: 1
Dissertacao Rosana Miranda Ferreira.pdf: 675636 bytes, checksum: 5495752d2e8bd4722a38bc7a635c12b7 (MD5)
Previous issue date: 2006-03-29 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / In this paper we present the performance of the criminal proceeding as an instrument of search for the truth. To base our knowledge on the truth we search the philosophical approach, starting in Greece with Socrates, and finishing on native grounds with Miguel Reale, and in synthesis we describe as each one formulates the knowledge of the truth.
For this, we present the truth in the process. We detach real truth as unattainable and impossible to reach, as well as to the president of criminal prosecution, rank that the gauging situation and circumstances, such and which had occurred, never will be obtained to reproduce.
We appraise the truths: formal, material, procedural, by approximation and the probability pointing out the most modern trend of the search for certainty close to the judicial truth, this last one happened not of evidence but of a judgment being demarcated by justice primarily.
We stress, however, the conquest of the truth, improbable for the criminal proceeding; the persistence in the search of the true reconstitution of the facts is a value that legitimizes the proper criminal persecution.
From the presented historical synthesis we search to survey the way of the verification of the truth, ever since the most violent ways of the Inquisition until our days, where a civilian has to wait years for the federal reply. To illustrate the idea we present Franz Kafka, portraying in his workmanship somebody "Before the Law .
When disserting the basic right of the access to justice we point out the supremacy of the principle of dignity of the human being, who also must be reflected in the process before the duty of the State "administer justice".
We describe some notions of proof, the allegations, the responsibilities, and some of the obstacles inside of the proceeding that interpose as barriers for the search of the truth. We discuss the question of the determined judge to be able or have to evaluate all raised found evidences and even other ones he believes important to include.
The decision, finally, emanated from free conviction through arguments and transparency in the briefings, represents the longed for and pursued truth, that exercises, likewise, a social function in the sense of accomplishing the right, applying ethics, to reconcile the society, and to look for the common good / Nessa dissertação apresentamos a atuação do processo penal como um instrumento de busca pela verdade. Para alicerçar nosso conhecimento sobre a verdade, buscamos o enfoque filosófico, começando pela Grécia, em Sócrates e finalizando em solo pátrio com Miguel Reale, e em síntese descrevemos como cada um formula o conhecimento da verdade.
A partir disso, apresentamos a verdade no processo. Destacamos a verdade real como inatingível e de impossível alcance, outrossim, ao presidente da persecução penal, posto que a aferição de uma situação fática e suas circunstâncias, tal e qual ocorreram, jamais se conseguirão reproduzir.
Conceituamos as verdades: formal, material, processual, a aproximativa e a verossimilhança apontando a tendência mais moderna da busca da certeza próxima da verdade judicial, essa última advinda não da prova mas de um juízo, sendo demarcada pela justiça como fundamento.
Ressaltamos que apesar da conquista da verdade ser improvável, o empenho na busca da verdadeira reconstituição dos fatos é um valor que legitima a própria persecução penal.
Da síntese histórica apresentada buscamos aferir a maneira de apuração da verdade, desde os modos mais violentos da Inquisição até os nossos dias, onde o cidadão, chega a esperar por anos, pela resposta estatal. Para ilustrar a idéia apresentamos Franz Kafka, retratando em sua obra alguém Diante da Lei .
Ao discorrer do direito fundamental do acesso à justiça, apontamos a supremacia do princípio da dignidade da pessoa humana, que também deve estar refletido no processo, ante o dever do Estado de dizer o direito .
Descrevemos algumas noções de prova, as alegações, os ônus e alguns dos óbices dentro do próprio processo que se interpõem como entraves à busca da verdade. Aventamos do papel do julgador investido do poder- dever de valorar todas as provas levantadas, e até de outras, que no seu entender, ache necessário que se produza.
A decisão, por fim, emanada do livre convencimento com aportes argumentativos e transparência nas elucidações, representa a verdade almejada e perseguida, que presta, outrossim, uma função social, no sentido de efetivar o direito, exercitar a ética, apaziguar a sociedade e buscar o bem comum
|
165 |
Distribuição de probabilidade e dimensionamento amostral para tamanho de partícula em gramíneas forrageiras / Probability distribution and sample dimension for particle size in forage grassesNavarette López, Claudia Fernanda 16 January 2009 (has links)
O objetivo deste trabalho foi identificar a distribuição de probabilidade da variável tamanho de partícula em gramíneas forrageiras e fazer um dimensionamento amostral. Para isto foi realizada uma analise exploratória dos dados obtidos de um experimento planejado em blocos casualizados, a cada sub-amostra do conjunto de dados foram ajustadas as distribuições normal, gama, beta e Weibull. Foram realizados os testes de aderência não paramétricos de Kolmogorov-Smirnov, Lilliefos, Cramer-von Mises e Anderson-Darling para avaliar o ajuste as distribuições. A estimativa do valor do logaritmo da função de máxima verossimilhança e indicativo da distribuição que melhor descreveu o conjunto de dados, assim como os critérios de informação de Akaike (AIC) e de informação bayesiano (BIC). Foram feitas simulações a partir dos parâmetros obtidos e feitos os testes não paramétricos para avaliar o ajuste com diferentes tamanhos de amostras. Encontrou-se que os dados n~ao seguem a distribuição normal, pois há assimetria nos histogramas melhor descritos pelas distribuições beta e Weibull. Os testes mostraram que as distribuições gama, beta e Weibull ajustam-se melhor aos dados porem pelo maior valor do logaritmo da função de verossimilhança, assim como pelos valores AIC e BIC, o melhor ajuste foi dado pela distribuição Weibull. As simulações mostraram que com os tamanhos n de 2 e 4 com 10 repetições cada, as distribuições gama e Weibull apresentaram bom ajuste aos dados, a proporção que o n cresce a distribuição dos dados tende a normalidade. O dimensionamento dado pela Amostra Aleatória Simples (ASA), mostrou que o tamanho 6 de amostra e suficiente, para descrever a distribuição de probabilidade do tamanho de partícula em gramíneas forrageiras / The purpose of this study was to identify the probability distribution of variable particle size in forages grasses and to do a sample dimension. For this was carried out an exploratory analysis of the data obtained from the experiment planned in randomized blocks. Each sample of the overall data was adjusted to Normal, Gama, Beta and Weibull distributions. Tests of adhesion not parametric of Kolmogorov-Smirnov, Lilliefos, Cramer-von Mises and Anderson-Darling were conducted to indicate the adjustment at the distributions. The estimate of the value of the logarithm of function of maximum likelihood is indicative of distribution that better describes the data set, as well as information criteria of Akaike (AIC) and Bayesian information (BIC). Simulations from parameters obtained were made and tests not parametric to assess the t with dierent sizes of samples were made too. It was found that data are not normal, because have asymmetry in the histograms, better described by Beta and Weibull distributions. Tests showed that Gamma, Beta and Weibull distributions, have a ts better for the data; for the highest value in the logarithm of the likelihood function as well as smaller AIC and BIC, best t was forWeibull distribution. Simulations showed that with 2 and 4 sizes (n), with 10 repeat each one, the Gama and Weibull distributions showed good t to data, as the proportion in which n grows, distribution of data tends to normality. Dimensioning by simple random sample (ASA), showed that 6 is a sucient sample size to describe probability distribution for particle size in forage grasses.
|
166 |
Modelos de regressão beta com efeitos aleatórios normais e não normais para dados longitudinais / Beta regression models with normal and not normal random effects for longitudinal dataUsuga Manco, Olga Cecilia 01 March 2013 (has links)
A classe de modelos de regressão beta tem sido estudada amplamente. Porém, para esta classe de modelos existem poucos trabalhos sobre a inclusão de efeitos aleatórios e a flexibilização da distribuição dos efeitos aleatórios, além de métodos de predição e de diagnóstico no ponto de vista dos efeitos aleatórios. Neste trabalho são propostos modelos de regressão beta com efeitos aleatórios normais e não normais para dados longitudinais. Os métodos de estimação de parâmetros e de predição dos efeitos aleatórios usados no trabalho são o método de máxima verossimilhança e o método do melhor preditor de Bayes empírico. Para aproximar a função de verossimilhança foi utilizada a quadratura de Gauss-Hermite. Métodos de seleção de modelos e análise de resíduos também foram propostos. Foi implementado o pacote BLMM no R para a realização de todos os procedimentos. O processo de estimação os parâmetros dos modelos e a distribuição empírica dos resíduos propostos foram analisados por meio de estudos de simulação. Foram consideradas várias distribuições para os efeitos aleatórios, valores para o número de indivíduos, número de observações por indivíduo e estruturas de variância-covariância para os efeitos aleatórios. Os resultados dos estudos de simulação mostraram que o processo de estimação obtém melhores resultados quando o número de indivíduos e o número de observações por indivíduo aumenta. Estes estudos também mostraram que o resíduo quantil aleatorizado segue uma distribuição aproximadamente normal. A metodologia apresentada é uma ferramenta completa para analisar dados longitudinais contínuos que estão restritos ao intervalo limitado (0; 1). / The class of beta regression models has been studied extensively. However, there are few studies on the inclusion of random effects and models with flexible random effects distributions besides prediction and diagnostic methods. In this work we proposed a beta regression models with normal and not normal random effects for longitudinal data. The maximum likelihood method and the empirical Bayes approach are used to obtain the estimates and the best prediction. Also, the Gauss-Hermite quadrature is used to approximate the likelihood function. Model selection methods and residual analysis were also proposed.We implemented a BLMM package in R to perform all procedures. The estimation procedure and the empirical distribution of residuals were analyzed through simulation studies considering differents random effects distributions, values for the number of individuals, number of observations per individual and covariance structures for the random effects. The results of simulation studies showed that the estimation procedure obtain better results when the number of individuals and the number of observations per individual increase. These studies also showed that the empirical distribution of the quantile randomized residual follows a normal distribution. The methodolgy presented is a tool for analyzing longitudinal data restricted to a interval (0; 1).
|
167 |
Análise do número de reprodutibilidade basal na fase inicial de doenças causadas por vetores / Analysis of the basic reproduction number from the initial growth phase of the outbreak in diseases caused by vectorsSanches, Rosângela Peregrina 27 November 2015 (has links)
O número de reprodutibilidade basal, R_0, é definido como o número esperado de casos secundários de uma doença produzidos por um indivíduo infectado em uma população suscetível durante seu período de infecciosidade. Tem-se que, para R_0 < 1 a doença não consegue se manter na população, e para R_0 >1 a doença irá se estabelecer. O cálculo do valor de R_0 pode ser feito de diversas maneiras, como por exemplo: a partir da análise de estabilidade de um modelo compartimental, através da matriz de próxima geração, da fase final de uma epidemia, entre outros. Neste trabalho foi estudado o cálculo de R_0 a partir da fase inicial de crescimento de um surto, em que ao fazer este cálculo não é suposto crescimento exponencial da doença, o que é proposto implicitamente na maior parte dos estudos. Foram estudadas as técnicas propostas por Nishiura, Ross-Macdonald e White e Pagano. O objetivo deste estudo foi comparar essas técnicas e avaliar como cada técnica estima o valor do número de reprodutibilidade basal, aplicando-as a doenças causadas por vetores, neste caso em particular foram utilizados dados de dengue. Foram utilizados dados da cidade de Ribeirão Preto nos períodos de 2009-2010 e 2010-2011, em ambos os casos a cidade apresentou um surto epidêmico. Os resultados apresentados pelos três métodos são numericamente diferentes. Pode-se concluir que todos os métodos acertam na previsão de que a dengue irá se propagar na cidade estudada, o que é verdade para os casos estudados, e que apesar de serem numericamente diferentes a análise semanal dos dados mostra que os valores calculados apresentam um mesmo padrão ao longo do tempo / The basic reproduction number,R_0, is defined as the expected number of secondary cases of a disease produced by a single infection in a susceptible population. If R_0 < 1 the disease cannot establish in the population, and if R_0 > 1 we expect the disease spread in the population. The value of R_0 can be estimated in several ways, for example, with the stability analysis of a compartmental model, through the matrix of next generation, using the final phase of an epidemic, etc. In this work we studied methods for estimating R_0 from the initial growth phase of the outbreak, without assuming exponential growth of cases, which is suggested in most studies. We used the methods proposed by Nishiura, Ross-Macdonald and White and Pagano. The objective of this work was to compare these techniques and to evaluate how these technique estimate the value of the basic reproduction number, applying them to diseases caused by vectors. In this particular case we used data of dengue. We used data from the city of Ribeirão Preto in the periods of 2009-2010 and 2010-2011, in both cases the city had an outbreak. The results obtained by the three methods are numerically different. We can conclude that all methods are correct in the sense that dengue will spread in the city studied, what is true for the cases studied, although they are numerically different. Weekly analysis of the data show that the estimated values have a same pattern over time
|
168 |
Combinação de modelos de campos aleatórios markovianos para classificação contextual de imagens multiespectrais / Combining markov random field models for multispectral image contextual classificationLevada, Alexandre Luis Magalhães 05 May 2010 (has links)
Este projeto de doutorado apresenta uma nova abordagem MAP-MRF para a classificação contextual de imagens multiespectrais utilizando combinação de modelos de Campos Aleatórios Markovianos definidos em sistemas de ordens superiores. A modelagem estatística para o problema de classificação segue o paradigma Bayesiano, com a definição de um modelo Markoviano para os dados observados (Gaussian Markov Random Field multiespectral) e outro modelo para representar o conhecimento a priori (Potts). Nesse cenário, o parâmetro β do modelo de Potts atua como um parâmetro de regularização, tendo papel fundamental no compromisso entre as observações e o conhecimento a priori, de modo que seu correto ajuste é necessário para a obtenção de bons resultados. A introdução de sistemas de vizinhança de ordens superiores requer a definição de novos métodos para a estimação dos parâmetros dos modelos Markovianos. Uma das contribuições desse trabalho é justamente propor novas equações de pseudo-verossimilhança para a estimação desses parâmetros no modelo de Potts em sistemas de segunda e terceira ordens. Apesar da abordagem por máxima pseudo-verossimilhança ser amplamente utilizada e conhecida na literatura de campos aleatórios, pouco se conhece acerca da acurácia dessa estimação. Foram derivadas aproximações para a variância assintótica dos estimadores propostos, caracterizando-os completamente no caso limite, com o intuito de realizar inferências e análises quantitativas sobre os parâmetros dos modelos Markovianos. A partir da definição dos modelos e do conhecimento dos parâmetros, o próximo estágio é a classificação das imagens multiespectrais. A solução para esse problema de inferência Bayesiana é dada pelo critério de estimação MAP, onde a solução ótima é determinada maximizando a probabilidade a posteriori, o que define um problema de otimização. Como não há solução analítica para esse problema no caso de prioris Markovianas, algoritmos iterativos de otimização combinatória foram empregados para aproximar a solução ótima. Nesse trabalho, adotam-se três métodos sub-ótimos: Iterated Conditional Modes, Maximizer of the Posterior Marginals e Game Strategy Approach. Porém, é demonstrado na literatura que tais métodos convergem para máximos locais e não globais, pois são altamente dependentes de sua condição inicial. Isto motivou o desenvolvimento de uma nova abordagem para combinação de classificadores contextuais, que utiliza múltiplas inicializações simultâneas providas por diferentes classificadores estatísticos pontuais. A metodologia proposta define um framework MAP-MRF bastante robusto para solução de problemas inversos, pois permite a utilização e a integração de diferentes condições iniciais em aplicações como classificação, filtragem e restauração de imagens. Como medidas quantitativas de desempenho, são adotados o coeficiente Kappa de Cohen e o coeficiente Tau de Kendall para verificar a concordância entre as saídas dos classificadores e a verdade terrestre (amostras pré-rotuladas). Resultados obtidos mostram que a inclusão de sistemas de vizinhança de ordens superiores é de fato capaz de melhorar significativamente não apenas o desempenho da classificação como também a estimação dos parâmetros dos modelos Markovianos, reduzindo tanto o erro de estimação quanto a variância assintótica. Além disso, a combinação de classificadores contextuais através da utilização de múltiplas inicializações simultâneas melhora significativamente o desempenho da classificação se comparada com a abordagem tradicional com apenas uma inicialização. / This work presents a novel MAP-MRF approach for multispectral image contextual classification by combining higher-order Markov Random Field models. The statistical modeling follows the Bayesian paradigm, with the definition of a multispectral Gaussian Markov Random Field model for the observations and a Potts MRF model to represent the a priori knowledge. In this scenario, the Potts MRF model parameter (β) plays the role of a regularization parameter by controlling the tradeoff between the likelihood and the prior knowledge, in a way that a suitable tunning for this parameter is required for a good performance in contextual classification. The introduction of higher-order MRF models requires the specification of novel parameter estimation methods. One of the contributions of this work is the definition of novel pseudo-likelihood equations for the estimation of these MRF parameters in second and third order neighborhood systems. Despite its widely usage in practical MRF applications, little is known about the accuracy of maximum pseudo-likelihood approach. Approximations for the asymptotic variance of the proposed MPL estimators were derived, completely characterizing their behavior in the limiting case, allowing statistical inference and quantitative analysis. From the statistical modeling and having the model parameters estimated, the next step is the multispectral image classification. The solution for this Bayesian inference problem is given by the MAP criterion, where the optimal solution is obtained by maximizing the a posteriori distribution, defining an optimization problem. As there is no analytical solution for this problem in case of Markovian priors, combinatorial optimization algorithms are required to approximate the optimal solution. In this work, we use three suboptimal methods: Iterated Conditional Modes, Maximizer of the Posterior Marginals and Game Strategy Approach, a variant approach based on non-cooperative game theory. However, it has been shown that these methods converge to local maxima solutions, since they are extremelly dependent on the initial condition. This fact motivated the development of a novel approach for combination of contextual classifiers, by making use of multiple initializations at the same time, where each one of these initial conditions is provided by different pointwise pattern classifiers. The proposed methodology defines a robust MAP-MRF framework for the solution of general inverse problems since it allows the use and integration of several initial conditions in a variety of applications as image classification, denoising and restoration. To evaluate the performance of the classification results, two statistical measures are used to verify the agreement between the classifiers output and the ground truth: Cohens Kappa and Kendalls Tau coefficient. The obtained results show that the use of higher-order neighborhood systems is capable of significantly improve not only the classification performance, but also the MRF parameter estimation by reducing both the estimation error and the asymptotic variance. Additionally, the combination of contextual classifiers through the use of multiple initializations also improves the classificatoin performance, when compared to the traditional single initialization approach.
|
169 |
Modelos não lineares para dados de contagem longitudinais / Non linear models for count longitudinal dataAraujo, Ana Maria Souza de 16 February 2007 (has links)
Experimentos em que medidas são realizadas repetidamente na mesma unidade experimental são comuns na área agronômica. As técnicas estatísticas utilizadas para análise de dados desses experimentos são chamadas de análises de medidas repetidas, tendo como caso particular o estudo de dados longitudinais, em que uma mesma variável resposta é observada em várias ocasiões no tempo. Além disso, o comportamento longitudinal pode seguir um padrão não linear, o que ocorre com freqüência em estudos de crescimento. Também são comuns experimentos em que a variável resposta refere-se a contagem. Este trabalho abordou a modelagem de dados de contagem, obtidos a partir de experimentos com medidas repetidas ao longo do tempo, em que o comportamento longitudinal da variável resposta é não linear. A distribuição Poisson multivariada, com covariâncias iguais entre as medidas, foi utilizada de forma a considerar a dependência entre os componentes do vetor de observações de medidas repetidas em cada unidade experimental. O modelo proposto por Karlis e Meligkotsidou (2005) foi estendido para dados longitudinais provenientes de experimentos inteiramente casualizados. Modelos para experimentos em blocos casualizados, supondo-se efeitos fixos ou aleatórios para blocos, foram também propostos. A ocorrência de superdispersão foi considerada e modelada através da distribuição Poisson multivariada mista. A estimação dos parâmetros foi realizada através do método de máxima verossimilhança, via algoritmo EM. A metodologia proposta foi aplicada a dados simulados para cada uma das situações estudadas e a um conjunto de dados de um experimento em blocos casualizados em que foram observados o número de folhas de bromélias em seis instantes no tempo. O método mostrou-se eficiente na estimação dos parâmetros para o modelo considerando o delineamento completamente casualizado, inclusive na ocorrência de superdispersão, e delineamento em blocos casualizados com efeito fixo, sem superdispersão e efeito aleatório para blocos. No entanto, a estimação para o modelo que considera efeito fixo para blocos, na presença de superdispersão e para o parâmetro de variância do efeito aleatório para blocos precisa ser aprimorada. / Experiments in which measurements are taken in the same experimental unit are common in agriculture area. The statistical techniques used to analyse data from those experiments are called repeated measurement analysis, and longitudinal study, in which the response variable is observed along the time, is a particular case. The longitudinal behaviour can be non linear, occuring freq¨uently in growth studies. It is also common to have experiments in which the response variable refers to count data. This work approaches the modelling of count data, obtained from experiments with repeated measurements through time, in which the response variable longitudinal behaviour is non linear. The multivariate Poisson distribution, with equal covariances between measurements, was used to consider the dependence between the components of the repeated measurement observation vector in each experimental unit. The Karlis and Meligkotsidou (2005) proposal was extended to longitudinal data obtained from completely randomized. Models for randomized blocks experiments, assuming fixed or random effects for blocks, were also proposed. The occurence of overdispersion was considered and modelled through mixed multivariate Poisson distribution. The parameter estimation was done using maximum likelihood method, via EM algorithm. The methodology was applied to simulated data for all the cases studied and to a data set from a randomized block experiment in which the number of Bromeliads leaves were observed through six instants in time. The method was efficient to estimate the parameters for the completely randomized experiment, including the occurence of overdispersion, and for the randomized blocks experiments assuming fixed effect, with no overdispersion, and random effect for blocks. The estimation for the model that considers fixed effect for block, with overdispersion and for the variance parameters of the random effect for blocks must be improved.
|
170 |
"Métodos de estimação na teoria de resposta ao item" / Estimation methods in item response theoryAzevedo, Caio Lucidius Naberezny 27 February 2003 (has links)
Neste trabalho apresentamos os mais importantes processos de estimação em algumas classes de modelos de resposta ao item (Dicotômicos e Policotômicos). Discutimos algumas propriedades desses métodos. Com o objetivo de comparar o desempenho dos métodos conduzimos simulações apropriadas. / In this work we show the most important estimation methods for some item response models (both dichotomous and polichotomous). We discuss some proprieties of these methods. To compare the characteristic of these methods we conducted appropriate simulations.
|
Page generated in 0.0839 seconds