Spelling suggestions: "subject:"verossimilhança."" "subject:"verossimilhanças.""
71 |
Aplicação de filtros de Gabor no processo de classificação de imagens digitais com base em atributos de texturaAngelo, Neide Pizzolato January 2000 (has links)
No processo de classificação de uma imagem digital, o atributo textura pode ser uma fonte importante de informações. Embora o processo de caracterização da textura em uma imagem seja mais difícil, se comparado ao processo de caracterização de atributos espectrais, sabe-se que o emprego daquele atributo pode aumentar significativamente a exatidão na classificação da imagem. O objetivo deste trabalho de pesquisa consiste em desenvolver e testar um método de classificação supervisionado em imagens digitais com base em atributos de textura. O método proposto implementa um processo de filtragem baseado nos filtros de Gabor. Inicialmente, é gerado um conjunto de filtros de Gabor adequados às freqüências espaciais associadas às diferentes classes presentes na imagem a ser classificada. Em cada caso, os parâmetros utilizados por cada filtro são estimados a partir das amostras disponíveis, empregando-se a transformada de Fourier. Cada filtro gera, então, uma imagem filtrada que quantifica a freqüência espacial definida no filtro. Este processo resulta em um certo número de imagens filtradas as quais são denominadas de "bandas texturais". Desta forma, o problema que era originalmente unidimensional passa a ser multi-dimensional, em que cada pixel passa a ser definido por um vetor cuja dimensionalidade é idêntica ao número de filtros utilizados. A imagem em várias "bandas texturais" pode ser classificada utilizando-se um método de classificação supervisionada. No presente trabalho foi utilizada a Máxima Verossimilhança Gaussiana. A metodologia proposta é então testada, utilizandose imagens sintéticas e real. Os resultados obtidos são apresentados e analisados.
|
72 |
Eliminação de parâmetros perturbadores em um modelo de captura-recapturaSalasar, Luis Ernesto Bueno 18 November 2011 (has links)
Made available in DSpace on 2016-06-02T20:04:51Z (GMT). No. of bitstreams: 1
4032.pdf: 1016886 bytes, checksum: 6e1eb83f197a88332f8951b054c1f01a (MD5)
Previous issue date: 2011-11-18 / Financiadora de Estudos e Projetos / The capture-recapture process, largely used in the estimation of the number of elements of animal population, is also applied to other branches of knowledge like Epidemiology, Linguistics, Software reliability, Ecology, among others. One of the _rst applications of this method was done by Laplace in 1783, with aim at estimate the number of inhabitants of France. Later, Carl G. J. Petersen in 1889 and Lincoln in 1930 applied the same estimator in the context of animal populations. This estimator has being known in literature as _Lincoln-Petersen_ estimator. In the mid-twentieth century several researchers dedicated themselves to the formulation of statistical models appropriated for the estimation of population size, which caused a substantial increase in the amount of theoretical and applied works on the subject. The capture-recapture models are constructed under certain assumptions relating to the population, the sampling procedure and the experimental conditions. The main assumption that distinguishes models concerns the change in the number of individuals in the population during the period of the experiment. Models that allow for births, deaths or migration are called open population models, while models that does not allow for these events to occur are called closed population models. In this work, the goal is to characterize likelihood functions obtained by applying methods of elimination of nuissance parameters in the case of closed population models. Based on these likelihood functions, we discuss methods for point and interval estimation of the population size. The estimation methods are illustrated on a real data-set and their frequentist properties are analised via Monte Carlo simulation. / O processo de captura-recaptura, amplamente utilizado na estimação do número de elementos de uma população de animais, é também aplicado a outras áreas do conhecimento como Epidemiologia, Linguística, Con_abilidade de Software, Ecologia, entre outras. Uma das primeiras aplicações deste método foi feita por Laplace em 1783, com o objetivo de estimar o número de habitantes da França. Posteriormente, Carl G. J. Petersen em 1889 e Lincoln em 1930 utilizaram o mesmo estimador no contexto de popula ções de animais. Este estimador _cou conhecido na literatura como o estimador de _Lincoln-Petersen_. Em meados do século XX muitos pesquisadores se dedicaram à formula ção de modelos estatísticos adequados à estimação do tamanho populacional, o que causou um aumento substancial da quantidade de trabalhos teóricos e aplicados sobre o tema. Os modelos de captura-recaptura são construídos sob certas hipóteses relativas à população, ao processo de amostragem e às condições experimentais. A principal hipótese que diferencia os modelos diz respeito à mudança do número de indivíduos da popula- ção durante o período do experimento. Os modelos que permitem que haja nascimentos, mortes ou migração são chamados de modelos para população aberta, enquanto que os modelos em que tais eventos não são permitidos são chamados de modelos para popula- ção fechada. Neste trabalho, o objetivo é caracterizar o comportamento de funções de verossimilhança obtidas por meio da utilização de métodos de eliminação de parâmetros perturbadores, no caso de modelos para população fechada. Baseado nestas funções de verossimilhança, discutimos métodos de estimação pontual e intervalar para o tamanho populacional. Os métodos de estimação são ilustrados através de um conjunto de dados reais e suas propriedades frequentistas são analisadas via simulação de Monte Carlo.
|
73 |
Modelo de mistura com dependência Markoviana de primeira ordemMeira, Silvana Aparecida 12 September 2014 (has links)
Made available in DSpace on 2016-06-02T20:06:10Z (GMT). No. of bitstreams: 1
6237.pdf: 1097574 bytes, checksum: efdba2d8d3f39759e65f53c499f7ee6a (MD5)
Previous issue date: 2014-09-12 / We present the mixture model with first order dependence, MMM(1). This model corresponds to a redefinition of the hidden Markov model (HMM) where a non observable variable is used to control the mixture. The usual mixture model is a particular case of the MMM(1). The proposed redefinition makes easier the application of usual estimation tools as the EM algorithm. We present the maximum likelihood and Bayesian estimators for the normal and binomial cases of the MMM(1) and usual mixture models. Simulation studies show the functionality of the proposed models and their estimators. And finally we present an application to a real data set for the binomial case. / Nesse trabalho apresentamos o modelo de mistura com dependência markoviana de primeira ordem, MMM(1). A metodologia proposta corresponde a uma redefinição do modelo markoviano oculto (HMM) na qual utilizamos uma variável não observável como controladora da mistura. O modelo de mistura usual (sem dependência) é um caso particular do MMM(1). A redefinição proposta permite uma adaptação de instrumentos usuais de estimação como por exemplo o algoritmo EM. Apresentamos também os estimadores de máxima verossimilhança e bayesianos para os modelos MMM(1) e de mistura usual para os casos da distribuição normal e binomial. Estudos de simulação demonstram a funcionalidade do modelo e estimadores propostos. Ao final apresentamos uma aplicação a um conjunto de dados reais apresentados na literatura para o caso binomial.
|
74 |
Aplicação de filtros de Gabor no processo de classificação de imagens digitais com base em atributos de texturaAngelo, Neide Pizzolato January 2000 (has links)
No processo de classificação de uma imagem digital, o atributo textura pode ser uma fonte importante de informações. Embora o processo de caracterização da textura em uma imagem seja mais difícil, se comparado ao processo de caracterização de atributos espectrais, sabe-se que o emprego daquele atributo pode aumentar significativamente a exatidão na classificação da imagem. O objetivo deste trabalho de pesquisa consiste em desenvolver e testar um método de classificação supervisionado em imagens digitais com base em atributos de textura. O método proposto implementa um processo de filtragem baseado nos filtros de Gabor. Inicialmente, é gerado um conjunto de filtros de Gabor adequados às freqüências espaciais associadas às diferentes classes presentes na imagem a ser classificada. Em cada caso, os parâmetros utilizados por cada filtro são estimados a partir das amostras disponíveis, empregando-se a transformada de Fourier. Cada filtro gera, então, uma imagem filtrada que quantifica a freqüência espacial definida no filtro. Este processo resulta em um certo número de imagens filtradas as quais são denominadas de "bandas texturais". Desta forma, o problema que era originalmente unidimensional passa a ser multi-dimensional, em que cada pixel passa a ser definido por um vetor cuja dimensionalidade é idêntica ao número de filtros utilizados. A imagem em várias "bandas texturais" pode ser classificada utilizando-se um método de classificação supervisionada. No presente trabalho foi utilizada a Máxima Verossimilhança Gaussiana. A metodologia proposta é então testada, utilizandose imagens sintéticas e real. Os resultados obtidos são apresentados e analisados.
|
75 |
Distribuições das classes Kumaraswamy generalizada e exponenciada: propriedades e aplicações / Distributions of the generalized Kumaraswamy and exponentiated classes: properties and applicationsAntonio Carlos Ricardo Braga Junior 04 April 2013 (has links)
Recentemente, Cordeiro e de Castro (2011) apresentaram uma classe generalizada baseada na distribuição Kumaraswamy (Kw-G). Essa classe de distribuições modela as formas de risco crescente, decrescente, unimodal e forma de U ou de banheira. Uma importante distribuição pertencente a essa classe é a distribuição Kumaraswamy Weibull modificada (KwMW) proposta por Cordeiro; Ortega e Silva (2013). Com isso foi utilizada essa distribuição para o desenvolvimento de algumas novas propriedades e análise bayesiana. Além disso, foi desenvolvida uma nova distribuição de probabilidade a partir da distribuição gama generalizada geométrica (GGG) que foi denominada de gama generalizada geométrica exponenciada (GGGE). Para a nova distribuição GGGE foram calculados os momentos, a função geradora de momentos, os desvios médios, a confiabilidade e as estatísticas de ordem. Desenvolveu-se o modelo de regressão log-gama generalizada geométrica exponenciada. Para a estimação dos parâmetros, foram utilizados os métodos de máxima verossimilhança e bayesiano e, finalmente, para ilustrar a aplicação da nova distribuição foi analisado um conjunto de dados reais. / Recently, Cordeiro and de Castro (2011) showed a generalized class based on the Kumaraswamy distribution (Kw-G). This class of models has crescent risk forms, decrescent, unimodal and U or bathtub form. An important distribution belonging to this class the Kumaraswamy modified Weibull distribution (KwMW), proposed by Cordeiro; Ortega e Silva (2013). Thus this distribution was used to develop some new properties and bayesian analysis. Furthermore, we develop a new probability distribution from the generalized gamma geometric distribution (GGG) which it is called generalized gamma geometric exponentiated (GGGE) distribution. For the new distribution we calculate the moments, moment generating function, mean deviation, reliability and order statistics. We define a log-generalized gamma geometric exponentiated regression model. The methods used to estimate the model parameters are: maximum likelihood and bayesian. Finally, we illustrate the potentiality of the new distribution by means of an application to a real data set.
|
76 |
Modelos para dados de contagem com superdispersão: uma aplicação em um experimento agronômico / Models for count data with overdispersion: application in an agronomic experimentDouglas Toledo Batista 26 June 2015 (has links)
O modelo de referência para dados de contagem é o modelo de Poisson. A principal característica do modelo de Poisson é a pressuposição de que a média e a variância são iguais. No entanto, essa relação de média-variância nem sempre ocorre em dados observacionais. Muitas vezes, a variância observada nos dados é maior do que a variância esperada, fenômeno este conhecido como superdispersão. O objetivo deste trabalho constitui-se na aplicação de modelos lineares generalizados, a fim de selecionar um modelo adequado para acomodar de forma satisfatória a superdispersão presente em dados de contagem. Os dados provêm de um experimento que objetivava avaliar e caracterizar os parâmetros envolvidos no florescimento de plantas adultas da laranjeira variedade \"x11\", enxertadas nos limoeiros das variedades \"Cravo\" e \"Swingle\". Primeiramente ajustou-se o modelo de Poisson com função de ligação canônica. Por meio da deviance, estatística X2 de Pearson e do gráfico half-normal plot observou-se forte evidência de superdispersão. Utilizou-se, então, como modelos alternativos ao Poisson, os modelos Binomial Negativo e Quase-Poisson. Verificou que o modelo Quase-Poisson foi o que melhor se ajustou aos dados, permitindo fazer inferências mais precisas e interpretações práticas para os parâmetros do modelo. / The reference model for count data is the Poisson model. The main feature of Poisson model is the assumption that mean and variance are equal. However, this mean-variance relationship rarely occurs in observational data. Often, the observed variance is greater than the expected variance, a phenomenon known as overdispersion. The aim of this work is the application of generalized linear models, in order to select an appropriated model to satisfactorily accommodate the overdispersion present in the data. The data come from an experiment that aimed to evaluate and characterize the parameters involved in the flowering of orange adult plants of the variety \"x11\" grafted on \"Cravo\" and \"Swingle\". First, the data were submitted to adjust by Poisson model with canonical link function. Using deviance, generalized Pearson chi-squared statistic and half-normal plots, it was possible to notice strong evidence of overdispersion. Thus, alternative models to Poisson were used such as the negative binomial and Quasi-Poisson models. The Quasi-Poisson model presented the best fit to the data, allowing more accurate inferences and practices interpretations for the parameters.
|
77 |
Distribuições em série de potências modificadas inflacionadas e distribuição Weibull binominal negativa / Inflated modified power serie distribution and Weibull negative binomialCristiane Rodrigues 03 June 2011 (has links)
Neste trabalho, alguns resultados, tais como, função geradora de momentos, relações de recorrência para os momentos e alguns teoremas da classe de distribuições em séries de potencias modificadas (MPSD) proposta por Gupta (1974) e da classe de distribuições em séries de potências modificadas inflacionadas (IMPSD) tanto em um ponto diferente de zero como no ponto zero são apresentados. Uma aplicação do Modelo Poisson padrão, do modelo binomial negativo padrão e dos modelos inflacionados de zeros para dados de contagem, ZIP e ZINB, utilizando-se as técnicas dos MLGs, foi realizada para dois conjuntos de dados reais juntamente com o gráfico normal de probabilidade com envelopes simulados. Também foi proposta a distribuição Weibull binomial negativa (WNB) que é bastante flexível em análise de dados positivos e foram estudadas algumas de suas propriedades matemáticas. Esta é uma importante alternativa para os modelos Weibull e Weibull geométrica, sub-modelos da WNB. A demostração de que a densidade da distribuição Weibull binomial negativa pode ser expressa como uma mistura de densidades Weibull é apresentada. Fornecem-se, também, seus momentos, função geradora de momentos, gráficos da assimetria e curtose, expressoes expl´citas para os desvios médios, curvas de Bonferroni e Lorenz, função quantílica, confiabilidade e entropia, a densidade da estat´stica de ordem e expressões explícita para os momentos da estatística de ordem. O método de máxima verossimilhança é usado para estimar os parametros do modelo. A matriz de informação esperada ´e derivada. A utilidade da distribuição WNB está ilustrada na an´alise de dois conjuntos de dados reais. / In this paper, some result such as moments generating function, recurrence relations for moments and some theorems of the class of modified power series distributions (MPSD) proposed by Gupta (1974) and of the class of inflated modified power series distributions (IMPSD) both at a different point of zero as the zero point are presented. The standard Poisson model, the standard negative binomial model and zero inflated models for count data, ZIP and ZINB, using the techniques of the GLMs, were used to analyse two real data sets together with the normal plot with simulated envelopes. The new distribution Weibull negative binomial (WNB) was proposed. Some mathematical properties of the WNB distribution which is quite flexible in analyzing positive data were studied. It is an important alternative model to the Weibull, and Weibull geometric distributions as they are sub-models of WNB. We demonstrate that the WNB density can be expressed as a mixture of Weibull densities. We provide their moments, moment generating function, plots of the skewness and kurtosis, explicit expressions for the mean deviations, Bonferroni and Lorenz curves, quantile function, reliability and entropy, the density of order statistics and explicit expressions for the moments of order statistics. The method of maximum likelihood is used for estimating the model parameters. The expected information matrix is derived. The usefulness of the new distribution is illustrated in two analysis of real data sets.
|
78 |
Modelos lineares mistos: estruturas de matrizes de variâncias e covariâncias e seleção de modelos. / Mixed linear models: structures of matrix of variances and covariances and selection of models.Jomar Antonio Camarinha Filho 27 September 2002 (has links)
É muito comum encontrar nas áreas agronômica e biológica experimentos cujas observações são correlacionadas. Porém, tais correlações, em tese, podem estar associadas às parcelas ou às subparcelas, dependendo do plano experimental adotado. Além disso, a metodologia de modelos lineares mistos vem sendo utilizada com mais freqüência, principalmente após os trabalhos de Searle (1988), Searle at al. (1992), Wolfinger (1993b) entre outros. O sucesso do procedimento de modelagem está fortemente associado ao exame dos efeitos aleatórios que devem permanecer no modelo e na possibilidade de se introduzir, no modelo, estruturas de variâncias e covariâncias das variáveis aleatórias que, para o modelo linear misto, podem estar inseridas no resíduo e, também, na parte aleatória associada ao fator aleatório conhecido. Nesse contexto, o Teste da Razão de Verossimilhança e o Critério de Akaike podem auxiliar na tarefa de escolha do modelo mais apropriado para análise dos dados, além de permitir verificar que escolhas de modelos inadequadas acarretam em conclusões divergentes em relação aos efeitos fixos do modelo. Com o desenvolvimento do Proc Mixed do SAS (Littel at al. 1996), utilizado neste trabalho, a análise desses experimentos, tratada pela metodologia modelos lineares mistos, tornou-se mais usual e segura. Com a finalidade de se atingir o objetivo deste trabalho, utilizaram-se dois exemplos (A e B) sobre a resposta da produtividade de três cultivares de trigo, em relação a níveis de irrigação por aspersão line-source. Foram criados e analisados 29 modelos para o Exemplo A e 16 modelos para o Exemplo B. Pôde-se verificar, para cada um dos exemplos, que as conclusões em relação aos efeitos fixos se modificaram de acordo com o modelo adotado. Notou-se, também, que o Critério de Akaike deve ser visto com cautela. Ao se comparar modelos similares entre os dois exemplos, ratificou-se a importância de se programar corretamente no Proc Mixed. Nesse contexto, conclui-se que é fundamental conduzir a análise de experimentos de forma ampla, buscando vários modelos e verificando quais têm lógica em relação ao plano experimental, evitando erros ao término da análise. / In Biology and Agronomy, experiments that produce correlated observations are often found. Theoretically, these correlations may be associated with whole-plots or subplots, according to the chosen experimental design. Also, the mixed linear model methodology is now being used much more frequently, especially after the works of Searle (1988), Searle et al. (1992) and Wolfinger (1993b), among others. The success of the modeling procedure is strongly associated with the examination of the random effects that must remain within the model and the possibility of introducing variance-covariance structures of random variables in the model. In the case of the mixed linear model, they may be included in the residual error or in the random part which is associated with the known random factor. In this context, the Likelihood Ratio Test and Akaike's Information Criterion can help in choosing the most appropriate model for data analysis. They also enable the verification of inadequate choice of models which can lead to divergent conclusions regarding the fixed effects of the model. With the development of the SAS Mixed Procedure (Little at al. 1996), which was used in this work, analysis of these experiments, conducted through the mixed linear model methodology, has become more usual and secure. In order to achieve the target of this work, two examples were utilized (A and B) involving the productivity response of three varieties of wheat, in regards to irrigation levels by line-source aspersion. Twenty-nine models for Example A and 16 models for Example B were created and analyzed. For each example, it was verified that conclusions regarding fixed effects changed according to the model adopted. It was also verified that Akaikes Information Criterion must be regarded with caution. When comparing similar models between the two examples, the importance of correct programming in the Mixed Procedure was confirmed. In this context, it can be concluded that it is fundamental to conduct the experiment analysis in an ample manner, looking for various models and verifying which ones make sense according to the experimental plan, thus avoiding errors at analysis completion.
|
79 |
Exploração de espaços de parâmetros de modelos biológicos sob diferentes paradigmas estatísticos / Parameter space exploration of biological models under different statistical paradigmsAndre Chalom Machado de Oliveira 02 September 2015 (has links)
A formulação e o uso de modelos matemáticos complexos têm recebido grande atenção no estudo da ecologia nos últimos anos. Questões relacionadas à exploração de espaços de parâmetros destes modelos - executada de forma eficiente, sistemática e à prova de erros - são de grande importância para melhor compreender, avaliar a confiabilidade e interpretar o resultado destes modelos. Neste trabalho, apresentamos uma investigação de métodos existentes para responder as questões relevantes da área, com ênfase na técnica conhecida como Hipercubo Latino e com foco na análise quantitativa dos resultados, e realizamos a comparação entre resultados analíticos de incerteza e sensibilidade e resultados obtidos do Hipercubo. Ainda, examinamos a proposta de uma metodologia paralela baseada no paradigma estatístico da verossimilhança. O capítulo 1 introduz uma investigação a respeito dos conceitos históricos sobre a natureza da probabilidade, situando o conceito da verossimilhança como componente central da inferência estatística. O capítulo 2 (em inglês) traz uma revisão bibliográfica sobre o estado da arte em análises de incerteza e sensibilidade, apresentando dois exemplos de aplicação das técnicas descritas a problemas de crescimento populacional estruturado. O capítulo 3 examina a proposta de uma metodologia baseada na verossimilhança dos dados como uma abordagem integrativa entre a estimação de parâmetros e a análise de incerteza, apresentando resultados preliminares. Durante o progresso do presente trabalho, um pacote de funções na linguagem R foi desenvolvido para facilitar o emprego na prática das ferramentas teóricas expostas acima. Os apêndices deste texto trazem um tutorial e exemplos de uso deste pacote, pensado para ser ao mesmo tempo conveniente e de fácil extensão, e disponível livremente na internet, no endereço http://cran.r-project.org/web/packages/pse. / There is a growing trend in the use of mathematical modeling tools in the study of many areas of the biological sciences. The use of computer models in science is increasing, specially in fields where laboratory experiments are too complex or too costly, like ecology. Questions of efficient, systematic and error-proof exploration of parameter spaces are are of great importance to better understand, estimate confidences and make use of the output from these models. We present a survey of the proposed methods to answer these questions, with emphasis on the Latin Hypercube Sampling and focusing on quantitative analysis of the results. We also compare analytical results for sensitivity and uncertainty, where relevant, to LHS results. Finally, we examine the proposal of a methodology based on the likelihood statistical paradigm. Chapter 1 introduces a brief investigation about the historical views about the nature of probability, in order to situate the concept of likelihood as a central component in statistical inference. Chapter 2 (in English) shows a revision about the state-of-art uncertainty and sensitivity analyses, with a practical example of applying the described techniques to two models of structured population growth. Chapter 3 examines the proposal of a likelihood based approach as an integrative procedure between parameter value estimation and uncertainty analyses, with preliminary results. During the progress of this work, a package of R functions was developed to facilitate the real world use of the above theoretical tools. The appendices of this text bring a tutorial and examples of using this package, freely available on the Internet at http://cran.r-project.org/web/packages/pse.
|
80 |
Verossimilhança perfilada nos modelos lineares generalizados com superdispersãoANDRADE, Thiago Alexandro Nascimento de 31 January 2013 (has links)
Submitted by Danielle Karla Martins Silva (danielle.martins@ufpe.br) on 2015-03-12T13:25:58Z
No. of bitstreams: 2
CD- Dissertação Thiago A. N. de Andrade.pdf: 787795 bytes, checksum: eccb193488aebfede11aa4dd03b03587 (MD5)
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Made available in DSpace on 2015-03-12T13:25:58Z (GMT). No. of bitstreams: 2
CD- Dissertação Thiago A. N. de Andrade.pdf: 787795 bytes, checksum: eccb193488aebfede11aa4dd03b03587 (MD5)
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
Previous issue date: 2013 / CNPq / A classe de Modelos Lineares Generalizados com Superdispersão (MLGSs)
proposta por Dey et al. (1997), tem sido amplamente utilizada na modelagem
de dados cuja variância da variável resposta excede o valor nominal predito
no modelo. O principal objetivo da presente dissertação é a obtenção de um
fator de correção de Bartlett, segundo a metodologia proposta por DiCiccio
e Stern (1994), à estatística da razão de verossimilhanças perfiladas ajustadas
proposta por Cox e Reid (1987) para o teste conjunto dos efeitos da
dispersão nesta classe de modelos. Estudos de simulação de Monte Carlo foram
realizados com o objetivo de avaliar os desempenhos dos testes baseados
nas estatísticas da razão de verossimilhanças usual (LR), razão de verossimilhanças
perfiladas ajustadas (LRpa) e razão de verossimilhanças perfiladas
ajustadas corrigida (LRc
pa), no que se refere a tamanho e poder em amostras
finitas. Os resultados numéricos obtidos favorecem o teste proposto nesta
dissertação.
|
Page generated in 0.0466 seconds