• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 7
  • 1
  • 1
  • Tagged with
  • 9
  • 9
  • 9
  • 5
  • 5
  • 4
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Avaliação de métodos estatísticos na análise de dados de consumo alimentar

Paschoalinotte, Eloisa Elena [UNESP] 17 December 2009 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:30:59Z (GMT). No. of bitstreams: 0 Previous issue date: 2009-12-17Bitstream added on 2014-06-13T21:01:49Z : No. of bitstreams: 1 paschoalinotte_ee_me_botib.pdf: 355804 bytes, checksum: f6f7da3741a371f0a44fb543773dfea3 (MD5) / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / Universidade Estadual Paulista (UNESP) / A avaliação do consumo alimentar de um indivíduo ou de uma população tem sido um desafio tanto para profissionais da área de nutrição como para os da área de estatística. Isso porque a característica central do consumo alimentar é a variabilidade da dieta, que pode gerar uma grande variabilidade inter e intrapessoal. Para contornar esse problema, métodos estatísticos apropriados foram desenvolvidos baseados no modelo de regressão com erro de medida de modo a se obter a distribuição estimada do consumo habitual. Dentre os métodos de avaliação de consumo, têm-se o método da Iowa State University (ISU), o método da Iowa State University for Foods (I8UF) e o método do National Cancer Institute (NCI). Todos esses métodos são baseados no modelo com erro de medida incorporando a questão do consumo esporádico (método I8UF) e a possibilidade de incluir covariáveis que podem interferir na distribuição estimada do consumo (método NCI). Para o uso do método ISU, foi desenvolvido um programa chamado PC-SIDE (Software for Intake Distribution Estimate), que fornece a distribuição do consumo habitual bem como a probabilidade de inadequação de determinados nutrientes de acordo com as recomendações nutricionais. Com esse mesmo programa, é possível obter a distribuição do consumo habitual esporádico, dado pelo método ISUF. Para o método NCI, foram desenvolvidas macros no programa SAS (Statistical Analysis System) que permitem incluir covariáveis e estimar a distribuição do consumo habitual baseado no modelo com erros de medidas. Desse modo, o objetivo deste trabalho foi avaliar essas metodologias estatísticas na análise de dados de consumo alimentar e aplicá-los a um conjunto de dados de um levantamento nutricional de idosos. Foram estudadas as metodologias de ajuste dos modelos propostos para a obtenção da distribuição estimada de consumo baseado... / Evaluating an individual's or a population's food intake has been a challenge for both nutrition professionals and statisticians. This is so because the main characteristic of food intake is diet variety, which may generate large betweenand within-person variability. In order to overcome this problem, appropriate statistical methods have been developed based on the measurement-error regression model so as to obtain the estimated distribution of usual intake. Among the intake evaluation methods are the Iowa State University (lSU), the lowa State University for Foods (ISUF) and the National Cancer lnstitute (NCI) methods. All of them are based on the measurement- error model incorporating the issue concerning episodic intake (ISUF method) and the possibility of including covariates that can interfere in the intake estimated distribution (NCl method). ln order to use the lSU method, a software referred to as PC-SlDE (Software for Intake Distribution Estimate) was designed. It provides the usual intake distribution as well as the probability of inadequacy for certain nutrients according to nutritional recommendations. By using the same software, it is possible to obtain the distribution of episodic usual intake given by the ISUF method. For the NCI method, macros were developed in the SAS (Statistical Analysis System) software which enable the inclusion of covariates and the estimation of the usual intake distribution based on the measurement-error IDodel. Hence, this study aimed at evaluating these statistical methodologies in the analysis of food intake data and at applying them to a data set for a nutritional assessment of elderly individuaIs. The fitting methodologies for the models proposed to obtain the estimated intake distribution based on the ISU, ISUF and NCI methods were studied. The ISU and NCI methods were applied to data from three 24-hours recalls obtained fram a study... (Complete abstract click electronic access below)
2

Avaliação de métodos estatísticos na análise de dados de consumo alimentar /

Paschoalinotte, Eloisa Elena. January 2009 (has links)
Orientador: José Eduardo Corrente / Banca: Dirce Maria Lobo Marchioni / Banca: Lídia Raquel de Carvalho / Banca: Liciana Vaz de Arruda Silveira / Banca: Regina Mara Fisberg / Resumo: A avaliação do consumo alimentar de um indivíduo ou de uma população tem sido um desafio tanto para profissionais da área de nutrição como para os da área de estatística. Isso porque a característica central do consumo alimentar é a variabilidade da dieta, que pode gerar uma grande variabilidade inter e intrapessoal. Para contornar esse problema, métodos estatísticos apropriados foram desenvolvidos baseados no modelo de regressão com erro de medida de modo a se obter a distribuição estimada do consumo habitual. Dentre os métodos de avaliação de consumo, têm-se o método da Iowa State University (ISU), o método da Iowa State University for Foods (I8UF) e o método do National Cancer Institute (NCI). Todos esses métodos são baseados no modelo com erro de medida incorporando a questão do consumo esporádico (método I8UF) e a possibilidade de incluir covariáveis que podem interferir na distribuição estimada do consumo (método NCI). Para o uso do método ISU, foi desenvolvido um programa chamado PC-SIDE (Software for Intake Distribution Estimate), que fornece a distribuição do consumo habitual bem como a probabilidade de inadequação de determinados nutrientes de acordo com as recomendações nutricionais. Com esse mesmo programa, é possível obter a distribuição do consumo habitual esporádico, dado pelo método ISUF. Para o método NCI, foram desenvolvidas macros no programa SAS (Statistical Analysis System) que permitem incluir covariáveis e estimar a distribuição do consumo habitual baseado no modelo com erros de medidas. Desse modo, o objetivo deste trabalho foi avaliar essas metodologias estatísticas na análise de dados de consumo alimentar e aplicá-los a um conjunto de dados de um levantamento nutricional de idosos. Foram estudadas as metodologias de ajuste dos modelos propostos para a obtenção da distribuição estimada de consumo baseado... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: Evaluating an individual's or a population's food intake has been a challenge for both nutrition professionals and statisticians. This is so because the main characteristic of food intake is diet variety, which may generate large betweenand within-person variability. In order to overcome this problem, appropriate statistical methods have been developed based on the measurement-error regression model so as to obtain the estimated distribution of usual intake. Among the intake evaluation methods are the Iowa State University (lSU), the lowa State University for Foods (ISUF) and the National Cancer lnstitute (NCI) methods. All of them are based on the measurement- error model incorporating the issue concerning episodic intake (ISUF method) and the possibility of including covariates that can interfere in the intake estimated distribution (NCl method). ln order to use the lSU method, a software referred to as PC-SlDE (Software for Intake Distribution Estimate) was designed. It provides the usual intake distribution as well as the probability of inadequacy for certain nutrients according to nutritional recommendations. By using the same software, it is possible to obtain the distribution of episodic usual intake given by the ISUF method. For the NCI method, macros were developed in the SAS (Statistical Analysis System) software which enable the inclusion of covariates and the estimation of the usual intake distribution based on the measurement-error IDodel. Hence, this study aimed at evaluating these statistical methodologies in the analysis of food intake data and at applying them to a data set for a nutritional assessment of elderly individuaIs. The fitting methodologies for the models proposed to obtain the estimated intake distribution based on the ISU, ISUF and NCI methods were studied. The ISU and NCI methods were applied to data from three 24-hours recalls obtained fram a study... (Complete abstract click electronic access below) / Mestre
3

Deconvolution in Random Effects Models via Normal Mixtures

Litton, Nathaniel A. 2009 August 1900 (has links)
This dissertation describes a minimum distance method for density estimation when the variable of interest is not directly observed. It is assumed that the underlying target density can be well approximated by a mixture of normals. The method compares a density estimate of observable data with a density of the observable data induced from assuming the target density can be written as a mixture of normals. The goal is to choose the parameters in the normal mixture that minimize the distance between the density estimate of the observable data and the induced density from the model. The method is applied to the deconvolution problem to estimate the density of $X_{i}$ when the variable $% Y_{i}=X_{i}+Z_{i}$, $i=1,\ldots ,n$, is observed, and the density of $Z_{i}$ is known. Additionally, it is applied to a location random effects model to estimate the density of $Z_{ij}$ when the observable quantities are $p$ data sets of size $n$ given by $X_{ij}=\alpha _{i}+\gamma Z_{ij},~i=1,\ldots ,p,~j=1,\ldots ,n$, where the densities of $\alpha_{i} $ and $Z_{ij}$ are both unknown. The performance of the minimum distance approach in the measurement error model is compared with the deconvoluting kernel density estimator of Stefanski and Carroll (1990). In the location random effects model, the minimum distance estimator is compared with the explicit characteristic function inversion method from Hall and Yao (2003). In both models, the methods are compared using simulated and real data sets. In the simulations, performance is evaluated using an integrated squared error criterion. Results indicate that the minimum distance methodology is comparable to the deconvoluting kernel density estimator and outperforms the explicit characteristic function inversion method.
4

Inferência em um modelo com erros de medição heteroscedásticos com observações replicadas / Inference in a heteroscedastic errors model with replicated observations

Oliveira, Willian Luís de 05 July 2011 (has links)
Modelos com erros de medição têm recebido a atenção de vários pesquisadores das mais diversas áreas de conhecimento. O principal objetivo desta dissertação consiste no estudo de um modelo funcional com erros de medição heteroscedásticos na presença de réplicas das observações. O modelo proposto estende resultados encontrados na literatura na medida em que as réplicas são parte do modelo, ao contrário de serem utilizadas para estimação das variâncias, doravante tratadas como conhecidas. Alguns procedimentos de estimação tais como o método de máxima verossimilhança, o método dos momentos e o método de extrapolação da simulação (SIMEX) na versão empírica são apresentados. Além disso, propõe-se o teste da razão de verossimilhanças e o teste de Wald com o objetivo de testar algumas hipóteses de interesse relacionadas aos parâmetros do modelo adotado. O comportamento dos estimadores de alguns parâmetros e das estatísticas propostas (resultados assintóticos) são analisados por meio de um estudo de simulação de Monte Carlo, utilizando-se diferentes números de réplicas. Por fim, a proposta é exemplificada com um conjunto de dados reais. Toda parte computacional foi desenvolvida em linguagem R (R Development Core Team, 2011) / Measurement error models have received the attention of many researchers of several areas of knowledge. The aim of this dissertation is to study a functional heteroscedastic measurement errors model with replicated observations. The proposed model extends results from the literature in that replicas are part of the model, as opposed to being used for estimation of the variances, now treated as known. Some estimation procedures such as maximum likelihood method, the method of moments and the empirical simulation-extrapolation method (SIMEX) are presented. Moreover, it is proposed the likelihood ratio test and Wald test in order to test hypotheses of interest related to the model parameters used. The behavior of the estimators of some parameters and statistics proposed (asymptotic results) are analyzed through Monte Carlo simulation study using different numbers of replicas. Finally, the proposal is illustrated with a real data set. The computational part was developed in R language (R Development Core Team, 2011)
5

Inferência em um modelo com erros de medição heteroscedásticos com observações replicadas / Inference in a heteroscedastic errors model with replicated observations

Willian Luís de Oliveira 05 July 2011 (has links)
Modelos com erros de medição têm recebido a atenção de vários pesquisadores das mais diversas áreas de conhecimento. O principal objetivo desta dissertação consiste no estudo de um modelo funcional com erros de medição heteroscedásticos na presença de réplicas das observações. O modelo proposto estende resultados encontrados na literatura na medida em que as réplicas são parte do modelo, ao contrário de serem utilizadas para estimação das variâncias, doravante tratadas como conhecidas. Alguns procedimentos de estimação tais como o método de máxima verossimilhança, o método dos momentos e o método de extrapolação da simulação (SIMEX) na versão empírica são apresentados. Além disso, propõe-se o teste da razão de verossimilhanças e o teste de Wald com o objetivo de testar algumas hipóteses de interesse relacionadas aos parâmetros do modelo adotado. O comportamento dos estimadores de alguns parâmetros e das estatísticas propostas (resultados assintóticos) são analisados por meio de um estudo de simulação de Monte Carlo, utilizando-se diferentes números de réplicas. Por fim, a proposta é exemplificada com um conjunto de dados reais. Toda parte computacional foi desenvolvida em linguagem R (R Development Core Team, 2011) / Measurement error models have received the attention of many researchers of several areas of knowledge. The aim of this dissertation is to study a functional heteroscedastic measurement errors model with replicated observations. The proposed model extends results from the literature in that replicas are part of the model, as opposed to being used for estimation of the variances, now treated as known. Some estimation procedures such as maximum likelihood method, the method of moments and the empirical simulation-extrapolation method (SIMEX) are presented. Moreover, it is proposed the likelihood ratio test and Wald test in order to test hypotheses of interest related to the model parameters used. The behavior of the estimators of some parameters and statistics proposed (asymptotic results) are analyzed through Monte Carlo simulation study using different numbers of replicas. Finally, the proposal is illustrated with a real data set. The computational part was developed in R language (R Development Core Team, 2011)
6

Some Bayesian Methods in the Estimation of Parameters in the Measurement Error Models and Crossover Trial

Wang, Guojun 31 March 2004 (has links)
No description available.
7

Modelos de regressão beta com erro nas variáveis / Beta regression model with measurement error

Carrasco, Jalmar Manuel Farfan 25 May 2012 (has links)
Neste trabalho de tese propomos um modelo de regressão beta com erros de medida. Esta proposta é uma área inexplorada em modelos não lineares na presença de erros de medição. Abordamos metodologias de estimação, como máxima verossimilhança aproximada, máxima pseudo-verossimilhança aproximada e calibração da regressão. O método de máxima verossimilhança aproximada determina as estimativas maximizando diretamente o logaritmo da função de verossimilhança. O método de máxima pseudo-verossimilhança aproximada é utilizado quando a inferência em um determinado modelo envolve apenas alguns mas não todos os parâmetros. Nesse sentido, dizemos que o modelo apresenta parâmetros de interesse como também de perturbação. Quando substituímos a verdadeira covariável (variável não observada) por uma estimativa da esperança condicional da variável não observada dada a observada, o método é conhecido como calibração da regressão. Comparamos as metodologias de estimação mediante um estudo de simulação de Monte Carlo. Este estudo de simulação evidenciou que os métodos de máxima verossimilhança aproximada e máxima pseudo-verossimilhança aproximada tiveram melhor desempenho frente aos métodos de calibração da regressão e naïve (ingênuo). Utilizamos a linguagem de programação Ox (Doornik, 2011) como suporte computacional. Encontramos a distribuição assintótica dos estimadores, com o objetivo de calcular intervalos de confiança e testar hipóteses, tal como propõem Carroll et. al.(2006, Seção A.6.6), Guolo (2011) e Gong e Samaniego (1981). Ademais, são utilizadas as estatísticas da razão de verossimilhanças e gradiente para testar hipóteses. Num estudo de simulação realizado, avaliamos o desempenho dos testes da razão de verossimilhanças e gradiente. Desenvolvemos técnicas de diagnóstico para o modelo de regressão beta com erros de medida. Propomos o resíduo ponderado padronizado tal como definem Espinheira (2008) com o objetivo de verificar as suposições assumidas ao modelo e detectar pontos aberrantes. Medidas de influência global, tais como a distância de Cook generalizada e o afastamento da verossimilhança, são utilizadas para detectar pontos influentes. Além disso, utilizamos a técnica de influência local conformal sob três esquemas de perturbação (ponderação de casos, perturbação da variável resposta e perturbação da covariável com e sem erros de medida). Aplicamos nossos resultados a dois conjuntos de dados reais para exemplificar a teoria desenvolvida. Finalmente, apresentamos algumas conclusões e possíveis trabalhos futuros. / In this thesis, we propose a beta regression model with measurement error. Among nonlinear models with measurement error, such a model has not been studied extensively. Here, we discuss estimation methods such as maximum likelihood, pseudo-maximum likelihood, and regression calibration methods. The maximum likelihood method estimates parameters by directly maximizing the logarithm of the likelihood function. The pseudo-maximum likelihood method is used when the inference in a given model involves only some but not all parameters. Hence, we say that the model under study presents parameters of interest, as well as nuisance parameters. When we replace the true covariate (observed variable) with conditional estimates of the unobserved variable given the observed variable, the method is known as regression calibration. We compare the aforementioned estimation methods through a Monte Carlo simulation study. This simulation study shows that maximum likelihood and pseudo-maximum likelihood methods perform better than the calibration regression method and the naïve approach. We use the programming language Ox (Doornik, 2011) as a computational tool. We calculate the asymptotic distribution of estimators in order to calculate confidence intervals and test hypotheses, as proposed by Carroll et. al (2006, Section A.6.6), Guolo (2011) and Gong and Samaniego (1981). Moreover, we use the likelihood ratio and gradient statistics to test hypotheses. We carry out a simulation study to evaluate the performance of the likelihood ratio and gradient tests. We develop diagnostic tests for the beta regression model with measurement error. We propose weighted standardized residuals as defined by Espinheira (2008) to verify the assumptions made for the model and to detect outliers. The measures of global influence, such as the generalized Cook\'s distance and likelihood distance, are used to detect influential points. In addition, we use the conformal approach for evaluating local influence for three perturbation schemes: case-weight perturbation, respose variable perturbation, and perturbation in the covariate with and without measurement error. We apply our results to two sets of real data to illustrate the theory developed. Finally, we present our conclusions and possible future work.
8

Modelos de regressão beta com erro nas variáveis / Beta regression model with measurement error

Jalmar Manuel Farfan Carrasco 25 May 2012 (has links)
Neste trabalho de tese propomos um modelo de regressão beta com erros de medida. Esta proposta é uma área inexplorada em modelos não lineares na presença de erros de medição. Abordamos metodologias de estimação, como máxima verossimilhança aproximada, máxima pseudo-verossimilhança aproximada e calibração da regressão. O método de máxima verossimilhança aproximada determina as estimativas maximizando diretamente o logaritmo da função de verossimilhança. O método de máxima pseudo-verossimilhança aproximada é utilizado quando a inferência em um determinado modelo envolve apenas alguns mas não todos os parâmetros. Nesse sentido, dizemos que o modelo apresenta parâmetros de interesse como também de perturbação. Quando substituímos a verdadeira covariável (variável não observada) por uma estimativa da esperança condicional da variável não observada dada a observada, o método é conhecido como calibração da regressão. Comparamos as metodologias de estimação mediante um estudo de simulação de Monte Carlo. Este estudo de simulação evidenciou que os métodos de máxima verossimilhança aproximada e máxima pseudo-verossimilhança aproximada tiveram melhor desempenho frente aos métodos de calibração da regressão e naïve (ingênuo). Utilizamos a linguagem de programação Ox (Doornik, 2011) como suporte computacional. Encontramos a distribuição assintótica dos estimadores, com o objetivo de calcular intervalos de confiança e testar hipóteses, tal como propõem Carroll et. al.(2006, Seção A.6.6), Guolo (2011) e Gong e Samaniego (1981). Ademais, são utilizadas as estatísticas da razão de verossimilhanças e gradiente para testar hipóteses. Num estudo de simulação realizado, avaliamos o desempenho dos testes da razão de verossimilhanças e gradiente. Desenvolvemos técnicas de diagnóstico para o modelo de regressão beta com erros de medida. Propomos o resíduo ponderado padronizado tal como definem Espinheira (2008) com o objetivo de verificar as suposições assumidas ao modelo e detectar pontos aberrantes. Medidas de influência global, tais como a distância de Cook generalizada e o afastamento da verossimilhança, são utilizadas para detectar pontos influentes. Além disso, utilizamos a técnica de influência local conformal sob três esquemas de perturbação (ponderação de casos, perturbação da variável resposta e perturbação da covariável com e sem erros de medida). Aplicamos nossos resultados a dois conjuntos de dados reais para exemplificar a teoria desenvolvida. Finalmente, apresentamos algumas conclusões e possíveis trabalhos futuros. / In this thesis, we propose a beta regression model with measurement error. Among nonlinear models with measurement error, such a model has not been studied extensively. Here, we discuss estimation methods such as maximum likelihood, pseudo-maximum likelihood, and regression calibration methods. The maximum likelihood method estimates parameters by directly maximizing the logarithm of the likelihood function. The pseudo-maximum likelihood method is used when the inference in a given model involves only some but not all parameters. Hence, we say that the model under study presents parameters of interest, as well as nuisance parameters. When we replace the true covariate (observed variable) with conditional estimates of the unobserved variable given the observed variable, the method is known as regression calibration. We compare the aforementioned estimation methods through a Monte Carlo simulation study. This simulation study shows that maximum likelihood and pseudo-maximum likelihood methods perform better than the calibration regression method and the naïve approach. We use the programming language Ox (Doornik, 2011) as a computational tool. We calculate the asymptotic distribution of estimators in order to calculate confidence intervals and test hypotheses, as proposed by Carroll et. al (2006, Section A.6.6), Guolo (2011) and Gong and Samaniego (1981). Moreover, we use the likelihood ratio and gradient statistics to test hypotheses. We carry out a simulation study to evaluate the performance of the likelihood ratio and gradient tests. We develop diagnostic tests for the beta regression model with measurement error. We propose weighted standardized residuals as defined by Espinheira (2008) to verify the assumptions made for the model and to detect outliers. The measures of global influence, such as the generalized Cook\'s distance and likelihood distance, are used to detect influential points. In addition, we use the conformal approach for evaluating local influence for three perturbation schemes: case-weight perturbation, respose variable perturbation, and perturbation in the covariate with and without measurement error. We apply our results to two sets of real data to illustrate the theory developed. Finally, we present our conclusions and possible future work.
9

Misturas de modelos de regressão linear com erros nas variáveis usando misturas de escala da normal assimétrica

Monteiro, Renata Evangelista, 92-99124-4468 12 March 2018 (has links)
Submitted by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br) on 2018-05-29T14:38:33Z No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) VersaoFinal.pdf: 2882901 bytes, checksum: a35c6d27fe0f9aa61dfe3a96244b3140 (MD5) / Approved for entry into archive by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br) on 2018-05-29T14:38:46Z (GMT) No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) VersaoFinal.pdf: 2882901 bytes, checksum: a35c6d27fe0f9aa61dfe3a96244b3140 (MD5) / Made available in DSpace on 2018-05-29T14:38:46Z (GMT). No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) VersaoFinal.pdf: 2882901 bytes, checksum: a35c6d27fe0f9aa61dfe3a96244b3140 (MD5) Previous issue date: 2018-03-12 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / The traditional estimation of mixture regression models is based on the assumption of normality of component errors and thus is sensitive to outliers, heavy-tailed and/or asymmetric errors. Another drawback is that, in general, the analysis is restricted to directly observed predictors. We present a proposal to deal with these issues simultaneously in the context of mixture regression by extending the classic normal model by assuming that, for each mixture component, the random errors and the covariates jointly follow a scale mixture of skew-normal distributions. It is also assumed that the covariates are observed with error. An MCMC-type algorithm to perform Bayesian inference is developed and, in order to show the efficacy of the proposed methods, simulated and real data sets are analyzed. / A estimação tradicional em mistura de modelos de regressão é baseada na suposição de normalidade para os erros aleatórios, sendo assim, sensível a outliers, caudas pesadas e erros assimétricos. Outra desvantagem é que, em geral, a análise é restrita a preditores que são observados diretamente. Apresentamos uma proposta para lidar com estas questões simultaneamente no contexto de mistura de regressões estendendo o modelo normal clássico. Assumimos que, conjuntamente e em cada componente da mistura, os erros aleatórios e as covariáveis seguem uma mistura de escala da distribuição normal assimétrica. Além disso, é feita a suposição de que as covariáveis são observadas com erro aditivo. Um algorítmo do tipo MCMC foi desenvolvido para realizar inferência Bayesiana. A eficácia do modelo proposto é verificada via análises de dados simulados e reais.

Page generated in 0.125 seconds