Spelling suggestions: "subject:"1ieasurement error"" "subject:"1ieasurement arror""
121 |
Regressão logística com erro de medida: comparação de métodos de estimação / Logistic regression model with measurement error: a comparison of estimation methodsRodrigues, Agatha Sacramento 27 June 2013 (has links)
Neste trabalho estudamos o modelo de regressão logística com erro de medida nas covariáveis. Abordamos as metodologias de estimação de máxima pseudoverossimilhança pelo algoritmo EM-Monte Carlo, calibração da regressão, SIMEX e naïve (ingênuo), método este que ignora o erro de medida. Comparamos os métodos em relação à estimação, através do viés e da raiz do erro quadrático médio, e em relação à predição de novas observações, através das medidas de desempenho sensibilidade, especificidade, verdadeiro preditivo positivo, verdadeiro preditivo negativo, acurácia e estatística de Kolmogorov-Smirnov. Os estudos de simulação evidenciam o melhor desempenho do método de máxima pseudoverossimilhança na estimação. Para as medidas de desempenho na predição não há diferença entre os métodos de estimação. Por fim, utilizamos nossos resultados em dois conjuntos de dados reais de diferentes áreas: área médica, cujo objetivo está na estimação da razão de chances, e área financeira, cujo intuito é a predição de novas observações. / We study the logistic model when explanatory variables are measured with error. Three estimation methods are presented, namely maximum pseudo-likelihood obtained through a Monte Carlo expectation-maximization type algorithm, regression calibration, SIMEX and naïve, which ignores the measurement error. These methods are compared through simulation. From the estimation point of view, we compare the different methods by evaluating their biases and root mean square errors. The predictive quality of the methods is evaluated based on sensitivity, specificity, positive and negative predictive values, accuracy and the Kolmogorov-Smirnov statistic. The simulation studies show that the best performing method is the maximum pseudo-likelihood method when the objective is to estimate the parameters. There is no difference among the estimation methods for predictive purposes. The results are illustrated in two real data sets from different application areas: medical area, whose goal is the estimation of the odds ratio, and financial area, whose goal is the prediction of new observations.
|
122 |
Modelos de regressão beta com erro nas variáveis / Beta regression model with measurement errorCarrasco, Jalmar Manuel Farfan 25 May 2012 (has links)
Neste trabalho de tese propomos um modelo de regressão beta com erros de medida. Esta proposta é uma área inexplorada em modelos não lineares na presença de erros de medição. Abordamos metodologias de estimação, como máxima verossimilhança aproximada, máxima pseudo-verossimilhança aproximada e calibração da regressão. O método de máxima verossimilhança aproximada determina as estimativas maximizando diretamente o logaritmo da função de verossimilhança. O método de máxima pseudo-verossimilhança aproximada é utilizado quando a inferência em um determinado modelo envolve apenas alguns mas não todos os parâmetros. Nesse sentido, dizemos que o modelo apresenta parâmetros de interesse como também de perturbação. Quando substituímos a verdadeira covariável (variável não observada) por uma estimativa da esperança condicional da variável não observada dada a observada, o método é conhecido como calibração da regressão. Comparamos as metodologias de estimação mediante um estudo de simulação de Monte Carlo. Este estudo de simulação evidenciou que os métodos de máxima verossimilhança aproximada e máxima pseudo-verossimilhança aproximada tiveram melhor desempenho frente aos métodos de calibração da regressão e naïve (ingênuo). Utilizamos a linguagem de programação Ox (Doornik, 2011) como suporte computacional. Encontramos a distribuição assintótica dos estimadores, com o objetivo de calcular intervalos de confiança e testar hipóteses, tal como propõem Carroll et. al.(2006, Seção A.6.6), Guolo (2011) e Gong e Samaniego (1981). Ademais, são utilizadas as estatísticas da razão de verossimilhanças e gradiente para testar hipóteses. Num estudo de simulação realizado, avaliamos o desempenho dos testes da razão de verossimilhanças e gradiente. Desenvolvemos técnicas de diagnóstico para o modelo de regressão beta com erros de medida. Propomos o resíduo ponderado padronizado tal como definem Espinheira (2008) com o objetivo de verificar as suposições assumidas ao modelo e detectar pontos aberrantes. Medidas de influência global, tais como a distância de Cook generalizada e o afastamento da verossimilhança, são utilizadas para detectar pontos influentes. Além disso, utilizamos a técnica de influência local conformal sob três esquemas de perturbação (ponderação de casos, perturbação da variável resposta e perturbação da covariável com e sem erros de medida). Aplicamos nossos resultados a dois conjuntos de dados reais para exemplificar a teoria desenvolvida. Finalmente, apresentamos algumas conclusões e possíveis trabalhos futuros. / In this thesis, we propose a beta regression model with measurement error. Among nonlinear models with measurement error, such a model has not been studied extensively. Here, we discuss estimation methods such as maximum likelihood, pseudo-maximum likelihood, and regression calibration methods. The maximum likelihood method estimates parameters by directly maximizing the logarithm of the likelihood function. The pseudo-maximum likelihood method is used when the inference in a given model involves only some but not all parameters. Hence, we say that the model under study presents parameters of interest, as well as nuisance parameters. When we replace the true covariate (observed variable) with conditional estimates of the unobserved variable given the observed variable, the method is known as regression calibration. We compare the aforementioned estimation methods through a Monte Carlo simulation study. This simulation study shows that maximum likelihood and pseudo-maximum likelihood methods perform better than the calibration regression method and the naïve approach. We use the programming language Ox (Doornik, 2011) as a computational tool. We calculate the asymptotic distribution of estimators in order to calculate confidence intervals and test hypotheses, as proposed by Carroll et. al (2006, Section A.6.6), Guolo (2011) and Gong and Samaniego (1981). Moreover, we use the likelihood ratio and gradient statistics to test hypotheses. We carry out a simulation study to evaluate the performance of the likelihood ratio and gradient tests. We develop diagnostic tests for the beta regression model with measurement error. We propose weighted standardized residuals as defined by Espinheira (2008) to verify the assumptions made for the model and to detect outliers. The measures of global influence, such as the generalized Cook\'s distance and likelihood distance, are used to detect influential points. In addition, we use the conformal approach for evaluating local influence for three perturbation schemes: case-weight perturbation, respose variable perturbation, and perturbation in the covariate with and without measurement error. We apply our results to two sets of real data to illustrate the theory developed. Finally, we present our conclusions and possible future work.
|
123 |
Modelos de regressão beta com erro nas variáveis / Beta regression model with measurement errorJalmar Manuel Farfan Carrasco 25 May 2012 (has links)
Neste trabalho de tese propomos um modelo de regressão beta com erros de medida. Esta proposta é uma área inexplorada em modelos não lineares na presença de erros de medição. Abordamos metodologias de estimação, como máxima verossimilhança aproximada, máxima pseudo-verossimilhança aproximada e calibração da regressão. O método de máxima verossimilhança aproximada determina as estimativas maximizando diretamente o logaritmo da função de verossimilhança. O método de máxima pseudo-verossimilhança aproximada é utilizado quando a inferência em um determinado modelo envolve apenas alguns mas não todos os parâmetros. Nesse sentido, dizemos que o modelo apresenta parâmetros de interesse como também de perturbação. Quando substituímos a verdadeira covariável (variável não observada) por uma estimativa da esperança condicional da variável não observada dada a observada, o método é conhecido como calibração da regressão. Comparamos as metodologias de estimação mediante um estudo de simulação de Monte Carlo. Este estudo de simulação evidenciou que os métodos de máxima verossimilhança aproximada e máxima pseudo-verossimilhança aproximada tiveram melhor desempenho frente aos métodos de calibração da regressão e naïve (ingênuo). Utilizamos a linguagem de programação Ox (Doornik, 2011) como suporte computacional. Encontramos a distribuição assintótica dos estimadores, com o objetivo de calcular intervalos de confiança e testar hipóteses, tal como propõem Carroll et. al.(2006, Seção A.6.6), Guolo (2011) e Gong e Samaniego (1981). Ademais, são utilizadas as estatísticas da razão de verossimilhanças e gradiente para testar hipóteses. Num estudo de simulação realizado, avaliamos o desempenho dos testes da razão de verossimilhanças e gradiente. Desenvolvemos técnicas de diagnóstico para o modelo de regressão beta com erros de medida. Propomos o resíduo ponderado padronizado tal como definem Espinheira (2008) com o objetivo de verificar as suposições assumidas ao modelo e detectar pontos aberrantes. Medidas de influência global, tais como a distância de Cook generalizada e o afastamento da verossimilhança, são utilizadas para detectar pontos influentes. Além disso, utilizamos a técnica de influência local conformal sob três esquemas de perturbação (ponderação de casos, perturbação da variável resposta e perturbação da covariável com e sem erros de medida). Aplicamos nossos resultados a dois conjuntos de dados reais para exemplificar a teoria desenvolvida. Finalmente, apresentamos algumas conclusões e possíveis trabalhos futuros. / In this thesis, we propose a beta regression model with measurement error. Among nonlinear models with measurement error, such a model has not been studied extensively. Here, we discuss estimation methods such as maximum likelihood, pseudo-maximum likelihood, and regression calibration methods. The maximum likelihood method estimates parameters by directly maximizing the logarithm of the likelihood function. The pseudo-maximum likelihood method is used when the inference in a given model involves only some but not all parameters. Hence, we say that the model under study presents parameters of interest, as well as nuisance parameters. When we replace the true covariate (observed variable) with conditional estimates of the unobserved variable given the observed variable, the method is known as regression calibration. We compare the aforementioned estimation methods through a Monte Carlo simulation study. This simulation study shows that maximum likelihood and pseudo-maximum likelihood methods perform better than the calibration regression method and the naïve approach. We use the programming language Ox (Doornik, 2011) as a computational tool. We calculate the asymptotic distribution of estimators in order to calculate confidence intervals and test hypotheses, as proposed by Carroll et. al (2006, Section A.6.6), Guolo (2011) and Gong and Samaniego (1981). Moreover, we use the likelihood ratio and gradient statistics to test hypotheses. We carry out a simulation study to evaluate the performance of the likelihood ratio and gradient tests. We develop diagnostic tests for the beta regression model with measurement error. We propose weighted standardized residuals as defined by Espinheira (2008) to verify the assumptions made for the model and to detect outliers. The measures of global influence, such as the generalized Cook\'s distance and likelihood distance, are used to detect influential points. In addition, we use the conformal approach for evaluating local influence for three perturbation schemes: case-weight perturbation, respose variable perturbation, and perturbation in the covariate with and without measurement error. We apply our results to two sets of real data to illustrate the theory developed. Finally, we present our conclusions and possible future work.
|
124 |
Modelos baseados no planejamento para análise de populações finitas / Design-based models for the analysis of finite populationsLuz Mery González Garcia 23 April 2008 (has links)
Estudamos o problema de obtenção de estimadores/preditores ótimos para combinações lineares de respostas coletadas de uma população finita por meio de amostragem aleatória simples. Nesse contexto, estendemos o modelo misto para populações finitas proposto por Stanek, Singer & Lencina (2004, Journal of Statistical Planning and Inference) para casos em que se incluem erros de medida (endógenos e exógenos) e informação auxiliar. Admitindo que as variâncias são conhecidas, mostramos que os estimadores/preditores propostos têm erro quadrático médio menor dentro da classe dos estimadores lineares não viciados. Por meio de estudos de simulação, comparamos o desempenho desses estimadores/preditores empíricos, i.e., obtidos com a substituição das componentes de variância por estimativas, com aquele de competidores tradicionais. Também, estendemos esses modelos para análise de estudos com estrutura do tipo pré-teste/pós-teste. Também por intermédio de simulação, comparamos o desempenho dos estimadores empíricos com o desempenho do estimador obtido por meio de técnicas clássicas de análise de medidas repetidas e com o desempenho do estimador obtido via análise de covariância por meio de mínimos quadrados, concluindo que os estimadores/ preditores empíricos apresentaram um menor erro quadrático médio e menor vício. Em geral, sugerimos o emprego dos estimadores/preditores empíricos propostos para dados com distribuição assimétrica ou amostras pequenas. / We consider optimal estimation of finite population parameters with data obtained via simple random samples. In this context, we extend a finite population mixed model proposed by Stanek, Singer & Lencina (2004, Journal of Statistical Planning and Inference) by including measurement errors (endogenous or exogenous) and auxiliary information. Assuming that variance components are known, we show that the proposed estimators/predictors have the smallest mean squared error in the class of unbiased estimators. Using simulation studies, we compare the performance of the empirical estimators/predictors obtained by replacing variance components with estimates with the performance of a traditional estimator. We also extend the finite population mixed model to data obtained via pretest-posttest designs. Through simulation studies, we compare the performance of the empirical estimator of the difference in gain between groups with the performance of the usual repeated measures estimator and with the performance of the usual analysis of covariance estimator obtained via ordinary least squares. The empirical estimator has smaller mean squared error and bias than the alternative estimators under consideration. In general, we recommend the use of the proposed estimators/ predictors for either asymmetric response distributions or small samples.
|
125 |
Regressão logística com erro de medida: comparação de métodos de estimação / Logistic regression model with measurement error: a comparison of estimation methodsAgatha Sacramento Rodrigues 27 June 2013 (has links)
Neste trabalho estudamos o modelo de regressão logística com erro de medida nas covariáveis. Abordamos as metodologias de estimação de máxima pseudoverossimilhança pelo algoritmo EM-Monte Carlo, calibração da regressão, SIMEX e naïve (ingênuo), método este que ignora o erro de medida. Comparamos os métodos em relação à estimação, através do viés e da raiz do erro quadrático médio, e em relação à predição de novas observações, através das medidas de desempenho sensibilidade, especificidade, verdadeiro preditivo positivo, verdadeiro preditivo negativo, acurácia e estatística de Kolmogorov-Smirnov. Os estudos de simulação evidenciam o melhor desempenho do método de máxima pseudoverossimilhança na estimação. Para as medidas de desempenho na predição não há diferença entre os métodos de estimação. Por fim, utilizamos nossos resultados em dois conjuntos de dados reais de diferentes áreas: área médica, cujo objetivo está na estimação da razão de chances, e área financeira, cujo intuito é a predição de novas observações. / We study the logistic model when explanatory variables are measured with error. Three estimation methods are presented, namely maximum pseudo-likelihood obtained through a Monte Carlo expectation-maximization type algorithm, regression calibration, SIMEX and naïve, which ignores the measurement error. These methods are compared through simulation. From the estimation point of view, we compare the different methods by evaluating their biases and root mean square errors. The predictive quality of the methods is evaluated based on sensitivity, specificity, positive and negative predictive values, accuracy and the Kolmogorov-Smirnov statistic. The simulation studies show that the best performing method is the maximum pseudo-likelihood method when the objective is to estimate the parameters. There is no difference among the estimation methods for predictive purposes. The results are illustrated in two real data sets from different application areas: medical area, whose goal is the estimation of the odds ratio, and financial area, whose goal is the prediction of new observations.
|
126 |
Evaluating the error of measurement due to categorical scaling with a measurement invariance approach to confirmatory factor analysisOlson, Brent 05 1900 (has links)
It has previously been determined that using 3 or 4 points on a categorized response scale will fail to produce a continuous distribution of scores. However, there is no evidence, thus far, revealing the number of scale points that may indeed possess an approximate or sufficiently continuous distribution. This study provides the evidence to suggest the level of categorization in discrete scales that makes them directly comparable to continuous scales in terms of their measurement properties. To do this, we first introduced a novel procedure for simulating discretely scaled data that was both informed and validated through the principles of the Classical True Score Model. Second, we employed a measurement invariance (MI) approach to confirmatory factor analysis (CFA) in order to directly compare the measurement quality of continuously scaled factor models to that of discretely scaled models. The simulated design conditions of the study varied with respect to item-specific variance (low, moderate, high), random error variance (none, moderate, high), and discrete scale categorization (number of scale points ranged from 3 to 101). A population analogue approach was taken with respect to sample size (N = 10,000). We concluded that there are conditions under which response scales with 11 to 15 scale points can reproduce the measurement properties of a continuous scale. Using response scales with more than 15 points may be, for the most part, unnecessary. Scales having from 3 to 10 points introduce a significant level of measurement error, and caution should be taken when employing such scales. The implications of this research and future directions are discussed.
|
127 |
Evaluating the error of measurement due to categorical scaling with a measurement invariance approach to confirmatory factor analysisOlson, Brent 05 1900 (has links)
It has previously been determined that using 3 or 4 points on a categorized response scale will fail to produce a continuous distribution of scores. However, there is no evidence, thus far, revealing the number of scale points that may indeed possess an approximate or sufficiently continuous distribution. This study provides the evidence to suggest the level of categorization in discrete scales that makes them directly comparable to continuous scales in terms of their measurement properties. To do this, we first introduced a novel procedure for simulating discretely scaled data that was both informed and validated through the principles of the Classical True Score Model. Second, we employed a measurement invariance (MI) approach to confirmatory factor analysis (CFA) in order to directly compare the measurement quality of continuously scaled factor models to that of discretely scaled models. The simulated design conditions of the study varied with respect to item-specific variance (low, moderate, high), random error variance (none, moderate, high), and discrete scale categorization (number of scale points ranged from 3 to 101). A population analogue approach was taken with respect to sample size (N = 10,000). We concluded that there are conditions under which response scales with 11 to 15 scale points can reproduce the measurement properties of a continuous scale. Using response scales with more than 15 points may be, for the most part, unnecessary. Scales having from 3 to 10 points introduce a significant level of measurement error, and caution should be taken when employing such scales. The implications of this research and future directions are discussed.
|
128 |
Labor market search frictions in developing countries : evidence from the MENA region : Egypt and Jordan / Les modèles de recherche d'emploi dans les pays en voie de développementYassin, Shaimaa 04 December 2015 (has links)
Dans les pays en voie de développement, les politiques visent à augmenter les opportunités d'emploi afin d'élever les revenus et les niveaux de vie des populations. Parmi ces pays, les pays arabes de la région MENA ont récemment connu une vague de soulèvement populaire, faisant suite aux accroissements de la pauvreté, des inégalités et de l'exclusion, résultats des faibles performances du marché du travail. Comme l'analyse des flux est devenu l'outil de base de l'économie du travail moderne, cette thèse propose d'expliquer le fonctionnement de ces marchés du travail assez spécifiques, particulièrement ceux de l'Egypte et de la Jordanie, en utilisant la théorie de la recherche d'emploi. Elle se penche sur l'analyse des créations et destructions d'emploi ainsi que des mobilités entre emplois. Elle montre que ces marchés sont très rigides. L'impact de l'introduction des réformes structurelles, visant à flexibiliser l'emploi est ensuite discuté de manière empirique ainsi que théorique. Les résultats montrent que la baisse des coûts de licenciement en Egypte a augmenté significativement les destructions d'emploi, mais n'a eu aucun impact sur les créations. Cet échec partiel de la réforme est un paradoxe empirique, qui est interprété théoriquement par un effet d'éviction dû à l'augmentation du coût de la corruption ou/et à l'augmentation des salaires du secteur public. Une extension originale du modèle théorique de Mortensen-Pissarides est alors développée, permettant l'existence de trois secteurs, public, privé formel et privée informel. Ce cadre rend compte de la nature particulière des pays en voie de développement. Pour examiner la qualité des emplois et pour étudier les avancements dans l'échelle des salaires, une estimation structurelle du modèle de Burdett-Mortensen est ensuite proposée. Elle permet d'étudier et mesurer les frictions d'appariement sur les marchés du travail égyptien et jordanien. Les paramètres estimés sont extrêmement faibles, soulignant la forte rigidité de ces marchés. Le marché du travail jordanien s'avère, par contre, être plus flexible que l'égyptien. Compte tenu de la non-disponibilité de données de panels annuelles dans ces pays, il est montré que des données de panel rétrospectives peuvent être utilisées, pour étudier les transitions de court terme sur ces marchés du travail. Ces données de panel sont par contre soumises à un biais de mémoire. Une méthode originale de correction du biais de mémoire est donc proposée et développée. Elle vise à corriger les transitions à la fois à un niveau macro, en utilisant une méthode de moments simulés, ainsi qu'au niveau micro, en construisant des matrices de poids. / Policy prescriptions for poor developing countries struggle to expand employment opportunities toraise their income levels. Among these are the MENA Arab countries that have recently experiencedan unprecedented tide of popular uprisings following the rising poverty, inequality and exclusion, muchof which is related to the labor market. Since the flow approach to labor markets has become the basic toolbox to modern labor economics, this thesis has at its central insight explaining the functioning ofthose specific labor markets, particularly the Egyptian and Jordanian, using the search equilibrium theory. It looks at analyzing job accession, separations and mobility trends. Overall, evidence of highlevels of rigidity is revealed. The impact of introducing flexible employment protection regulations in these rigid markets is then discussed both empirically and theoretically. Findings show that lowering firing costs in Egypt increased significantly the job separations, but had no impact on job creations.This partial failure of the liberalization reform is interpreted theoretically by a crowding out effect due to increased corruption set up costs or increased public sector wages. A novel theoretical matching model a la Mortensen Pissarides is developped allowing for the existence of public, formal private and informal private sectors, reflecting the particular nature of developing countries. Workers’ movements up the job ladder is then explored through a structural estimation of the frictional parameters in a job search model a la Burdett Mortensen. These markets are found to have very high levels of search frictions especially among the young workers. Given the non-availability of panel data to study labor market flows, longitudinal retrospective panel datasets are extracted from the Egypt and Jordan Labor Market Panel Surveys. These panels are then compared to available contemporaneous crosssectional information, showing that they suffer from recall and design measurement erros. An original methodology is therefore proposed and developped to correct the biased labor market transitionsboth on the aggregate macro-level, using a Simulated Method of Moments (SMM), as well as on themicro-individual transaction level, using constructed micro-data weights.
|
129 |
O método de máxima Lq-verossimilhança em modelos com erros de mediçãoCavalieri, Jacqueline 29 February 2012 (has links)
Made available in DSpace on 2016-06-02T20:06:05Z (GMT). No. of bitstreams: 1
4180.pdf: 1039417 bytes, checksum: d09a61a4895fb47d1c2456468800fc2f (MD5)
Previous issue date: 2012-02-29 / Financiadora de Estudos e Projetos / In this work we consider a new estimator proposed by Ferrari & Yang (2010), called the maximum Lq-likelihood estimator (MLqE), to estimate the parameters of the measurement error models, in particular, the structural model. The new estimator extends the classical maximum likelihood estimator (MLE) and its based on the minimization, by means of the Kullback-Leibler (KL) divergence, of the discrepancy between a distribuiton in a family and one that modifies the true distribution by the degree of distortion q. Depending on the choice of q, the transformed distribution can diminish or emphasize the role of extreme observations, unlike the ML method that equally weights each observation. For small and moderate sample sizes, the MLqE can trade bias for precision, causing a reduction of the mean square error (MSE). The structural model has the characteristic of non-identifiability. For this reason, we must make assumptions on the parameters to overcome the non-identifiability. We perform a analytical study and a simulation study to compare MLqE and MLE. To gauge performance of the estimators, we compute measures of overall performance, bias, standard deviation, standard error, MSE, probability of coverage and length of confidence intervals. / Neste trabalho utilizaremos um novo estimador proposto por Ferrari & Yang (2010), denominado de estimador de máxima Lq-verossimilhança (EMLqV), na estimação dos parâmetros de modelos com erros de medição estruturais normais. O novo estimador é uma generalização do estimador de máxima verossimilhança (EMV) usual e sua construção baseia-se na comparação, utilizando divergência de Kullback-Leibler (KL), entre duas distribuições, a distribuição inalterada e a distribuição modificada pelo grau de distorção da função de verossimilhança (q). Conforme a escolha para q, a distribuição modificada poderá atenuar ou exaltar o papel das observações extremas, diferentemente do EMV usual que atribui os mesmos pesos a todas as observações. Na comparação entre as duas distribuições pela divergência de KL é inserida certa quantidade de viés no estimador resultante, que é controlada pelo parâmetro q. O aumento do viés do estimador MLqV pode ser compensado com a redução de sua variância, pela escolha apropriada de q. O modelo estrutural possui a característica de ser inidentificável. Para torná-lo identificável faremos suposições sobre os parâmetros do modelo, analisando cinco casos de identificabilidade do modelo. A comparação entre os métodos MLqV e MV na estimação dos parâmetros do modelo será baseada em resultados analíticos e em simulações, sendo calculadas medidas de desempenho global, viés, desvio padrão (DP), erro padrão estimado (EP), erro quadrático médio (EQM), probabilidade de cobertura e amplitude dos intervalos de confiança.
|
130 |
Inferência em modelos de regressão com erros de medição sob enfoque estrutural para observações replicadasTomaya, Lorena Yanet Cáceres 10 March 2014 (has links)
Made available in DSpace on 2016-06-02T20:06:10Z (GMT). No. of bitstreams: 1
6069.pdf: 3171774 bytes, checksum: a737da63d3ddeb0d44dfc38839337d42 (MD5)
Previous issue date: 2014-03-10 / Financiadora de Estudos e Projetos / The usual regression model fits data under the assumption that the explanatory variable is measured without error. However, in many situations the explanatory variable is observed with measurement errors. In these cases, measurement error models are recommended. We study a structural measurement error model for replicated observations. Estimation of parameters of the proposed models was obtained by the maximum likelihood and maximum pseudolikelihood methods. The behavior of the estimators was assessed in a simulation study with different numbers of replicates. Moreover, we proposed the likelihood ratio test, Wald test, score test, gradient test, Neyman's C test and pseudolikelihood ratio test in order to test hypotheses of interest related to the parameters. The proposed test statistics are assessed through a simulation study. Finally, the model was fitted to a real data set comprising measurements of concentrations of chemical elements in samples of Egyptian pottery. The computational implementation was developed in R language. / Um dos procedimentos usuais para estudar uma relação entre variáveis é análise de regressão. O modelo de regressão usual ajusta os dados sob a suposição de que as variáveis explicativas são medidas sem erros. Porém, em diversas situações as variáveis explicativas apresentam erros de medição. Nestes casos são utilizados os modelos com erros de medição. Neste trabalho estudamos um modelo estrutural com erros de medição para observações replicadas. A estimação dos parâmetros dos modelos propostos foi efetuada pelos métodos de máxima verossimilhança e de máxima pseudoverossimilhança. O comportamento dos estimadores de alguns parâmetros foi analisado por meio de simulações para diferentes números de réplicas. Além disso, são propostos o teste da razão de verossimilhanças, o teste de Wald, o teste escore, o teste gradiente, o teste C de Neyman e o teste da razão de pseudoverossimilhanças com o objetivo de testar algumas hipóteses de interesse relacionadas aos parâmetros. As estatísticas propostas são avaliadas por meio de simulações. Finalmente, o modelo foi ajustado a um conjunto de dados reais referentes a medições de concentrações de elementos químicos em amostras de cerâmicas egípcias. A implementação computacional foi desenvolvida em linguagem R.
|
Page generated in 0.0541 seconds