• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 66
  • 6
  • 3
  • Tagged with
  • 75
  • 75
  • 58
  • 50
  • 21
  • 17
  • 15
  • 14
  • 14
  • 14
  • 13
  • 13
  • 13
  • 12
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Extensions of the normal distribution using the odd log-logistic family: theory and applications / Extensões do normal distribuição utilizando a família odd log-logística: teoria e aplicações

Altemir da Silva Braga 23 June 2017 (has links)
In this study we propose three new distributions and a study with longitudinal data. The first was the Odd log-logistic normal distribution: theory and applications in analysis of experiments, the second was Odd log-logistic t Student: theory and applications, the third was the Odd log-logistic skew normal: the new distribution skew-bimodal with applications in analysis of experiments and the fourth regression model with random effect of the Odd log-logistic skew normal distribution: an application in longitudinal data. Some have been demonstrated such as symmetry, quantile function, some expansions, ordinary incomplete moments, mean deviation and the moment generating function. The estimation of the model parameters were approached by the method of maximum likelihood. In applications were used regression models to data from a completely randomized design (CRD) or designs completely randomized in blocks (DBC). Thus, the models can be used in practical situations for as a completely randomized designs or completely randomized blocks designs, mainly, with evidence of asymmetry, kurtosis and bimodality. / A distribuição normal é uma das mais importantes na área de estatística. Porém, não é adequada para ajustar dados que apresentam características de assimetria ou de bimodalidade, uma vez que tal distribuição possui apenas os dois primeiros momentos, diferentes de zero, ou seja, a média e o desvio-padrão. Por isso, muitos estudos são realizados com a finalidade de criar novas famílias de distribuições que possam modelar ou a assimetria ou a curtose ou a bimodalidade dos dados. Neste sentido, é importante que estas novas distribuições tenham boas propriedades matemáticas e, também, a distribuição normal como um submodelo. Porém, ainda, são poucas as classes de distribuições que incluem a distribuição normal como um modelo encaixado. Dentre essas propostas destacam-se: a skew-normal, a beta-normal, a Kumarassuamy-normal e a gama-normal. Em 2013 foi proposta a nova família X de distribuições Odd log-logística-G com o objetivo de criar novas distribuições de probabildade. Assim, utilizando as distribuições normal e a skew-normal como função base foram propostas três novas distribuições e um quarto estudo com dados longitudinais. A primeira, foi a distribuição Odd log-logística normal: teoria e aplicações em dados de ensaios experimentais; a segunda foi a distribuição Odd log-logística t Student: teoria e aplicações; a terceira foi a distribuição Odd log-logística skew-bimodal com aplicações em dados de ensaios experimentais e o quarto estudo foi o modelo de regressão com efeito aleatório para a distribuição distribuição Odd log-logística skew-bimodal: uma aplicação em dados longitudinais. Estas distribuições apresentam boas propriedades tais como: assimetria, curtose e bimodalidade. Algumas delas foram demonstradas como: simetria, função quantílica, algumas expansões, os momentos incompletos ordinários, desvios médios e a função geradora de momentos. A flexibilidade das novas distrições foram comparada com os modelos: skew-normal, beta-normal, Kumarassuamy-normal e gama-normal. A estimativas dos parâmetros dos modelos foram obtidas pelo método da máxima verossimilhança. Nas aplicações foram utilizados modelos de regressão para dados provenientes de delineamentos inteiramente casualizados (DIC) ou delineamentos casualizados em blocos (DBC). Além disso, para os novos modelos, foram realizados estudos de simulação para verificar as propriedades assintóticas das estimativas de parâmetros. Para verificar a presença de valores extremos e a qualidade dos ajustes foram propostos os resíduos quantílicos e a análise de sensibilidade. Portanto, os novos modelos estão fundamentados em propriedades matemáticas, estudos de simulação computacional e com aplicações para dados de delineamentos experimentais. Podem ser utilizados em ensaios inteiramente casualizados ou em blocos casualizados, principalmente, com dados que apresentem evidências de assimetria, curtose e bimodalidade.
52

Modelos preditivos para LGD / Predictive models for LGD

Silva, João Flávio Andrade 04 May 2018 (has links)
As instituições financeiras que pretendem utilizar a IRB (Internal Ratings Based) avançada precisam desenvolver métodos para estimar a componente de risco LGD (Loss Given Default). Desde a década de 1950 são apresentadas propostas para modelagem da PD (Probability of default), em contrapartida, a previsão da LGD somente recebeu maior atenção após a publicação do Acordo Basileia II. A LGD possui ainda uma literatura pequena, se comparada a PD, e não há um método eficiente em termos de acurácia e interpretação como é a regressão logística para a PD. Modelos de regressão para LGD desempenham um papel fundamental na gestão de risco das instituições financeiras. Devido sua importância este trabalho propõe uma metodologia para quantificar a componente de risco LGD. Considerando as características relatadas sobre a distribuição da LGD e na forma flexível que a distribuição beta pode assumir, propomos uma metodologia de estimação da LGD por meio do modelo de regressão beta bimodal inflacionado em zero. Desenvolvemos a distribuição beta bimodal inflacionada em zero, apresentamos algumas propriedades, incluindo momentos, definimos estimadores via máxima verossimilhança e construímos o modelo de regressão para este modelo probabilístico, apresentamos intervalos de confiança assintóticos e teste de hipóteses para este modelo, bem como critérios para seleção de modelos, realizamos um estudo de simulação para avaliar o desempenho dos estimadores de máxima verossimilhança para os parâmetros da distribuição beta bimodal inflacionada em zero. Para comparação com nossa proposta selecionamos os modelos de regressão beta e regressão beta inflacionada, que são abordagens mais usuais, e o algoritmo SVR , devido a significativa superioridade relatada em outros trabalhos. / Financial institutions willing to use the advanced Internal Ratings Based (IRB) need to develop methods to estimate the LGD (Loss Given Default) risk component. Proposals for PD (Probability of default) modeling have been presented since the 1950s, in contrast, LGDs forecast has received more attention only after the publication of the Basel II Accord. LGD also has a small literature, compared to PD, and there is no efficient method in terms of accuracy and interpretation such as logistic regression for PD. Regression models for LGD play a key role in the risk management of financial institutions, due to their importance this work proposes a methodology to quantify the LGD risk component. Considering the characteristics reported on the distribution of LGD and in the flexible form that the beta distribution may assume, we propose a methodology for estimation of LGD using the zero inflated bimodal beta regression model. We developed the zero inflated bimodal beta distribution, presented some properties, including moments, defined estimators via maximum likelihood and constructed the regression model for this probabilistic model, presented asymptotic confidence intervals and hypothesis test for this model, as well as selection criteria of models, we performed a simulation study to evaluate the performance of the maximum likelihood estimators for the parameters of the zero inflated bimodal beta distribution. For comparison with our proposal we selected the beta regression models and inflated beta regression, which are more usual approaches, and the SVR algorithm, due to the significant superiority reported in other studies.
53

Modelos de regressão beta inflacionados / Inflated beta regression models

Ospina Martinez, Raydonal 04 April 2008 (has links)
Nos últimos anos têm sido desenvolvidos modelos de regressão beta, que têm uma variedade de aplicações práticas como, por exemplo, a modelagem de taxas, razões ou proporções. No entanto, é comum que dados na forma de proporções apresentem zeros e/ou uns, o que não permite admitir que os dados provêm de uma distribuição contínua. Nesta tese, são propostas, distribuições de mistura entre uma distribuição beta e uma distribuição de Bernoulli, degenerada em zero e degenerada em um para modelar dados observados nos intervalos [0, 1], [0, 1) e (0, 1], respectivamente. As distribuições propostas são inflacionadas no sentido de que a massa de probabilidade em zero e/ou um excede o que é permitido pela distribuição beta. Propriedades dessas distribuições são estudadas, métodos de estimação por máxima verossimilhança e momentos condicionais são comparados. Aplicações a vários conjuntos de dados reais são examinadas. Desenvolvemos também modelos de regressão beta inflacionados assumindo que a distribuição da variável resposta é beta inflacionada. Estudamos estimação por máxima verossimilhança. Derivamos expressões em forma fechada para o vetor escore, a matriz de informação de Fisher e sua inversa. Discutimos estimação intervalar para diferentes quantidades populacionais (parâmetros de regressão, parâmetro de precisão) e testes de hipóteses assintóticos. Derivamos expressões para o viés de segunda ordem dos estimadores de máxima verossimilhança dos parâmetros, possibilitando a obtenção de estimadores corrigidos que são mais precisos que os não corrigidos em amostras finitas. Finalmente, desenvolvemos técnicas de diagnóstico para os modelos de regressão beta inflacionados, sendo adotado o método de influência local baseado na curvatura normal conforme. Ilustramos a teoria desenvolvida em um conjuntos de dados reais. / The last years have seen new developments in the theory of beta regression models, which are useful for modelling random variables that assume values in the standard unit interval such as proportions, rates and fractions. In many situations, the dependent variable contains zeros and/or ones. In such cases, continuous distributions are not suitable for modeling this kind of data. In this thesis we propose mixed continuous-discrete distributions to model data observed on the intervals [0, 1],[0, 1) and (0, 1]. The proposed distributions are inflated beta distributions in the sense that the probability mass at 0 and/or 1 exceeds what is expected for the beta distribution. Properties of the inflated beta distributions are given. Estimation based on maximum likelihood and conditional moments is discussed and compared. Empirical applications using real data set are provided. Further, we develop inflated beta regression models in which the underlying assumption is that the response follows an inflated beta law. Estimation is performed by maximum likelihood. We provide closed-form expressions for the score function, Fishers information matrix and its inverse. Interval estimation for different population quantities (such as regression parameters, precision parameter, mean response) is discussed and tests of hypotheses on the regression parameters can be performed using asymptotic tests. We also derive the second order biases of the maximum likelihood estimators and use them to define bias-adjusted estimators. The numerical results show that bias reduction can be effective in finite samples. We also develop a set of diagnostic techniques that can be employed to identify departures from the postulated model and influential observations. To that end, we adopt the local influence approach based in the conformal normal curvature. Finally, we consider empirical examples to illustrate the theory developed.
54

Regressão logística com erro de medida: comparação de métodos de estimação / Logistic regression model with measurement error: a comparison of estimation methods

Rodrigues, Agatha Sacramento 27 June 2013 (has links)
Neste trabalho estudamos o modelo de regressão logística com erro de medida nas covariáveis. Abordamos as metodologias de estimação de máxima pseudoverossimilhança pelo algoritmo EM-Monte Carlo, calibração da regressão, SIMEX e naïve (ingênuo), método este que ignora o erro de medida. Comparamos os métodos em relação à estimação, através do viés e da raiz do erro quadrático médio, e em relação à predição de novas observações, através das medidas de desempenho sensibilidade, especificidade, verdadeiro preditivo positivo, verdadeiro preditivo negativo, acurácia e estatística de Kolmogorov-Smirnov. Os estudos de simulação evidenciam o melhor desempenho do método de máxima pseudoverossimilhança na estimação. Para as medidas de desempenho na predição não há diferença entre os métodos de estimação. Por fim, utilizamos nossos resultados em dois conjuntos de dados reais de diferentes áreas: área médica, cujo objetivo está na estimação da razão de chances, e área financeira, cujo intuito é a predição de novas observações. / We study the logistic model when explanatory variables are measured with error. Three estimation methods are presented, namely maximum pseudo-likelihood obtained through a Monte Carlo expectation-maximization type algorithm, regression calibration, SIMEX and naïve, which ignores the measurement error. These methods are compared through simulation. From the estimation point of view, we compare the different methods by evaluating their biases and root mean square errors. The predictive quality of the methods is evaluated based on sensitivity, specificity, positive and negative predictive values, accuracy and the Kolmogorov-Smirnov statistic. The simulation studies show that the best performing method is the maximum pseudo-likelihood method when the objective is to estimate the parameters. There is no difference among the estimation methods for predictive purposes. The results are illustrated in two real data sets from different application areas: medical area, whose goal is the estimation of the odds ratio, and financial area, whose goal is the prediction of new observations.
55

Modelos de regressão beta com erro nas variáveis / Beta regression model with measurement error

Carrasco, Jalmar Manuel Farfan 25 May 2012 (has links)
Neste trabalho de tese propomos um modelo de regressão beta com erros de medida. Esta proposta é uma área inexplorada em modelos não lineares na presença de erros de medição. Abordamos metodologias de estimação, como máxima verossimilhança aproximada, máxima pseudo-verossimilhança aproximada e calibração da regressão. O método de máxima verossimilhança aproximada determina as estimativas maximizando diretamente o logaritmo da função de verossimilhança. O método de máxima pseudo-verossimilhança aproximada é utilizado quando a inferência em um determinado modelo envolve apenas alguns mas não todos os parâmetros. Nesse sentido, dizemos que o modelo apresenta parâmetros de interesse como também de perturbação. Quando substituímos a verdadeira covariável (variável não observada) por uma estimativa da esperança condicional da variável não observada dada a observada, o método é conhecido como calibração da regressão. Comparamos as metodologias de estimação mediante um estudo de simulação de Monte Carlo. Este estudo de simulação evidenciou que os métodos de máxima verossimilhança aproximada e máxima pseudo-verossimilhança aproximada tiveram melhor desempenho frente aos métodos de calibração da regressão e naïve (ingênuo). Utilizamos a linguagem de programação Ox (Doornik, 2011) como suporte computacional. Encontramos a distribuição assintótica dos estimadores, com o objetivo de calcular intervalos de confiança e testar hipóteses, tal como propõem Carroll et. al.(2006, Seção A.6.6), Guolo (2011) e Gong e Samaniego (1981). Ademais, são utilizadas as estatísticas da razão de verossimilhanças e gradiente para testar hipóteses. Num estudo de simulação realizado, avaliamos o desempenho dos testes da razão de verossimilhanças e gradiente. Desenvolvemos técnicas de diagnóstico para o modelo de regressão beta com erros de medida. Propomos o resíduo ponderado padronizado tal como definem Espinheira (2008) com o objetivo de verificar as suposições assumidas ao modelo e detectar pontos aberrantes. Medidas de influência global, tais como a distância de Cook generalizada e o afastamento da verossimilhança, são utilizadas para detectar pontos influentes. Além disso, utilizamos a técnica de influência local conformal sob três esquemas de perturbação (ponderação de casos, perturbação da variável resposta e perturbação da covariável com e sem erros de medida). Aplicamos nossos resultados a dois conjuntos de dados reais para exemplificar a teoria desenvolvida. Finalmente, apresentamos algumas conclusões e possíveis trabalhos futuros. / In this thesis, we propose a beta regression model with measurement error. Among nonlinear models with measurement error, such a model has not been studied extensively. Here, we discuss estimation methods such as maximum likelihood, pseudo-maximum likelihood, and regression calibration methods. The maximum likelihood method estimates parameters by directly maximizing the logarithm of the likelihood function. The pseudo-maximum likelihood method is used when the inference in a given model involves only some but not all parameters. Hence, we say that the model under study presents parameters of interest, as well as nuisance parameters. When we replace the true covariate (observed variable) with conditional estimates of the unobserved variable given the observed variable, the method is known as regression calibration. We compare the aforementioned estimation methods through a Monte Carlo simulation study. This simulation study shows that maximum likelihood and pseudo-maximum likelihood methods perform better than the calibration regression method and the naïve approach. We use the programming language Ox (Doornik, 2011) as a computational tool. We calculate the asymptotic distribution of estimators in order to calculate confidence intervals and test hypotheses, as proposed by Carroll et. al (2006, Section A.6.6), Guolo (2011) and Gong and Samaniego (1981). Moreover, we use the likelihood ratio and gradient statistics to test hypotheses. We carry out a simulation study to evaluate the performance of the likelihood ratio and gradient tests. We develop diagnostic tests for the beta regression model with measurement error. We propose weighted standardized residuals as defined by Espinheira (2008) to verify the assumptions made for the model and to detect outliers. The measures of global influence, such as the generalized Cook\'s distance and likelihood distance, are used to detect influential points. In addition, we use the conformal approach for evaluating local influence for three perturbation schemes: case-weight perturbation, respose variable perturbation, and perturbation in the covariate with and without measurement error. We apply our results to two sets of real data to illustrate the theory developed. Finally, we present our conclusions and possible future work.
56

APLICAÇÃO DE REGRESSÃO LINEAR MÚLTIPLA NA ANÁLISE DA DINÂMICA DE CÁTIONS TROCÁVEIS EM UM SISTEMA SOLO-PLANTA IRRIGADO COM ÁGUA RESIDUÁRIA

D’ávila, Rodrigo Souza 22 July 2013 (has links)
Made available in DSpace on 2017-07-21T14:19:22Z (GMT). No. of bitstreams: 1 Rodrigo Souza.pdf: 360141 bytes, checksum: 6bf9d8f9ce30fb6fa717ad9798736d1e (MD5) Previous issue date: 2013-07-22 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / The competition of water in different regions of the world, between agriculture and the human needs, has led to restrictions in the increase of food production, resulting in search for alternative sources. The use of effluent from secondary treatment of sewage (ETSE) has been a common practice in several seasonal situations. The aims of this work were: (i) create regression models to assist in the understanding of the dynamics of acidity (current, exchangeable and total), the exchangeable bases and the exchangeable sodium percentage (ESP) in the soil, through the use of multiple linear regression (RLM), considering variables of soil, soil solution, plant, ETSE, weather and complementary variables, and (ii) compare the generated models with the standard method and the models generated from selecting variables. For the construction of the MLR models, the method of stepwise variable selection, forward and backward were used and compared with the standard method through the index adjusted determination coefficient (R2adj) and the variance inflation factor (VIF). The models developed from the method of variables selection were the most indicated. All the attributes in the scenarios and layers of the studied soils were not explained by the same group of variables. In general the results were consistent as far as the pH increased, the H + Al (total acidity) and Al (potential acidity) concentration decreased and Ca (calcium), Mg (magnesium) were increased. Because of the low-K (potassium) in the soil, the contribution of this nutrient by irrigation with ETSE cause little influence in the concentrations of this element. Due to the high sodium absorption ratio (SAR) in the effluent concentrations of this element, as well as PST were increased over time in soil. The accumulation and export of Na (sodium) by plants was not sufficient to prevent the increase in the concentrations of exchangeable Na and ESP in all studied scenarios and layers. / A concorrência de água entre o setor agrícola e as necessidades humanas em diversas regiões do mundo tem ocasionado restrições no incremento da produção de alimentos, implicando em buscas por fontes alternativas. A utilização de efluente de tratamento secundário de esgoto (ETSE) tem sido uma prática comum em várias situações sazonais. Objetivou-se neste trabalho:(i) criar modelos de regressão para auxiliar no entendimento da dinâmica da acidez (trocável e total), bases trocáveis e percentual de sódio trocável (PST) no solo, através do uso de regressão linear múltipla (RLM), considerando variáveis de solo, solução no solo, planta, ETSE, meteorológicas e variáveis complementares; e (ii) comparar os modelos gerados com método padrão e os modelos gerados com seleção de variáveis. Para construção dos modelos de RLM foram utilizados o método de seleção de variáveis stepwise, forward e backward e comparados com o método padrão, através dos índices de coeficiente de determinação ajustado (R2adj) e do fator de inflação de variância (FIV). Os modelos desenvolvidos a partir do método de seleção de variáveis foram os mais indicados. Todos os atributos nos cenários e camadas de solos estudados não foram explicadas por um mesmo grupo de variáveis. De modo geral, os resultados foram coerentes, pois na medida em que o pH aumentou, as concentrações H+Al e Al diminuíram e as de Ca e Mg foram incrementadas. O baixo teor de K no solo, evidenciou que o aporte desse nutriente pela irrigação com ETSE pouco influência as concentrações desse elemento. Devido à alta razão de adsorção de sódio (RAS) no ETSE as concentrações deste elemento, bem como PST foram aumentadas ao longo do tempo no solo. O acúmulo e a exportação de Na pelas plantas não foi suficiente para evitar o incremento nas concentrações de Na trocável e PST em todos os cenários e camadas estudados.
57

Predição de fator de simultaneidade através de modelos de regressão para proporções contínuas / Prediction of simultaneity factor using regression models for continuous proportions.

Zerbinatti, Luiz Fernando Molinari 29 February 2008 (has links)
O fator de simultaneidade é fundamental no planejamento de redes de distribuição de gás natural. Trata-se de um multiplicador entre 0 e 1 que ajusta o consumo total teórico de um número de aparelhos de utilização em condições reais. Em 2005 o Instituto de Pesquisas Tecnológicas (IPT) e a Companhia de Gás de São Paulo (COMGÁS) realizaram um estudo no qual determinou-se o fator de simultaneidade em um conjunto de edificações residenciais. Um modelo de regressão foi proposto para expressar o fator de simultaneidade em termos da potência total instalada. O modelo ajustado pode ser utilizado para predizer o fator de simultaneidade em novas edificações. O modelo em questão é um modelo de regressão linear normal no qual a variável resposta é o logaritmo do fator de simultaneidade. Nesta dissertação, o objetivo é investigar outras possibilidades de modelos de regressão adequados aos dados obtidos pelo IPT e pela COMGÁS. Especial atenção é dada ao modelo de regressão beta proposto por Ferrari e Cribari-Neto (Journal of Applied Statistics, 2004) por possuir vantagens sobre o modelo de regressão linear normal. O modelo de regressão beta assume que, dadas as covariáveis, a variável resposta possui distribuição beta, sendo adequado para modelar dados observados no intervalo unitário. Desta forma, a transformação na variável resposta - o fator de simultaneidade - é desnecessária. Além disso, é proposta uma nova abordagem para a predição do fator de simultaneidade, diferente de todas as abordagens pesquisadas na literatura, utilizando a técnica de bootstrap. / The simultaneity factor is fundamental in planning gas distribution networks. It is a multiplicator between 0 and 1 that adjusts the theoretical total consumption of a number of devices to realistic conditions. In 2005, the Instituto de Pesquisas Tecnológicas (IPT) and the Companhia de Gás de São Paulo (COMGÁS) performed a study in which the simultaneity factor of gas consumption in a set of residential buildings have been determined. A regression model was proposed to express the simultaneity factor in terms of the total power of installed equipment. The fitted model can be used to predict the simultaneity factor in new buildings. The model they proposed is a normal linear regression model in which the response variable is the logarithm of the simultaneity factor. In the present dissertation, our aim is to investigate other possible regression models suitable to the data obtained by IPT and CONGÁS. Emphasis is given to the beta regression model proposed by Ferrari and Cribari-Neto (Journal of Applied Statistics, 2004) which has a number of advantages over normal linear regression models. The beta regression model assumes that, given the covariates, the response variable has a beta distribution, which is adequate to model data observed in the unit interval. Therefore, no transformation in the response variable, the simultaneity factor, is needed. Additionally, we present a new approach for the prediction of the simultaneity factor, that is different from all the approaches shown in the literature, using the bootstrap technique.
58

Erros não detectáveis no processo de estimação de estado em sistemas elétricos de potência / Undetectable errors in power system state estimation

Fabio, Lizandra Castilho 28 July 2006 (has links)
Na tentativa de contornar os problemas ainda existentes para a detecção e identificação de erros grosseiros (EGs) no processo de estimação de estado em sistemas elétricos de potência (EESEP), realiza-se, neste trabalho, uma análise da formulação dos estimadores aplicados a sistemas elétricos de potência, em especial, o de mínimos quadrados ponderados, tendo em vista evidenciar as limitações dos mesmos para o tratamento de EGs. Em razão da dificuldade de detectar EGs em medidas pontos de alavancamento, foram também analisadas as metodologias desenvolvidas para identificação de medidas pontos de alavancamento. Através da formulação do processo de EESEP como um problema de álgebra linear, demonstra-se o porquê da impossibilidade de detectar EGs em determinadas medidas redundantes, sendo proposto, na seqüência, um método para identificação de medidas pontos de alavancamento. Para reduzir os efeitos maléficos dessas medidas no processo de EESEP verifica-se a possibilidade de aplicar outras técnicas estatísticas para o processamento de EGs, bem como técnicas para obtenção de uma matriz de ponderação adequada. / To overcome the problems still existent for gross errors (GEs) detection and identification in the process of power system state estimation (PSSE), the formulations of the estimators applied to power systems are analyzed, specially, the formulation of the weighted squares estimator. These analyses were performed to show the limitations of these estimators for GEs processing. As leverage points (LP) represent a problem for GEs processing, methodologies for LP identification were also verified. By means of the linear formulation of the PSSE process, the reason for the impossibility of GEs detection in some redundant measurements is shown and a method for LP identification is proposed. To minimize the bad effects of the LP to the PSSE process, the possibility of applying other statistic techniques for GEs processing, as well as techniques to estimate an weighting matrix are also analyzed.
59

Estimating the longitudinal concordance correlation through fixed effects and variance components of polynomial mixed-effects regression model / Estimando a correlação de concordância longitudinal por meio de efeitos fixos e componentes de variâncias do modelo de regressão polinomial de efeitos mistos

Oliveira, Thiago de Paula 20 April 2018 (has links)
In the post-harvest area, a common approach to quantify the average color of fruits peel over time is the sampling of small number of points generally on its equatorial region using a colorimeter. However, when we use a colorimeter to classify an uneven-colored fruit misclassification may occur because points in the peel region may not be representative of average color of fruit. The main problem when we use this method is to determine the number of points to be sampled as well as the location of these points on the fruit\'s surface. An alternative method to evaluate measure of color is digital image analysis because it covers whole of the object surface, by using a sample of pixels taken from the image. As the colorimeter approach is faster and easier than image analysis, it may not be suitable for assessing the overall mean color of the papaya\'s peel and its performance will depend on the number of measured points and choice of sampled region. In this sense, the comparison between these approach is still necessary because we need to know if a sample on the equatorial region can reproduce a sample over the whole region, and if the colorimeter can compete with a scanner or digital camera in measuring the mean hue of papaya peel over time. Thus, we proposed a longitudinal concordance correlation (LCC) based on polynomial mixed-effects regression model to evaluate the extent of agreement among methods. The results show that ideally image analysis of whole fruit\'s region should be used to compute the mean hue and that the topography and curved surface of papaya fruit did not affect the mean hue obtained by the scanner. Since there are still no packages available to estimate the LCC in the free software environment R, we are developing a package called lcc, which provides functions for estimating the longitudinal concordance correlation (LCC) among methods based on variance components and fixed effects of polynomial mixed-effects model. Additionally, we implemented arguments in this function to estimating the longitudinal Pearson correlation (LPC), as precision measure, and longitudinal bias corrector factor (LA), as accuracy measure. Moreover, these components can be estimated using different structures for variance- covariance matrices of random effects and variance functions to model heteroscedasticity among within-group errors using or not the time as variance covariate. / No setor de pós-colheita é muito comum a utilização de colorímetros para avaliar a cor média da casca de frutos ao longo do tempo. No entanto, muitas vezes as técnicas de amostragem utilizando esse equipamento podem levar a medidas tendenciosas da média amostral. Alternativamente, a utilização de imagens digitais pode levar a um menor viés, uma vez que toda a região da casca do fruto é amostrada de forma sistemática. No entanto, ainda é necessária a comparação de ambas abordagens, pois o colorímetro tem vantagens em relação a facilidade de utilização e menor tempo para realizar a amostragem em cada fruto quando comparado a um scanner de mesa. Assim, no caso de variáveis respostas medidas em uma escala contínua, a reprodutibilidade das medidas tomadas por ambos equipamentos pode ser avaliada por meio do coeficiente de correlação de concordância. Dessa forma, para avaliar o perfil da concordância entre métodos, nós propomos uma correlação de concordância longitudinal (LCC), baseada em um modelo de regressão polinomial com efeitos mistos. Os resultados sugeriram que as técnicas por meio de imagens digitais devem ser utilizadas para a quantificação da tonalidade média de frutos. Adicionalmente, a partir do perfil de concordância estimado notamos que existe um período em que ambos os equipamentos podem ser utilizados. A performance do coeficiente de concordância longitudinal foi avaliada por meio de um estudo de simulação, o qual sugeriu que nossa metodologia é robusta a dados desbalanceados (\"dropout\") e que a probabilidade de convergência é aceitavel para uma amostra de 20 frutos e ideal para amostras a partir de 100 frutos. Uma vez que ainda não existem pacotes disponibilizados no ambiente computacional R para a estimação da correlação de concordância longitudinal, nós estamos desenvolvendo um pacote intitulado lcc, o qual será submetido ao \"Comprehensive R Archive Network\" (CRAN). Nesse pacote nós implementamos procedimentos para estimação da correlação de concordância longitudinal, da correlação de Person longitudinal e de uma medida de acurácia longitudinal. Além disso, nosso pacote foi desenvolvido para dados balanceados e desbalanceados, permitindo modelar a heteroscedasticidade entre erros dentro do grupo usando ou não o tempo como covariável, e, também, permitindo a inclusão de covariáveis no preditor linear para controlar variações sistemáticas na variável resposta.
60

Modelos de regressão beta com erro nas variáveis / Beta regression model with measurement error

Jalmar Manuel Farfan Carrasco 25 May 2012 (has links)
Neste trabalho de tese propomos um modelo de regressão beta com erros de medida. Esta proposta é uma área inexplorada em modelos não lineares na presença de erros de medição. Abordamos metodologias de estimação, como máxima verossimilhança aproximada, máxima pseudo-verossimilhança aproximada e calibração da regressão. O método de máxima verossimilhança aproximada determina as estimativas maximizando diretamente o logaritmo da função de verossimilhança. O método de máxima pseudo-verossimilhança aproximada é utilizado quando a inferência em um determinado modelo envolve apenas alguns mas não todos os parâmetros. Nesse sentido, dizemos que o modelo apresenta parâmetros de interesse como também de perturbação. Quando substituímos a verdadeira covariável (variável não observada) por uma estimativa da esperança condicional da variável não observada dada a observada, o método é conhecido como calibração da regressão. Comparamos as metodologias de estimação mediante um estudo de simulação de Monte Carlo. Este estudo de simulação evidenciou que os métodos de máxima verossimilhança aproximada e máxima pseudo-verossimilhança aproximada tiveram melhor desempenho frente aos métodos de calibração da regressão e naïve (ingênuo). Utilizamos a linguagem de programação Ox (Doornik, 2011) como suporte computacional. Encontramos a distribuição assintótica dos estimadores, com o objetivo de calcular intervalos de confiança e testar hipóteses, tal como propõem Carroll et. al.(2006, Seção A.6.6), Guolo (2011) e Gong e Samaniego (1981). Ademais, são utilizadas as estatísticas da razão de verossimilhanças e gradiente para testar hipóteses. Num estudo de simulação realizado, avaliamos o desempenho dos testes da razão de verossimilhanças e gradiente. Desenvolvemos técnicas de diagnóstico para o modelo de regressão beta com erros de medida. Propomos o resíduo ponderado padronizado tal como definem Espinheira (2008) com o objetivo de verificar as suposições assumidas ao modelo e detectar pontos aberrantes. Medidas de influência global, tais como a distância de Cook generalizada e o afastamento da verossimilhança, são utilizadas para detectar pontos influentes. Além disso, utilizamos a técnica de influência local conformal sob três esquemas de perturbação (ponderação de casos, perturbação da variável resposta e perturbação da covariável com e sem erros de medida). Aplicamos nossos resultados a dois conjuntos de dados reais para exemplificar a teoria desenvolvida. Finalmente, apresentamos algumas conclusões e possíveis trabalhos futuros. / In this thesis, we propose a beta regression model with measurement error. Among nonlinear models with measurement error, such a model has not been studied extensively. Here, we discuss estimation methods such as maximum likelihood, pseudo-maximum likelihood, and regression calibration methods. The maximum likelihood method estimates parameters by directly maximizing the logarithm of the likelihood function. The pseudo-maximum likelihood method is used when the inference in a given model involves only some but not all parameters. Hence, we say that the model under study presents parameters of interest, as well as nuisance parameters. When we replace the true covariate (observed variable) with conditional estimates of the unobserved variable given the observed variable, the method is known as regression calibration. We compare the aforementioned estimation methods through a Monte Carlo simulation study. This simulation study shows that maximum likelihood and pseudo-maximum likelihood methods perform better than the calibration regression method and the naïve approach. We use the programming language Ox (Doornik, 2011) as a computational tool. We calculate the asymptotic distribution of estimators in order to calculate confidence intervals and test hypotheses, as proposed by Carroll et. al (2006, Section A.6.6), Guolo (2011) and Gong and Samaniego (1981). Moreover, we use the likelihood ratio and gradient statistics to test hypotheses. We carry out a simulation study to evaluate the performance of the likelihood ratio and gradient tests. We develop diagnostic tests for the beta regression model with measurement error. We propose weighted standardized residuals as defined by Espinheira (2008) to verify the assumptions made for the model and to detect outliers. The measures of global influence, such as the generalized Cook\'s distance and likelihood distance, are used to detect influential points. In addition, we use the conformal approach for evaluating local influence for three perturbation schemes: case-weight perturbation, respose variable perturbation, and perturbation in the covariate with and without measurement error. We apply our results to two sets of real data to illustrate the theory developed. Finally, we present our conclusions and possible future work.

Page generated in 0.0569 seconds