Spelling suggestions: "subject:"verossimilhança."" "subject:"verossimilhanças.""
271 |
Estimação via EM e diagnóstico em modelos misturas assimétricas com regressãoLouredo, Graciliano Márcio Santos 26 February 2018 (has links)
Submitted by Geandra Rodrigues (geandrar@gmail.com) on 2018-04-10T15:11:39Z
No. of bitstreams: 1
gracilianomarciosantoslouredo.pdf: 1813142 bytes, checksum: b79d02006212c4f63d6836c9a417d4bc (MD5) / Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2018-04-11T15:25:36Z (GMT) No. of bitstreams: 1
gracilianomarciosantoslouredo.pdf: 1813142 bytes, checksum: b79d02006212c4f63d6836c9a417d4bc (MD5) / Made available in DSpace on 2018-04-11T15:25:36Z (GMT). No. of bitstreams: 1
gracilianomarciosantoslouredo.pdf: 1813142 bytes, checksum: b79d02006212c4f63d6836c9a417d4bc (MD5)
Previous issue date: 2018-02-26 / FAPEMIG - Fundação de Amparo à Pesquisa do Estado de Minas Gerais / O objetivo deste trabalho é apresentar algumas contribuições para a melhoria
do processo de estimação por máxima verossimilhança via algoritmo EM em
modelos misturas assimétricas com regressão, além de realizar neles a análise de
influência local e global. Essas contribuições, em geral de natureza computacional,
visam à resolução de problemas comuns na modelagem estatística de maneira
mais eficiente. Dentre elas está a substituição de métodos utilizados nas versões
dos algoritmos GEM por outras que reduzem o problema aproximadamente a um
algoritmo EM clássico nos principais exemplos das distribuições misturas de escala
assimétricas de normais. Após a execução do processo de estimação, discutiremos
ainda as principais técnicas existentes para o diagnóstico de pontos influentes com
as adaptações necessárias aos modelos em foco. Desejamos com tal abordagem
acrescentar ao tratamento dessa classe de modelos estatísticos a análise de regressão nas distribuições mais recentes na literatura. Também esperamos abrir caminho para o uso de técnicas similares em outras classes de modelos. / The objective of this work is to present some contributions to improvement the
process of maximum likelihood estimation via the EM algorithm in skew mixtures
models with regression, as well as to execute in them the global and local influence
analysis. These contributions, usually with computational nature, aim to solving
common problems in statistical modeling more efficiently. Among them is the
replacement of used methods in the versions of the GEM algorithm by other
techniques that reduce the problem approximately to a classic EM algorithm in the
main examples of skew scale mixtures of normals distributions. After performing
the estimation process, we will also discuss the main existing techniques for the
diagnosis of influential points with the necessaries adaptations to the models in
focus. We wish with this approach to add for the treatment of this statistical model
class the regression analysis in the most recent distributions in the literature. We
too hope to paving the way for use of similar techniques in other models classes.
|
272 |
MELHORAMENTOS INFERENCIAIS NO MODELO BETA-SKEW-T-EGARCH / INFERENTIAL IMPROVEMENTS OF BETA-SKEW-T-EGARCH MODELMuller, Fernanda Maria 25 February 2016 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / The Beta-Skew-t-EGARCH model was recently proposed in literature to model the
volatility of financial returns. The inferences over the model parameters are based on the maximum
likelihood method. The maximum likelihood estimators present good asymptotic properties;
however, in finite sample sizes they can be considerably biased. Monte Carlo simulations
were used to evaluate the finite sample performance of point estimators. Numerical results indicated
that the maximum likelihood estimators of some parameters are biased in sample sizes
smaller than 3,000. Thus, bootstrap bias correction procedures were considered to obtain more
accurate estimators in small samples. Better quality of forecasts was observed when the model
with bias-corrected estimators was considered. In addition, we propose a likelihood ratio test
to assist in the selection of the Beta-Skew-t-EGARCH model with one or two volatility components.
The numerical evaluation of the two-component test showed distorted null rejection
rates in sample sizes smaller than or equal to 1,000. To improve the performance of the proposed
test in small samples, the bootstrap-based likelihood ratio test and the bootstrap Bartlett
correction were considered. The bootstrap-based test exhibited the closest null rejection rates
to the nominal values. The evaluation results of the two-component tests showed their practical
usefulness. Finally, an application to the log-returns of the German stock index of the proposed
methods was presented. / O modelo Beta-Skew-t-EGARCH foi recentemente proposto para modelar a volatilidade
de retornos financeiros. A estimação dos parâmetros do modelo é feita via máxima verossimilhança.
Esses estimadores possuem boas propriedades assintóticas, mas em amostras
de tamanho finito eles podem ser consideravelmente viesados. Com a finalidade de avaliar as
propriedades dos estimadores, em amostras de tamanho finito, realizou-se um estudo de simulações
de Monte Carlo. Os resultados numéricos indicam que os estimadores de máxima
verossimilhança de alguns parâmetros do modelo são viesados em amostras de tamanho inferior
a 3000. Para obter estimadores pontuais mais acurados foram consideradas correções de
viés via o método bootstrap. Verificou-se que os estimadores corrigidos apresentaram menor
viés relativo percentual. Também foi observada melhor qualidade das previsões quando o modelo
com estimadores corrigidos são considerados. Para auxiliar na seleção entre o modelo
Beta-Skew-t-EGARCH com um ou dois componentes de volatilidade foi apresentado um teste
da razão de verossimilhanças. A avaliação numérica do teste de dois componentes proposto demonstrou
taxas de rejeição nula distorcidas em tamanhos amostrais menores ou iguais a 1000.
Para melhorar o desempenho do teste foram consideradas a correção bootstrap e a correção de
Bartlett bootstrap. Os resultados numéricos indicam a utilidade prática dos testes de dois componentes
propostos. O teste bootstrap exibiu taxas de rejeição nula mais próximas dos valores
nominais. Ao final do trabalho foi realizada uma aplicação dos testes de dois componentes e
do modelo Beta-Skew-t-EGARCH, bem como suas versões corrigidas, a dados do índice de
mercado da Alemanha.
|
273 |
Estudo sobre algumas famílias de distribuições de probabilidades generalizadas. / Study on some families of generalized probability distributions.SANTOS, Rosilda Sousa. 06 August 2018 (has links)
Submitted by Johnny Rodrigues (johnnyrodrigues@ufcg.edu.br) on 2018-08-06T14:18:54Z
No. of bitstreams: 1
ROSILDA SOUSA SANTOS - DISSERTAÇÃO PPGMAT 2012..pdf: 864926 bytes, checksum: 9d85b58c8bca6174ef968354411068a1 (MD5) / Made available in DSpace on 2018-08-06T14:18:54Z (GMT). No. of bitstreams: 1
ROSILDA SOUSA SANTOS - DISSERTAÇÃO PPGMAT 2012..pdf: 864926 bytes, checksum: 9d85b58c8bca6174ef968354411068a1 (MD5)
Previous issue date: 2012-09 / Capes / A proposta desta dissertação está relacionada com o estudo das principais
famílias de distribuições de probabilidade generalizadas. Particularmente, estudamos
as distribuições Beta Pareto, Beta Exponencial Generalizada, Beta Weibull Modificada,
Beta Fréchet e a Kw-G. Para cada uma delas foram obtidas expressões para as funções
densidades de probabilidade, funcões de distribuição acumuladas, funções de taxa
de falha, funções geratrizes de momentos, bem como foram obtidos os estimadores
dos parâmetros pelo método da máxima verossimilhança. Finalmente, para cada
distribuição foram feitas aplicações com dados reais. / The purpose of this dissertation is to study the main families of generalized
probability distributions. Particularly we study the distributions Beta Pareto,
generalized Beta Exponential, Beta Modified Weibull, Beta Fréchet and Kw-G. For
each one of these distributions we obtain expressions for the probability density
function, cumulative distribution function, hazard function and moment generating
function as well as parameter estimates by the method of maximum likelihood. Finally,
we make real data applications for each one of the studied distributions.
|
274 |
Modelos não lineares truncados mistos para locação e escalaParaiba, Carolina Costa Mota 14 January 2015 (has links)
Made available in DSpace on 2016-06-02T20:04:53Z (GMT). No. of bitstreams: 1
6714.pdf: 1130315 bytes, checksum: 4ce881df9c6c0f6451cae6908855d277 (MD5)
Previous issue date: 2015-01-14 / Financiadora de Estudos e Projetos / We present a class of nonlinear truncated mixed-effects models where the truncation nature of the data is incorporated into the statistical model by assuming that the variable of interest, namely the truncated variable, follows a truncated distribution which, in turn, corresponds to a conditional distribution obtained by restricting the support of a given probability distribution function. The family of nonlinear truncated mixed-effects models for location and scale is constructed based on the perspective of nonlinear generalized mixed-effects models and by assuming that the distribution of response variable belongs to a truncated class of distributions indexed by a location and a scale parameter. The location parameter of the response variable is assumed to be associated with a continuous nonlinear function of covariates and unknown parameters and with unobserved random effects, and the scale parameter of the responses is assumed to be characterized by a continuous function of the covariates and unknown parameters. The proposed truncated nonlinear mixed-effects models are constructed assuming both random truncation limits; however, truncated nonlinear mixed-effects models with fixed known limits are readily obtained as particular cases of these models. For models constructed under the assumption of random truncation limits, the likelihood function of the observed data shall be a function both of the parameters of the truncated distribution of the truncated variable and of the parameters of the distribution of the truncation variables. For the particular case of fixed known truncation limits, the likelihood function of the observed data is a function only of the parameters of the truncated distribution assumed for the variable of interest. The likelihood equation resulting from the proposed truncated nonlinear regression models do not have analytical solutions and thus, under the frequentist inferential perspective, the model parameters are estimated by direct maximization of the log-likelihood using an iterative procedure. We also consider diagnostic analysis to check for model misspecification, outliers and influential observations using standardized residuals, and global and local influence metrics. Under the Bayesian perspective of statistical inference, parameter estimates are computed based on draws from the posterior distribution of parameters obtained using an Markov Chain Monte Carlo procedure. Posterior predictive checks, Bayesian standardized residuals and a Bayesian influence measures are considered to check for model adequacy, outliers and influential observations. As Bayesian model selection criteria, we consider the sum of log -CPO and a Bayesian model selection procedure using a Bayesian mixture model framework. To illustrate the proposed methodology, we analyze soil-water retention, which are used to construct soil-water characteristic curves and which are subject to truncation since soil-water content (the proportion of water in soil samples) is limited by the residual soil-water content and the saturated soil-water content. / Neste trabalho, apresentamos uma classe de modelos não lineares truncados mistos onde a característica de truncamento dos dados é incorporada ao modelo estatístico assumindo-se que a variável de interesse, isto é, a variável truncada, possui uma função de distribuição truncada que, por sua vez, corresponde a uma função de distribuição condicional obtida ao se restringir o suporte de alguma função de distribuição de probabilidade. A família de modelos não lineares truncados mistos para locação e escala é construída sob a perspectiva de modelos não lineares generalizados mistos e considerando uma classe de distribuições indexadas por parâmetros de locação e escala. Assumimos que o parâmetro de locação da variável resposta é associado a uma função não linear contínua de um conjunto de covariáveis e parâmetros desconhecidos e a efeitos aleatórios não observáveis, e que o parâmetro de escala das respostas pode ser caracterizado por uma função contínua das covariáveis e de parâmetros desconhecidos. Os modelos não lineares truncados mistos para locação e escala, aqui apresentados, são construídos supondo limites de truncamento aleatórios, porém, modelos não lineares truncados mistos com limites fixos e conhecidos são prontamente obtidos como casos particulares desses modelos. Nos modelos construídos sob a suposição de limites de truncamentos aleatórios, a função de verossimilhança é escrita em função dos parâmetros da distribuição da variável resposta truncada e dos parâmetros das distribuições das variáveis de truncamento. Para o caso particular de limites fixos e conhecidos, a função de verossimilhança será apenas uma função dos parâmetros da distribuição truncada assumida para a variável resposta de interesse. As equações de verossimilhança dos modelos, aqui propostos, não possuem soluções analíticas e, sob a perspectiva frequentista de inferência estatística, os parâmetros do modelo são estimados pela maximização direta da função de log-verossimilhança via um procedimento iterativo. Consideramos, também, uma análise de diagnóstico para verificar a adequação do modelo, observações discrepantes e/ou influentes, usando resíduos padronizados e medidas de influência global e influência local. Sob a perspectiva Bayesiana de inferência estatística, as estimativas dos parâmetros dos modelos propostos são definidas como as médias a posteriori de amostras obtidas via um algoritmo do tipo cadeia de Markov Monte Carlo das distribuições a posteriori dos parâmetros. Para a análise de diagnóstico Bayesiano do modelo, consideramos métricas de avaliação preditiva a posteriori, resíduos Bayesianos padronizados e a calibração de casos para diagnóstico de influência. Como critérios Bayesianos de seleção de modelos, consideramos a soma de log -CPO e um critério de seleção de modelos baseada na abordagem Bayesiana de mistura de modelos. Para ilustrar a metodologia proposta, analisamos dados de retenção de água em solo, que são usados para construir curvas de retenção de água em solo e que estão sujeitos a truncamento pois as medições de umidade de água (a proporção de água presente em amostras de solos) são limitadas pela umidade residual e pela umidade saturada do solo amostrado.
|
275 |
Família Weibull de razão de chances na presença de covariáveisGomes, André Yoshizumi 18 March 2009 (has links)
Made available in DSpace on 2016-06-02T20:06:06Z (GMT). No. of bitstreams: 1
4331.pdf: 1908865 bytes, checksum: d564b46a6111fdca6f7cc9f4d5596637 (MD5)
Previous issue date: 2009-03-18 / Universidade Federal de Minas Gerais / The Weibull distribuition is a common initial choice for modeling data with monotone hazard rates. However, such distribution fails to provide a reasonable parametric _t when the hazard function is unimodal or bathtub-shaped. In this context, Cooray (2006) proposed a generalization of the Weibull family by considering the distributions of the odds of Weibull and inverse Weibull families, referred as the odd Weibull family which is not just useful for modeling unimodal and bathtub-shaped hazards, but it is also convenient for testing goodness-of-_t of Weibull and inverse Weibull as submodels. In this project we have systematically studied the odd Weibull family along with its properties, showing motivations for its utilization, inserting covariates in the model, pointing out some troubles associated with the maximum likelihood estimation and proposing interval estimation and hypothesis test construction methodologies for the model parameters. We have also compared resampling results with asymptotic ones. Coverage probability from proposed con_dence intervals and size and power of considered hypothesis tests were both analyzed as well via Monte Carlo simulation. Furthermore, we have proposed a Bayesian estimation methodology for the model parameters based in Monte Carlo Markov Chain (MCMC) simulation techniques. / A distribuição Weibull é uma escolha inicial freqüente para modelagem de dados com taxas de risco monótonas. Entretanto, esta distribuição não fornece um ajuste paramétrico razoável quando as funções de risco assumem um formato unimodal ou em forma de banheira. Neste contexto, Cooray (2006) propôs uma generalização da família Weibull considerando a distribuição da razão de chances das famílias Weibull e Weibull inversa, referida como família Weibull de razão de chances. Esta família não é apenas conveniente para modelar taxas de risco unimodal e banheira, mas também é adequada para testar a adequabilidade do ajuste das famílias Weibull e Weibull inversa como submodelos. Neste trabalho, estudamos sistematicamente a família Weibull de razão de chances e suas propriedades, apontando as motivações para o seu uso, inserindo covariáveis no modelo, veri_cando as di_culdades referentes ao problema da estimação de máxima verossimilhança dos parâmetros do modelo e propondo metodologia de estimação intervalar e construção de testes de hipóteses para os parâmetros do modelo. Comparamos os resultados obtidos por meio dos métodos de reamostragem com os resultados obtidos via teoria assintótica. Tanto a probabilidade de cobertura dos intervalos de con_ança propostos quanto o tamanho e poder dos testes de hipóteses considerados foram estudados via simulação de Monte Carlo. Além disso, propusemos uma metodologia Bayesiana de estimação para os parâmetros do modelo baseados em técnicas de simulação de Monte Carlo via Cadeias de Markov.
|
276 |
Essays on multivariate generalized Birnbaum-Saunders methodsMARCHANT FUENTES, Carolina Ivonne 31 October 2016 (has links)
Submitted by Rafael Santana (rafael.silvasantana@ufpe.br) on 2017-04-26T17:07:37Z
No. of bitstreams: 2
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
Carolina Marchant.pdf: 5792192 bytes, checksum: adbd82c79b286d2fe2470b7955e6a9ed (MD5) / Made available in DSpace on 2017-04-26T17:07:38Z (GMT). No. of bitstreams: 2
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
Carolina Marchant.pdf: 5792192 bytes, checksum: adbd82c79b286d2fe2470b7955e6a9ed (MD5)
Previous issue date: 2016-10-31 / CAPES; BOLSA DO CHILE. / In the last decades, univariate Birnbaum-Saunders models have received considerable attention
in the literature. These models have been widely studied and applied to fatigue, but
they have also been applied to other areas of the knowledge. In such areas, it is often necessary
to model several variables simultaneously. If these variables are correlated, individual
analyses for each variable can lead to erroneous results. Multivariate regression models are
a useful tool of the multivariate analysis, which takes into account the correlation between
variables. In addition, diagnostic analysis is an important aspect to be considered in the
statistical modeling. Furthermore, multivariate quality control charts are powerful and simple
visual tools to determine whether a multivariate process is in control or out of control.
A multivariate control chart shows how several variables jointly affect a process. First, we
propose, derive and characterize multivariate generalized logarithmic Birnbaum-Saunders
distributions. Also, we propose new multivariate generalized Birnbaum-Saunders regression
models. We use the method of maximum likelihood estimation to estimate their parameters
through the expectation-maximization algorithm. We carry out a simulation study
to evaluate the performance of the corresponding estimators based on the Monte Carlo
method. We validate the proposed models with a regression analysis of real-world multivariate
fatigue data. Second, we conduct a diagnostic analysis for multivariate generalized
Birnbaum-Saunders regression models. We consider the Mahalanobis distance as a global
influence measure to detect multivariate outliers and use it for evaluating the adequacy of
the distributional assumption. Moreover, we consider the local influence method and study
how a perturbation may impact on the estimation of model parameters. We implement the
obtained results in the R software, which are illustrated with real-world multivariate biomaterials
data. Third and finally, we develop a robust methodology based on multivariate quality
control charts for generalized Birnbaum-Saunders distributions with the Hotelling statistic.
We use the parametric bootstrap method to obtain the distribution of this statistic. A Monte
Carlo simulation study is conducted to evaluate the proposed methodology, which reports
its performance to provide earlier alerts of out-of-control conditions. An illustration with
air quality real-world data of Santiago-Chile is provided. This illustration shows that the
proposed methodology can be useful for alerting episodes of extreme air pollution. / Nas últimas décadas, o modelo Birnbaum-Saunders univariado recebeu considerável atenção na literatura. Esse modelo tem sido amplamente estudado e aplicado inicialmente à modelagem de fadiga de materiais. Com o passar dos anos surgiram trabalhos com aplicações em outras áreas do conhecimento. Em muitas das aplicações é necessário modelar diversas variáveis simultaneamente incorporando a correlação entre elas. Os modelos de regressão multivariados são uma ferramenta útil de análise multivariada, que leva em conta a correlação entre as variáveis de resposta. A análise de diagnóstico é um aspecto importante a ser considerado no modelo estatístico e verifica as suposições adotadas como também sua sensibilidade. Além disso, os gráficos de controle de qualidade multivariados são ferramentas visuais eficientes e simples para determinar se um processo multivariado está ou não fora de controle. Este gráfico mostra como diversas variáveis afetam conjuntamente um processo. Primeiro, propomos, derivamos e caracterizamos as distribuições Birnbaum-Saunders generalizadas logarítmicas multivariadas. Em seguida, propomos um modelo de regressão Birnbaum-Saunders generalizado multivariado. Métodos para estimação dos parâmetros do modelo, tal como o método de máxima verossimilhança baseado no algoritmo EM, foram desenvolvidos. Estudos de simulação de Monte Carlo foram realizados para avaliar o desempenho dos estimadores propostos. Segundo, realizamos uma análise de diagnóstico para modelos de regressão Birnbaum-Saunders generalizados multivariados. Consideramos a distância de Mahalanobis como medida de influência global de detecção de outliers multivariados utilizando-a para avaliar a adequacidade do modelo. Além disso, desenvolvemos medidas de diagnósticos baseadas em influência local sob alguns esquemas de perturbações. Implementamos a metodologia apresentada no software R, e ilustramos com dados reais multivariados de biomateriais. Terceiro, e finalmente, desenvolvemos uma metodologia robusta baseada em gráficos de controle de qualidade multivariados para a distribuição Birnbaum-Saunders generalizada usando a estatística de Hotelling. Baseado no método bootstrap paramétrico encontramos aproximações da distribuição desta estatística e obtivemos limites de controle para o gráfico proposto. Realizamos um estudo de simulação de Monte Carlo para avaliar a metodologia proposta indicando seu bom desempenho para fornecer alertas precoces de processos fora de controle. Uma ilustração com dados reais de qualidade do ar de Santiago-Chile é fornecida. Essa ilustração mostra que a metodologia proposta pode ser útil para alertar sobre episódios de poluição extrema do ar, evitando efeitos adversos na saúde humana.
|
277 |
Imputação de dados faltantes via algoritmo EM e rede neural MLP com o método de estimativa de máxima verossimilhança para aumentar a acurácia das estimativasRibeiro, Elisalvo Alves 14 August 2015 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Database with missing values it is an occurrence often found in the real world, beiging of this problem caused by several reasons (equipment failure that transmits and stores the data, handler failure, failure who provides information, etc.). This may make the data inconsistent and unable to be analyzed, leading to very skewed conclusions. This dissertation aims to explore the use of Multilayer Perceptron Artificial Neural Network (ANN MLP), with new activation functions, considering two approaches (single imputation and multiple imputation). First, we propose the use of Maximum Likelihood Estimation Method (MLE) in each network neuron activation function, against the approach currently used, which is without the use of such a method or when is used only in the cost function (network output). It is then analyzed the results of these approaches compared with the Expectation Maximization algorithm (EM) is that the state of the art to treat missing data. The results indicate that when using the Artificial Neural Network MLP with Maximum Likelihood Estimation Method, both in all neurons and only in the output function, lead the an imputation with lower error. These experimental results, evaluated by metrics such as MAE (Mean Absolute Error) and RMSE (Root Mean Square Error), showed that the better results in most experiments occured when using the MLP RNA addressed in this dissertation to single imputation and multiple. / Base de dados com valores faltantes é uma ocorrência frequentemente encontrada no mundo real, sendo as causas deste problema são originadas por motivos diversos (falha no equipamento que transmite e armazena os dados, falha do manipulador, falha de quem fornece a informação, etc.). Tal situação pode tornar os dados inconsistentes e inaptos de serem analisados, conduzindo às conclusões muito enviesadas. Esta dissertação tem como objetivo explorar o emprego de Redes Neurais Artificiais Multilayer Perceptron (RNA MLP), com novas funções de ativação, considerando duas abordagens (imputação única e imputação múltipla). Primeiramente, é proposto o uso do Método de Estimativa de Máxima Verossimilhança (EMV) na função de ativação de cada neurônio da rede, em contrapartida à abordagem utilizada atualmente, que é sem o uso de tal método, ou quando o utiliza é apenas na função de custo (na saída da rede). Em seguida, são analisados os resultados destas abordagens em comparação com o algoritmo Expectation Maximization (EM) que é o estado da arte para tratar dados faltantes. Os resultados obtidos indicam que ao utilizar a Rede Neural Artificial MLP com o Método de Estimativa de Máxima Verossimilhança, tanto em todos os neurônios como apenas na função de saída, conduzem a uma imputação com menor erro. Os resultados experimentais foram avaliados via algumas métricas, sendo as principais o MAE (Mean Absolute Error) e RMSE (Root Mean Square Error), as quais apresentaram melhores resultados na maioria dos experimentos quando se utiliza a RNA MLP abordada neste trabalho para fazer imputação única e múltipla.
|
278 |
Avaliação educacional : um olhar matemáticoFugita, Felipe January 2018 (has links)
Orientador: Prof. Dr. Daniel Miranda Machado / Dissertação (mestrado) - Universidade Federal do ABC, Programa de Pós-Graduação em Mestrado Profissional em Matemática em Rede Nacional - PROFMAT, Santo André, 2017. / Um dos objetivos desse trabalho é explicar a Teoria de Resposta ao Item, conhecida como TRI,
enfatizando o modelo logístico de três parâmetros e descrevendo suas principais características.
Outro objetivo é mostrar como o professor pode utilizar ferramentas estatísticas, em uma
planilha eletrônica, para: verificar a qualidade das questões que compõe sua prova; analisar
se existe uma correlação entre dois instrumentos de avaliação; utilizar a média escolar de um
aluno para inferir sobre o seu desempenho no vestibular; entre outras possibilidades.
Com a finalidade de explicar a TRI e seu método de estimação de parâmetros por Máxima
Verossimilhança, são apresentados previamente os modelos Matemáticos, Probabilísticos
e Estatísticos, pilares dessa teoria. Além disso, é descrito como os programas de avaliações
educacionais em larga escala de diversos países utilizam a TRI para monitorar o desempenho
de seus sistemas educacionais. Em seguida, são expostas algumas ferramentas Estatísticas, em
específico, o coeficiente de correlação, o método de mínimos quadrados e o ponto bisserial que
podem colaborar nos processos de avaliações educacionais que fazem parte da rotina escolar.
São ilustrados também exemplos de planilhas eletrônicas com a descrição passo a passo de
sua construção e dos comandos utilizados.
Desse modo, espera-se contribuir para compreensão da TRI e, consequentemente, dos indicativos
educacionais produzidos pelos programas de avaliações em larga escala, bem como,
para atuação e reflexão da prática docente em seus métodos de avaliação educacional. / One of the goals of this work is to explain Item Response Theory, known as IRT, emphasizing
the Three-Parameter Logistic model and describing its main characteristics. Another objective
is to demonstrate how educators can use statistical tools within a spreadsheet to: verify
the quality and reliability of test questions; examine whether there is a correlation between
two assessment tools; use the school average of a student to predict his or her performance in
entrance examinations; among other possibilities. To explain IRT and its method of parameter
estimation by maximum likelihood, this work presents the mathematical, probabilistic and
statistical models that are the pillars of the theory. It also describes how the large-scale educational
assessment programs of various countries use IRT to monitor the performance of their
education systems. Then, this work presents a selection of statistical tools, specifically, the
correlation coefficient, the least squares method and the point biserial correlation, which could
contribute to the process of routine educational assessments. Also provided are illustrated
examples of spreadsheets with step-by- step descriptions of their creation and the commands
used. Thus, the work hopes to contribute to the understanding of IRT and, consequently, of
the educational indicators produced by large-scale assessment programs, as well as benefit
educators in their practice and reflection on methods of educational evaluation.
|
279 |
Identificação de possíveis áreas afetadas por sais no Perímetro Irrigado de São Gonçalo por meio do sensoriamento remoto. / Identification of possible areas affected by salts in the Irrigated Perimeter of São Gonçalo through remote sensingOLIVEIRA, Woslley Sidney Nogueira de. 10 May 2018 (has links)
Submitted by Johnny Rodrigues (johnnyrodrigues@ufcg.edu.br) on 2018-05-10T18:06:15Z
No. of bitstreams: 1
WOSLLEY SIDNEY NOGUEIRA DE OLIVEIRA - DISSERTAÇÃO PPGSA ACADÊMICO 2018..pdf: 7059892 bytes, checksum: 1ab51771320e5bbd6c88d3c01b4b7aeb (MD5) / Made available in DSpace on 2018-05-10T18:06:15Z (GMT). No. of bitstreams: 1
WOSLLEY SIDNEY NOGUEIRA DE OLIVEIRA - DISSERTAÇÃO PPGSA ACADÊMICO 2018..pdf: 7059892 bytes, checksum: 1ab51771320e5bbd6c88d3c01b4b7aeb (MD5)
Previous issue date: 2018-02-22 / Os perímetros irrigados implantados no Estado da Paraíba são considerados uma
alternativa econômica bastante rentável, promove a geração de empregos e aumenta a disponibilidade de alimentos. Devido ao manejo inadequado do solo e da água, isso têm causado perdas na qualidade do solo desses perímetros, degradando-os principalmente por salinização. O sensoriamento remoto é uma alternativa tecnológica de baixo custo, boa frequência temporal e possui a capacidade de mapear áreas em processo de desertificação. Essa pesquisa têm por objetivo identificar possíveis áreas afetadas por sais no Perímetro Irrigado de São Gonçalo (PISG), Sousa- PB, por meio de técnicas de sensoriamento remoto. Para esse estudo foi utilizado imagens do satélite LANDSAT 8/OLI (média resolução espacial), órbita 216 / ponto 65 da data de 23/11/2016; imagem do software Google Earth Pro® da data de 29/02/2016 para servir como imagem auxiliar e registros fotográficos das áreas in loco. Realizou-se a técnica de classificação supervisionada, utilizando o SCP (semi- automatic plugin) no software QGIS (Quantum Gis). A aferição da qualidade da classificação se deu por meio da validação cruzada,
utilizando de parâmetros estatísticos como a exatidão do produtor (EP), exatidão do
usuário (EU), exatidão global (EG) e índice Kappa. A classe área supostamente
salinizada (ASS) apresentou EP e EU de 89.15% e 88.88%, respectivamente. O
índice Kappa resultou em um valor de 0.8684, a classe ASS foi classificada como
sendo de qualidade excelente. A qualidade geral da classificação é avaliada tanto
pela EG que apresentou um valor de 0.9350 como pelo índice Kappa geral com
valor de 0.9252, sendo valores que representam uma classificação de qualidade
excelente. A classe ASS apresentou os maiores valores mínimos e máximos de fator
de refletância em todas as bandas da imagem, destacando a banda 6 de valores
0.47 e 0.67, respectivamente. O valor da área classificada como sendo da classe
ASS foi de 1736.75 hectares, 31% da área total do PISG. As imagens analisadas
possibilitaram discriminar áreas salinizadas e não salinizadas mediante as
diferenças de tonalidade e de refletância. As imagens analisadas com o plugin SCP
possibilitaram a realização de um mapa de classificação supervisionada, indicando a
variabilidade espacial das áreas propícias ao processo de salinização. No entanto,
recomenda- se a análise dos parâmetros físicos e químicos do solo dessas áreas
para o aumento da confiabilidade na qualidade desse tipo de mapeamento. / The irrigated perimeters implemented in the State of Paraiba are considered a costeffective
alternative quite profitable, promotes the generation of jobs and increases
the availability of food. Due to inadequate management of soil and water, that have
caused losses in soil quality of these perimeters, degrading them mainly by
salinization. Remote sensing is an alternative low-cost technology, good temporal
and frequency has the ability to map areas in process of desertification. This
research aim to identify potential areas affected by salts in the irrigated perimeter of
São Gonçalo (PISG), Sousa-PB, through remote sensing techniques. For this study
we used LANDSAT satellite images 8/OLI (average spatial resolution), 216/orbit point
65 of 07/11/2016 date; image of the Google Earth Pro software® from date of
29/02/2016 to serve as auxiliary image and photographic records of the areas on the
spot. The supervised classification technique, using the SCP (semi-automatic plugin)
in software QGIS (Quantum Gis). The measurement of the quality of the classification
took place by means of cross-validation, using statistical parameters such as the
accuracy of the producer (EP), accuracy of the user (EU), global (EG) accuracy and
Kappa index. The area class supposedly salinated (.ASS) presented EP and I of
89.15% and 88.88%, respectively. The Kappa index resulted in a value of .ASS class
0.8684 was classified as being of excellent quality. The overall quality of the
classification is assessed both by EG who presented a 0.9350 value as the Kappa
index 0.9252 valued General, being values that represent a rating of excellent
quality. The class ASS presented the largest minimum and maximum values of
reflectance factor in all the bands in the image, highlighting the band 6 0.47 values
and 0.67, respectively. The value of the area classified as being of .ASS class was
1736.75 acres, 31% of the total area of the PISG. The images reviewed discriminate
salinated areas and not allowed saline through the variations of shade and
reflectance. The images analyzed with the SCP plugin enabled the creation of a map
of supervised classification, indicating the spatial variability of the areas prone to
salinization process. However, it is recommended that the analysis of the physical
and chemical soil parameters of these areas for increased reliability in the quality of
this type of mapping.
|
Page generated in 0.0447 seconds