Spelling suggestions: "subject:"informação dde fisher"" "subject:"informação dee fisher""
1 |
Informação de Fisher e entropia de Shannon de osciladores com massa dependente da posição / Fisher information and Shannon entropy of oscillators with position dependent massMacedo, Diego Ximenes January 2017 (has links)
MACEDO, D. X. Informação de Fisher e entropia de Shannon de osciladores com massa dependente da posição. 2017. 65 f. Tese (Doutorado em Física) – Centro de Ciências, Universidade Federal do Ceará, Fortaleza, 2017. / Submitted by Giordana Silva (giordana.nascimento@gmail.com) on 2017-04-12T20:33:31Z
No. of bitstreams: 1
2017_tese_dxmacedo.pdf: 1506351 bytes, checksum: 0451b11cb3bbdfca718fe5d35f2c8a80 (MD5) / Approved for entry into archive by Giordana Silva (giordana.nascimento@gmail.com) on 2017-04-12T20:34:02Z (GMT) No. of bitstreams: 1
2017_tese_dxmacedo.pdf: 1506351 bytes, checksum: 0451b11cb3bbdfca718fe5d35f2c8a80 (MD5) / Made available in DSpace on 2017-04-12T20:34:02Z (GMT). No. of bitstreams: 1
2017_tese_dxmacedo.pdf: 1506351 bytes, checksum: 0451b11cb3bbdfca718fe5d35f2c8a80 (MD5)
Previous issue date: 2017 / In this work we study from both classical and quantum point of view the position dependent mass harmonic oscillator (PDMHO). Classically, we use the Legendre transformation to find the Hamiltonian of the system. Next, we define two functions, and , to simplify the hamiltonian of the PDMHO. By using the Poisson algebra we find the expressions for the position and moment. At last, by using a canonical transformation we relate the equations of the PDMHO to those of the simple harmonic oscillator (SHO). Quantically, we write the Hamiltonian of the PDMHO in terms of the operators and . Next, we consider that these operators satisfy the same algebra that those of the SHO. By assuming that both the classical and quantum PDMHO have the same form, we are able to find a simple form for the PDMHO Hamiltonian. Finally, by transforming the Schrödinger equation (SE) of the PDMHO into that of the SHO, we can write the wave function of the PDMHO in terms of that of the SHO. We will study two time-dependent systems, namely and , we observe that as , they tend to a simple harmonic oscillator. For each system we find the position and momentum (classical study), as well as the wave-function (quantum study). For both systems we analyze the the position e momentum uncertainty, the product uncertainty, the fisher information and Shannon entropy, for the ground state, as a function of the parameter. / Neste trabalho estudamos clássica e quanticamente o oscilador harmônico com massa dependente da posição (OHMDP). Na parte clássica, utilizamos a transformação de Legendre para encontrar a hamiltoniana do sistema. A seguir definimos duas funções e para escrevermos a hamiltoniana do OHMDP de uma forma mais simples. Utilizando a álgebra de Poisson encontramos as expressões para a posição e o momento. Por fim, através de uma transformação canônica veremos como relacionar as equações do OHMDP com aquelas do oscilador harmônico simples (OHS). Na parte quântica, escrevemos a hamiltoniana do OHMDP em termos de operadores e . Em seguida, vamos supor que estes operadores satisfaçam a mesma relação de comutação que os operadores abaixamento e levantamento do OHS. Analisando que condição deve ser satisfeita para que os osciladores OHMDP clássico e quântico tenham o mesmo potencial, encontramos uma forma simplificada da hamiltoniana do OHMDP. Em seguida, transformamos a equação de Schrödinger (ES) para o OHMDP na ES para o OHS. Assim, obtemos a função de onda do OHMDP em termos da função de onda do OHS. Estudaremos dois sistemas com massa dependente da posição, a saber: e , vemos que quando , recaímos no OHS. Para cada sistema encontraremos a posição e o momento (estudo clássico), bem como a função de onda (estudo quântico). Para os dois sistemas analisaremos também o comportamento da incerteza na posição, incerteza no momento, produto de incerteza, informação de Fisher e entropia de Shannon, para o estado fundamental, em função do parâmetro de deformação.
|
2 |
Oscilador harmônico Caldirola-Kanai e aplicação da Teoria da Informação de Fisher e Entropia de ShannonSilva, Gilvan Ferreira January 2017 (has links)
SILVA, G. F. Oscilador harmônico de Caldirola-Kanai e aplicação da Teoria da Informação de Fisher e Entropia de Shannon. 2017. 61 f. Dissertação (Mestrado em Física) – Centro de Ciências, Universidade Federal do Ceará, Fortaleza, 2017. / Submitted by Pós-Graduação em Física (posgrad@fisica.ufc.br) on 2017-06-13T15:46:22Z
No. of bitstreams: 1
2017_ dis_gfsilva.pdf: 1262336 bytes, checksum: 0e6010a0850b0ac2aed199269f2335be (MD5) / Approved for entry into archive by Giordana Silva (giordana.nascimento@gmail.com) on 2017-06-13T21:30:10Z (GMT) No. of bitstreams: 1
2017_ dis_gfsilva.pdf: 1262336 bytes, checksum: 0e6010a0850b0ac2aed199269f2335be (MD5) / Made available in DSpace on 2017-06-13T21:30:10Z (GMT). No. of bitstreams: 1
2017_ dis_gfsilva.pdf: 1262336 bytes, checksum: 0e6010a0850b0ac2aed199269f2335be (MD5)
Previous issue date: 2017 / CAPES / In this dissertation, we give a brief historical overview of the elements that form it, namely Quantum Harmonic Oscillators with explicit temporal dependence; Lewis & Riesenfelds Method of the Invariants associated with Hartley & Rays technique; Shannon’s entropy and Fisher’s information theory. In this introductory description, we seek to present a procedural view of scientific knowledge. Also, in the introduction, we present the motivations for the execution of the academic work and its organization. In a later chapter, we describe Lewis and Riesenfeld’s formalism applied to oscillators that have an explicit temporal dependency. To better describe it, we divide the chapter into sections in which we define the Invariant, find its self-states, relate the self-states with the Schrödinger’s solution, and apply the formalism to the time-dependent oscillator which, in our work, was the well-known Caldirola-Kanai with M(t) = m eγt. We find the solutions in the coordinate of the position and, after that, we work with the wave function of the ground state. In the following chapter, we determine the uncertainty. To do so, we use the creation and destruction algebra of operators, So known by physicists. We find the Shannon’s entropy and Fisher’s information. We do an analysis of the analytical and graphical results, establishing a comparison between these techniques. / Nesta dissertação, fazemos um breve histórico dos elementos que a compõem, a saber, Osciladores Harmônicos Quânticos com dependência temporal explícita; Método dos Invariantes de Lewis e Riesenfeld associado com a técnica de Hartley e Ray; Entropia de Shannon e Teoria da informação de Fisher. Na descrição introdutória, buscamos apresentar uma visão processual dos conhecimentos científicos. Ainda, na introdução, apresentamos as motivações para a execução do trabalho acadêmico e sua organização. Em capítulo posterior, descrevemos o formalismo de Lewis e Riesenfeld aplicados a osciladores que têm uma dependência temporal explícita. Para melhor descrever, dividimos o capítulo em seções nas quais definimos o Invariante, encontramos seus autoestados, relacionamos os autoestados com a solução de Schrödinger e aplicamos o formalismo ao oscilador com dependência temporal que, para o nosso trabalho, foi o conhecido Oscilador de Caldirola-Kanai com M(t) = m eᵞt. Encontramos as soluções na coordenada da posição e, após, trabalhamos com a função de onda do estado fundamental. No capítulo seguinte, determinamos a incerteza. Para tanto, utilizamos a álgebra de operadores criação e destruição, tão conhecida pelos físicos. Encontramos a entropia de Shannon e a Informação de Fisher. Por fim, uma análise dos resultados analíticos e gráficos, estabelecendo uma comparação entre as técnicas.
|
3 |
Interações coerentes e limites termodinâmicos em metrologia quânticaBueno, Kaonan Campos Micadei January 2013 (has links)
Orientador: Professor Doutor Roberto Menezes Serra / Dissertação (mestrado) - Universidade Federal do ABC. Programa de Pós-Graduação em Física, 2013
|
4 |
Algoritmo genético aplicado à determinação da melhor configuração e do menor tamanho amostral na análise da variabilidade espacial de atributos químicos do solo / Genetic algorithm applied to determine the best configuration and the lowest sample size in the analysis of space variability of chemical attributes of soilMaltauro, Tamara Cantú 21 February 2018 (has links)
Submitted by Neusa Fagundes (neusa.fagundes@unioeste.br) on 2018-09-10T17:23:20Z
No. of bitstreams: 2
Tamara_Maltauro2018.pdf: 3146012 bytes, checksum: 16eb0e2ba58be9d968ba732c806d14c1 (MD5)
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Made available in DSpace on 2018-09-10T17:23:20Z (GMT). No. of bitstreams: 2
Tamara_Maltauro2018.pdf: 3146012 bytes, checksum: 16eb0e2ba58be9d968ba732c806d14c1 (MD5)
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5)
Previous issue date: 2018-02-21 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / It is essential to determine a sampling design with a size that minimizes operating costs and
maximizes the results quality throughout a trial setting that involves the study of spatial
variability of chemical attributes on soil. Thus, this trial aimed at resizing a sample
configuration with the least possible number of points for a commercial area composed of
102 points, regarding the information on spatial variability of soil chemical attributes to
optimize the process. Initially, Monte Carlo simulations were carried out, assuming Gaussian, isotropic, and exponential model for semi-variance function and three initial sampling configurations: systematic, simple random and lattice plus close pairs. The Genetic Algorithm (GA) was used to obtain simulated data and chemical attributes of soil, in order to resize the optimized sample, considering two objective-functions. They are based on the efficiency of spatial prediction and geostatistical model estimation, which are respectively: maximization of global accuracy precision and minimization of functions based on Fisher information matrix. It was observed by the simulated data that for both objective functions, when the nugget effect and range varied, samplings usually showed the lowest values of objectivefunction, whose nugget effect was 0 and practical range was 0.9. And the increase in practical range has generated a slight reduction in the number of optimized sampling points for most cases. In relation to the soil chemical attributes, GA was efficient in reducing the sample size with both objective functions. Thus, sample size varied from 30 to 35 points in order to maximize global accuracy precision, which corresponded to 29.41% to 34.31% of the initial mesh, with a minimum spatial prediction similarity to the original configuration, equal to or greater than 85%. It is noteworthy that such data have reflected on the optimization process, which have similarity between the maps constructed with sample configurations: original and optimized. Nevertheless, the sample size of the optimized sample varied from 30 to 40 points to minimize the function based on Fisher information matrix, which corresponds to 29.41% and 39.22% of the original mesh, respectively. However, there was no similarity between the constructed maps when considering the initial and optimum sample configuration. For both objective functions, the soil chemical attributes showed mild spatial dependence for the original sample configuration. And, most of the attributes showed mild or strong spatial dependence for optimum sample configuration. Thus, the optimization process was efficient when applied to both simulated data and soil chemical attributes. / É necessário determinar um esquema de amostragem com um tamanho que minimize os
custos operacionais e maximize a qualidade dos resultados durante a montagem de um
experimento que envolva o estudo da variabilidade espacial de atributos químicos do solo.
Assim, o objetivo deste trabalho foi redimensionar uma configuração amostral com o menor
número de pontos possíveis para uma área comercial composta por 102 pontos,
considerando a informação sobre a variabilidade espacial de atributos químicos do solo no
processo de otimização. Inicialmente, realizaram-se simulações de Monte Carlo, assumindo
as variáveis estacionárias Gaussiana, isotrópicas, modelo exponencial para a função
semivariância e três configurações amostrais iniciais: sistemática, aleatória simples e lattice
plus close pairs. O Algoritmo Genético (AG) foi utilizado para a obtenção dos dados
simulados e dos atributos químicos do solo, a fim de se redimensionar a amostra otimizada,
considerando duas funções-objetivo. Essas estão baseadas na eficiência quanto à predição
espacial e à estimação do modelo geoestatístico, as quais são respectivamente: a
maximização da medida de acurácia exatidão global e a minimização de funções baseadas
na matriz de informação de Fisher. Observou-se pelos dados simulados que, para ambas as
funções-objetivo, quando o efeito pepita e o alcance variaram, em geral, as amostragens
apresentaram os menores valores da função-objetivo, com efeito pepita igual a 0 e alcance
prático igual a 0,9. O aumento do alcance prático gerou uma leve redução do número de
pontos amostrais otimizados para a maioria dos casos. Em relação aos atributos químicos
do solo, o AG, com ambas as funções-objetivo, foi eficiente quanto à redução do tamanho
amostral. Para a maximização da exatidão global, tem-se que o tamanho amostral da nova
amostra reduzida variou entre 30 e 35 pontos que corresponde respectivamente a 29,41% e
a 34,31% da malha inicial, com uma similaridade mínima de predição espacial, em relação à
configuração original, igual ou superior a 85%. Vale ressaltar que tais dados refletem no
processo de otimização, os quais apresentam similaridade entres os mapas construídos
com as configurações amostrais: original e otimizada. Todavia, o tamanho amostral da
amostra otimizada variou entre 30 e 40 pontos para minimizar a função baseada na matriz
de informaçãode Fisher, a qual corresponde respectivamente a 29,41% e 39,22% da malha
original. Mas, não houve similaridade entre os mapas elaborados quando se considerou a
configuração amostral inicial e a otimizada. Para ambas as funções-objetivo, os atributos
químicos do solo apresentaram moderada dependência espacial para a configuração
amostral original. E, a maioria dos atributos apresentaram moderada ou forte dependência
espacial para a configuração amostral otimizada. Assim, o processo de otimização foi
eficiente quando aplicados tanto nos dados simulados como nos atributos químicos do solo.
|
5 |
Extensões do modelo -potência / extension for the alpha-power modelMartinez Florez, Guillermo Domingo 22 June 2011 (has links)
Em analise de dados que apresentam certo grau de assimetria a suposicao que as observações seguem uma distribuição normal, pode resultar ser uma suposição irreal e a aplicação deste modelo pode ocultar características importantes do modelo verdadeiro. Este tipo de situação deu forca á aplicação de modelo assimétricos, destacando-se entre estes a família de distribuições skew-symmetric, desenvolvida por Azzalini (1985). Neste trabalho nos apresentamos uma segunda proposta para a anàlise de dados com presença importante de assimetria e/ou curtose, comparado com a distribuição normal. Nós apresentamos e estudamos algumas propriedades dos modelos alfa-potência e log-alfa-potência, onde também estudamos o problema de estimação, as matrizes de informação observada e esperada de Fisher e o grau do viés dos estimadores mediante alguns processos de simulação. Nós introduzimos um modelo mais estável que o modelo alfa- potência do qual derivamos o caso bimodal desta distribuição e introduzimos os modelos bimodal simêtrico e assimêtrico alfa-potencia. Posteriormente nós estendemos a distribuição alfa-potência para o caso do modelo Birnbaum-Saunders, estudamos as propriedades deste novo modelo, desenvolvemos estimadores para os parametros e propomos estimadores com viés corrigido. Também introduzimos o modelo de regressão alfa-potência para dados censurados e não censurados e para o modelo de regressão log-linear Birnbaum-Saunders; aqui nós derivamos os estimadores dos parâmetros e estudamos algumas técnicas de validação dos modelos. Por ultimo nós fazemos a extensão multivariada do modelo alfa-potência e estudamos alguns processos de estimação dos parâmetros. Para todos os casos estudados apresentam-se ilustrações com dados já analisados previamente com outras suposições de distribuições. / In data analysis where data present certain degree of asymmetry the assunption of normality can result in an unreal situation and the application of this model can hide important caracteristics of the true model. Situations of this type has given strength to the use of asymmetric models with special emphasis on the skew-symmetric distribution developed by Azzalini (1985). In this work we present an alternative for data analysis in the presence of signi¯cant asymmetry or kurtosis, when compared with the normal distribution, as well as other situations that involve such model. We present and study of the properties of the ®-power and log-®-power distributions, where we also study the estimation problem, the observed and expected information matrices and the degree of bias in estimation using simulation procedures. A °exible model version is proposed for the ®-power distribution, following an extension to a bimodal version. Follows next an extension of the Birnbaum-Saunders distribution using the ®-power distribution, where some properties are studied, estimating approaches are developed as well as corrected bias estimator developed. We also develop censored and uncensored regression for the ®-power model and for the log-linear Birnbaum-Saunders regression models, for which model validation techniques are studied. Finally a multivariate extension of the ®-power model is proposed and some estimation procedures are investigated for the model. All the situations investigated were illustrated with data application using data sets previally analysed with other distributions.
|
6 |
Extensões do modelo -potência / extension for the alpha-power modelGuillermo Domingo Martinez Florez 22 June 2011 (has links)
Em analise de dados que apresentam certo grau de assimetria a suposicao que as observações seguem uma distribuição normal, pode resultar ser uma suposição irreal e a aplicação deste modelo pode ocultar características importantes do modelo verdadeiro. Este tipo de situação deu forca á aplicação de modelo assimétricos, destacando-se entre estes a família de distribuições skew-symmetric, desenvolvida por Azzalini (1985). Neste trabalho nos apresentamos uma segunda proposta para a anàlise de dados com presença importante de assimetria e/ou curtose, comparado com a distribuição normal. Nós apresentamos e estudamos algumas propriedades dos modelos alfa-potência e log-alfa-potência, onde também estudamos o problema de estimação, as matrizes de informação observada e esperada de Fisher e o grau do viés dos estimadores mediante alguns processos de simulação. Nós introduzimos um modelo mais estável que o modelo alfa- potência do qual derivamos o caso bimodal desta distribuição e introduzimos os modelos bimodal simêtrico e assimêtrico alfa-potencia. Posteriormente nós estendemos a distribuição alfa-potência para o caso do modelo Birnbaum-Saunders, estudamos as propriedades deste novo modelo, desenvolvemos estimadores para os parametros e propomos estimadores com viés corrigido. Também introduzimos o modelo de regressão alfa-potência para dados censurados e não censurados e para o modelo de regressão log-linear Birnbaum-Saunders; aqui nós derivamos os estimadores dos parâmetros e estudamos algumas técnicas de validação dos modelos. Por ultimo nós fazemos a extensão multivariada do modelo alfa-potência e estudamos alguns processos de estimação dos parâmetros. Para todos os casos estudados apresentam-se ilustrações com dados já analisados previamente com outras suposições de distribuições. / In data analysis where data present certain degree of asymmetry the assunption of normality can result in an unreal situation and the application of this model can hide important caracteristics of the true model. Situations of this type has given strength to the use of asymmetric models with special emphasis on the skew-symmetric distribution developed by Azzalini (1985). In this work we present an alternative for data analysis in the presence of signi¯cant asymmetry or kurtosis, when compared with the normal distribution, as well as other situations that involve such model. We present and study of the properties of the ®-power and log-®-power distributions, where we also study the estimation problem, the observed and expected information matrices and the degree of bias in estimation using simulation procedures. A °exible model version is proposed for the ®-power distribution, following an extension to a bimodal version. Follows next an extension of the Birnbaum-Saunders distribution using the ®-power distribution, where some properties are studied, estimating approaches are developed as well as corrected bias estimator developed. We also develop censored and uncensored regression for the ®-power model and for the log-linear Birnbaum-Saunders regression models, for which model validation techniques are studied. Finally a multivariate extension of the ®-power model is proposed and some estimation procedures are investigated for the model. All the situations investigated were illustrated with data application using data sets previally analysed with other distributions.
|
7 |
Multistage adaptive testing based on logistic positive exponent model / Teste adaptativo multiestágio baseado no modelo logístico de expoente positivoThales Akira Matsumoto Ricarte 08 December 2016 (has links)
The Logistic Positive Exponent (LPE) model from Item Response Theory (IRT) and the Multistage Adaptive Testing (MST) using this model are the focus of this dissertation. For the LPE, item parameter estimations efficiency was studied, it was also analyzed the latent trait estimation for different response patterns to verify the effects it has on guessing and accidental mistakes. The LPE was put in contrast to Rasch, 2 and 3 parameter logistic models to compare the its efficiency. The item parameter estimations were implemented using the Bayesian approach for the Monte Carlo Markov Chain and the Marginal Maximum Likelihood. The latent trait estimation were calculated by the Expected a Posterior method. A goodness of fit analysis were made using the Posterior Predictive model-check method and information statistics. In the MST perspective, the LPE was compared with the Rasch and 2 logistic models. Different tests were constructed using methods that uses optimization functions to select items from a bank. Three functions were chosen to this task: the Fisher and Kullback-Leibler informations and the Continuous Entropy Method. The results were obtained with simulated and real data, the latter was from a general science knowledge test calls General Science test and it was provided by the Educational Testing Service company. Results showed that the LPE might help individuals that made mistakes in earlier stage of the test, especially for easy items. However, the LPE requires a large individual sample and time to estimate the item parameters making it an expensive model. MST based on LPE can be dissolve the impact of accidental mistakes from high performance test takers depending of the item pool available and the way the test is constructed. The optimization function performance vary depending of the situation. / O modelo Logístico de Expoente Positivo (LPE) da Teoria de Resposta ao Item (IRT) e o Teste Adaptativo Multiestágio (MST) sob esse modelo são os focos desta tese. Para o LPE, a eficiência da estimações dos parâmetros dos itens foram estudados, também foi analisado como as estimativas dos parâmetros dos indivíduos foram influenciados por padrões de respostas contendo chutes ou erros acidentais. O LPE foi comparado com os modelos de Rasch, Logístico de 2 e 3 Parâmetros para verificar seu desempenho. A estimação dos parâmetros dos itens foi implementada usando Monte Carlo via cadeias de Markov sob a abordagem Bayesiana e a Máxima Verossimilhança Marginal. As estimações dos traços latentes foram calculadas através do Método da Esperança a Posteriori. A qualidade do ajuste dos modelos foram analisadas usando o método Posterior Predictive model-check e critério de informações. Sob o contexto do MST, o LPE foi comparado com os modelos de Rasch e Logístico de 2 Parâmetro. Os MSTs foram construídos usando diferentes funções de objetivas que selecionaram os itens de bancos para comporem os testes. Três funções foram escolhidas para esse trabalho: As informações de Fisher e Kullback-Leibler e o Continuous Entropy Method. Os resultados para dados simulados e reais foram obtidos, os dados reais eram consituídos de respostas a perguntas sob conhecimento científico de do General Science test que foram fornecidos pela empresa Educational Testing Service. Resultados mostraram que o LPE pode ajudar os indivíduos que cometeram erros acidentais nas primeiras perguntas do teste, especialmente para os itens fáceis. Entretanto, este modelo requer tempo e uma grande quantidade de amostras de indivíduos para calcular as estimativas dos parâmetros dos itens o que o torna um modelo caro. O MST sob o modelo LPE pode diminuir o impacto de erros acidentais cometidos por examinandos com alto desempenho dependendo dos itens disponíveis no banco e a forma de construção do MST. O desempenho das funções objetivas variaram de acordo com cada situação.
|
8 |
Multistage adaptive testing based on logistic positive exponent model / Teste adaptativo multiestágio baseado no modelo logístico de expoente positivoRicarte, Thales Akira Matsumoto 08 December 2016 (has links)
The Logistic Positive Exponent (LPE) model from Item Response Theory (IRT) and the Multistage Adaptive Testing (MST) using this model are the focus of this dissertation. For the LPE, item parameter estimations efficiency was studied, it was also analyzed the latent trait estimation for different response patterns to verify the effects it has on guessing and accidental mistakes. The LPE was put in contrast to Rasch, 2 and 3 parameter logistic models to compare the its efficiency. The item parameter estimations were implemented using the Bayesian approach for the Monte Carlo Markov Chain and the Marginal Maximum Likelihood. The latent trait estimation were calculated by the Expected a Posterior method. A goodness of fit analysis were made using the Posterior Predictive model-check method and information statistics. In the MST perspective, the LPE was compared with the Rasch and 2 logistic models. Different tests were constructed using methods that uses optimization functions to select items from a bank. Three functions were chosen to this task: the Fisher and Kullback-Leibler informations and the Continuous Entropy Method. The results were obtained with simulated and real data, the latter was from a general science knowledge test calls General Science test and it was provided by the Educational Testing Service company. Results showed that the LPE might help individuals that made mistakes in earlier stage of the test, especially for easy items. However, the LPE requires a large individual sample and time to estimate the item parameters making it an expensive model. MST based on LPE can be dissolve the impact of accidental mistakes from high performance test takers depending of the item pool available and the way the test is constructed. The optimization function performance vary depending of the situation. / O modelo Logístico de Expoente Positivo (LPE) da Teoria de Resposta ao Item (IRT) e o Teste Adaptativo Multiestágio (MST) sob esse modelo são os focos desta tese. Para o LPE, a eficiência da estimações dos parâmetros dos itens foram estudados, também foi analisado como as estimativas dos parâmetros dos indivíduos foram influenciados por padrões de respostas contendo chutes ou erros acidentais. O LPE foi comparado com os modelos de Rasch, Logístico de 2 e 3 Parâmetros para verificar seu desempenho. A estimação dos parâmetros dos itens foi implementada usando Monte Carlo via cadeias de Markov sob a abordagem Bayesiana e a Máxima Verossimilhança Marginal. As estimações dos traços latentes foram calculadas através do Método da Esperança a Posteriori. A qualidade do ajuste dos modelos foram analisadas usando o método Posterior Predictive model-check e critério de informações. Sob o contexto do MST, o LPE foi comparado com os modelos de Rasch e Logístico de 2 Parâmetro. Os MSTs foram construídos usando diferentes funções de objetivas que selecionaram os itens de bancos para comporem os testes. Três funções foram escolhidas para esse trabalho: As informações de Fisher e Kullback-Leibler e o Continuous Entropy Method. Os resultados para dados simulados e reais foram obtidos, os dados reais eram consituídos de respostas a perguntas sob conhecimento científico de do General Science test que foram fornecidos pela empresa Educational Testing Service. Resultados mostraram que o LPE pode ajudar os indivíduos que cometeram erros acidentais nas primeiras perguntas do teste, especialmente para os itens fáceis. Entretanto, este modelo requer tempo e uma grande quantidade de amostras de indivíduos para calcular as estimativas dos parâmetros dos itens o que o torna um modelo caro. O MST sob o modelo LPE pode diminuir o impacto de erros acidentais cometidos por examinandos com alto desempenho dependendo dos itens disponíveis no banco e a forma de construção do MST. O desempenho das funções objetivas variaram de acordo com cada situação.
|
9 |
Geometria da informação : métrica de Fisher / Information geometry : Fisher's metricPorto, Julianna Pinele Santos, 1990- 23 August 2018 (has links)
Orientador: João Eloir Strapasson / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matemática Estatística e Computação Científica / Made available in DSpace on 2018-08-23T13:44:50Z (GMT). No. of bitstreams: 1
Porto_JuliannaPineleSantos_M.pdf: 2346170 bytes, checksum: 9f8b7284329ef1eb2f319c2e377b7a3c (MD5)
Previous issue date: 2013 / Resumo: A Geometria da Informação é uma área da matemática que utiliza ferramentas geométricas no estudo de modelos estatísticos. Em 1945, Rao introduziu uma métrica Riemanniana no espaço das distribuições de probabilidade usando a matriz de informação, dada por Ronald Fisher em 1921. Com a métrica associada a essa matriz, define-se uma distância entre duas distribuições de probabilidade (distância de Rao), geodésicas, curvaturas e outras propriedades do espaço. Desde então muitos autores veem estudando esse assunto, que está naturalmente ligado a diversas aplicações como, por exemplo, inferência estatística, processos estocásticos, teoria da informação e distorção de imagens. Neste trabalho damos uma breve introdução à geometria diferencial e Riemanniana e fazemos uma coletânea de alguns resultados obtidos na área de Geometria da Informação. Mostramos a distância de Rao entre algumas distribuições de probabilidade e damos uma atenção especial ao estudo da distância no espaço formado por distribuições Normais Multivariadas. Neste espaço, como ainda não é conhecida uma fórmula fechada para a distância e nem para a curva geodésica, damos ênfase ao cálculo de limitantes para a distância de Rao. Conseguimos melhorar, em alguns casos, o limitante superior dado por Calvo e Oller em 1990 / Abstract: Information Geometry is an area of mathematics that uses geometric tools in the study of statistical models. In 1945, Rao introduced a Riemannian metric on the space of the probability distributions using the information matrix provided by Ronald Fisher in 1921. With the metric associated with this matrix, we define a distance between two probability distributions (Rao's distance), geodesics, curvatures and other properties. Since then, many authors have been studying this subject, which is associated with various applications, such as: statistical inference, stochastic processes, information theory, and image distortion. In this work we provide a brief introduction to Differential and Riemannian Geometry and a survey of some results obtained in Information Geometry. We show Rao's distance between some probability distributions, with special atention to the study of such distance in the space of multivariate normal distributions. In this space, since closed forms for the distance and for the geodesic curve are not known yet, we focus on the calculus of bounds for Rao's distance. In some cases, we improve the upper bound provided by Calvo and Oller in 1990 / Mestrado / Matematica Aplicada / Mestra em Matemática Aplicada
|
10 |
Calibração linear assimétrica / Asymmetric Linear CalibrationFigueiredo, Cléber da Costa 27 February 2009 (has links)
A presente tese aborda aspectos teóricos e aplicados da estimação dos parâmetros do modelo de calibração linear com erros distribuídos conforme a distribuição normal-assimétrica (Azzalini, 1985) e t-normal-assimétrica (Gómez, Venegas e Bolfarine, 2007). Aplicando um modelo assimétrico, não é necessário transformar as variáveis a fim de obter erros simétricos. A estimação dos parâmetros e das variâncias dos estimadores do modelo de calibração foram estudadas através da visão freqüentista e bayesiana, desenvolvendo algoritmos tipo EM e amostradores de Gibbs, respectivamente. Um dos pontos relevantes do trabalho, na óptica freqüentista, é a apresentação de uma reparametrização para evitar a singularidade da matriz de informação de Fisher sob o modelo de calibração normal-assimétrico na vizinhança de lambda = 0. Outro interessante aspecto é que a reparametrização não modifica o parâmetro de interesse. Já na óptica bayesiana, o ponto forte do trabalho está no desenvolvimento de medidas para verificar a qualidade do ajuste e que levam em consideração a assimetria do conjunto de dados. São propostas duas medidas para medir a qualidade do ajuste: o ADIC (Asymmetric Deviance Information Criterion) e o EDIC (Evident Deviance Information Criterion), que são extensões da ideia de Spiegelhalter et al. (2002) que propôs o DIC ordinário que só deve ser usado em modelos simétricos. / This thesis focuses on theoretical and applied estimation aspects of the linear calibration model with skew-normal (Azzalini, 1985) and skew-t-normal (Gómez, Venegas e Bolfarine, 2007) error distributions. Applying the asymmetrical distributed error methodology, it is not necessary to transform the variables in order to have symmetrical errors. The frequentist and the Bayesian solution are presented. The parameter estimation and its variance estimation were studied using the EM algorithm and the Gibbs sampler, respectively, in each approach. The main point, in the frequentist approach, is the presentation of a new parameterization to avoid singularity of the information matrix under the skew-normal calibration model in a neighborhood of lambda = 0. Another interesting aspect is that the reparameterization developed to make the information matrix nonsingular, when the skewness parameter is near to zero, leaves the parameter of interest unchanged. The main point, in the Bayesian framework, is the presentation of two measures of goodness-of-fit: ADIC (Asymmetric Deviance Information Criterion) and EDIC (Evident Deviance Information Criterion ). They are natural extensions of the ordinary DIC developed by Spiegelhalter et al. (2002).
|
Page generated in 0.083 seconds