• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 96
  • 5
  • 2
  • Tagged with
  • 108
  • 108
  • 28
  • 20
  • 19
  • 17
  • 17
  • 17
  • 17
  • 15
  • 14
  • 10
  • 10
  • 10
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

O metodo Bootstrap e aplicações a regressão multipla

Silva, Damião Nobrega da 20 March 1995 (has links)
Orientador: Gabriela Stangenhaus / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Ciencia da Computação / Made available in DSpace on 2018-07-20T01:15:10Z (GMT). No. of bitstreams: 1 Silva_DamiaoNobregada_M.pdf: 2683132 bytes, checksum: 205a0f07bbedeff4e84f86e420cb584d (MD5) Previous issue date: 1995 / Resumo: Neste trabalho será apresentada uma descrição básica de tópicos importantes do método Bootstrap (Efron, 1979a) para serem aplicados em problemas de Inferência Estatística cujas soluções analíticas são complicadas ou desconhecidas. Este texto é dirigido não só para estudantes de pós-graduação em Estatística, mas também para alunos de Bacharelado em Estatística que tenham cursado disciplinas básicas de Probabilidade e Inferência. É vista, inicialmente, a implementação do método para estimar variâncias, tendenciosidades e construção de intervalos de confiança. Em seguida, esta metodologia é implementada em problemas de análise de regressão múltipla utilizando critérios de estimação como: mínimos quadrados, norma LI e outros métodos robustos. Finalmente, é apresentada uma aplicação com dados de um experimento químico em bases de Schiff, que é um problema de regressão linear com restrição nos parâmetros, para mostrar a versatilidade do método em problemas mais complicados. / Abstract: Not informed. / Mestrado / Mestre em Estatística
52

Comparação das estimações do tamanho de uma população por captura-recaptura utilizando amostragem simples, multipla e sequencial

Bullon Camarena, Luz Jeanet 14 February 1995 (has links)
Orientador: Cicilia Yuko Wada / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatitica e Ciencia da Computação / Made available in DSpace on 2018-07-20T04:52:31Z (GMT). No. of bitstreams: 1 BullonCamarena_LuzJeanet_M.pdf: 1809737 bytes, checksum: ad51d5533dc9b09ad4120c8f01426491 (MD5) Previous issue date: 1995 / Resumo: Neste trabalho, são apresentados os modelos e esquemas de amostragem no método de Captura- Recaptura, C-R, para estimação do tamanho de uma população fechada N. A comparação dos estimadores destes modelos é realizada através dos intervalos de confiança baseados na distribuição assintótica e intervalos de confiança obtidos utilizando o método bootstrap.Primeiramente, são considerados os modelos de C-R de duas amostras (ou ocasiões) com os estimadores de Petersen (1896) e Chapman (1952), também é estudada a distribuição assintótica do estimador de Petersen, (Sen, 1987). Em segundo lugar, são considerados os modelos de múltiplas amostras, com os estimadores de Leite et aI. (1988) e o de Petersen (ponderado) multiamostral (Sen, 1987). Em terceiro lugar, é realizado o estudo de métodos de C-R de amostragem seqüencial (Sen, 1987) tanto no caso do tamanho de amostra fixo como estocástico. Para os casos de amostragem simples e múltipla, e para amostragem seqüencial de tamanho de amostra fixo, o método bootstrap apresenta-se como uma alternativa para a avaliação das estimativas de N e a estimação da sua variabilidade. Simulações de experimentos de C-R são feitas apresentando-se as estimativas e os intervalos de confiança em cada esquema de amostragem. Os programas de computação correspondentes foram desenvolvidos usando o software estatístico SAS e o software matemático Mathematica. / Abstract: Not informed / Mestrado / Mestre em Estatística
53

Grandes desvios no contexto de variáveis aleatórias independentes e identicamente distribuídas

Giacomelli, Marco Antonio January 1995 (has links)
Esta dissertação é o resultado de um estudo sobre a Teoria de Grandes Desvios, no qual deu-se ênfase ao contexto de variáveis aleatórias independentes e identicamente distribuídas (v.a's i.i.d.). Com a finalidade de discutir a lguns dos principais resultados sobre Grandes Desvios, inicialmente apresentamos as definições e propriedades básicas. ~uma etapa seguinte apresentamos o teorema de Cramér-Chernoff para v .a's i. i .d. a valores em R . A seguir enunciamos um princípio de Grandes Desvios para quaisquer abertos e fechados de R. Numa etapa posterior estendemos o teorema de Cramér-Chernoff para v.a's i.i.d. a valores em Rd. No Capítulo final apresentamos, de maneira sintética, outras extensões do teorema de Cramér-Chernoff, tais como: o teorema de Sanov para v .a's i.i .d. e o princípio de Grandes Desvios para Cadeias de Markov finit as. Além disso, apresentamos algumas aplicações de Grandes Desvios em Estatística Matemática. / This thesis is the result of a study about the Large Deviations Theory, in which the context of independent and identically distributed (i.i.d.) random variables was emphasized. Aiming to discuss some of the main results about Large Deviations, first we present the definitions and the basic properties. In a second moment, we present Cramér-Chernoff's theorem for i.i.d random variables in R. Mter, we enunciate a Large Deviations principie for any open and closed sets in R . In another stage, we extend Cramér-Chernoff's theorem for i.i.d. random variables in Rd. In Jast chapter, we present, briefly, other extensions of CramérChernoff's theorem, such as Sanov's theorem for i.i.d. random variables and the Large Deviations principie for finite state Markov Chains. Besides, we present some applications of Large Deviations in Mathematical Statisitics.
54

Grandes desvios no contexto de variáveis aleatórias independentes e identicamente distribuídas

Giacomelli, Marco Antonio January 1995 (has links)
Esta dissertação é o resultado de um estudo sobre a Teoria de Grandes Desvios, no qual deu-se ênfase ao contexto de variáveis aleatórias independentes e identicamente distribuídas (v.a's i.i.d.). Com a finalidade de discutir a lguns dos principais resultados sobre Grandes Desvios, inicialmente apresentamos as definições e propriedades básicas. ~uma etapa seguinte apresentamos o teorema de Cramér-Chernoff para v .a's i. i .d. a valores em R . A seguir enunciamos um princípio de Grandes Desvios para quaisquer abertos e fechados de R. Numa etapa posterior estendemos o teorema de Cramér-Chernoff para v.a's i.i.d. a valores em Rd. No Capítulo final apresentamos, de maneira sintética, outras extensões do teorema de Cramér-Chernoff, tais como: o teorema de Sanov para v .a's i.i .d. e o princípio de Grandes Desvios para Cadeias de Markov finit as. Além disso, apresentamos algumas aplicações de Grandes Desvios em Estatística Matemática. / This thesis is the result of a study about the Large Deviations Theory, in which the context of independent and identically distributed (i.i.d.) random variables was emphasized. Aiming to discuss some of the main results about Large Deviations, first we present the definitions and the basic properties. In a second moment, we present Cramér-Chernoff's theorem for i.i.d random variables in R. Mter, we enunciate a Large Deviations principie for any open and closed sets in R . In another stage, we extend Cramér-Chernoff's theorem for i.i.d. random variables in Rd. In Jast chapter, we present, briefly, other extensions of CramérChernoff's theorem, such as Sanov's theorem for i.i.d. random variables and the Large Deviations principie for finite state Markov Chains. Besides, we present some applications of Large Deviations in Mathematical Statisitics.
55

Modelos de censura tipo II progressiva e propriedades assintóticas do estimador de máxima verossimilhança

Brito, Éder Silva de 01 July 2014 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Matemática, 2014. / Submitted by Ana Cristina Barbosa da Silva (annabds@hotmail.com) on 2014-10-15T18:25:39Z No. of bitstreams: 1 2014_EderSilvadeBrito.pdf: 659743 bytes, checksum: 60c4eb78da3ed0c5ec861b8dfe0e37b7 (MD5) / Approved for entry into archive by Guimaraes Jacqueline(jacqueline.guimaraes@bce.unb.br) on 2014-10-17T13:44:08Z (GMT) No. of bitstreams: 1 2014_EderSilvadeBrito.pdf: 659743 bytes, checksum: 60c4eb78da3ed0c5ec861b8dfe0e37b7 (MD5) / Made available in DSpace on 2014-10-17T13:44:08Z (GMT). No. of bitstreams: 1 2014_EderSilvadeBrito.pdf: 659743 bytes, checksum: 60c4eb78da3ed0c5ec861b8dfe0e37b7 (MD5) / Neste trabalho, estudamos métodos inferenciais baseados em amostras na presença de censura tipo II progressiva. Primeiramente, apresentamos três modelos envolvendo as distribuições: de Valor Extremo, por Ding e Yu (2012), Exponencial Generalizada, por Ismail (2012), e Lognormal de Três Parâmetros, por Basak et al. (2009). Num segundo momento, baseados no estudo de Lin e Balakrishnan (2011), investigamos as propriedades de consistência e normalidade assintótica de estimadores de máxima verossimilhança para modelos sob esquema de censura tipo-II progressiva. ______________________________________________________________________________ ABSTRACT / In this work, we study inferential methods based on samples in the presence of progressively Type-II censoring. First, we present three models involving distributions: Extreme-Value, by Ding and Yu (2012), Generalized Exponential, by Ismail (2012), and Three-Parameter Lognormal, by Basak et al. (2009). Secondly, based on the study of Lin and Balakrishnan (2011), we investigated the properties of consistency and asymptotic normalityof maximum likelihood estimators for models under a progressive Type-II censoring scheme.
56

Grandes desvios no contexto de variáveis aleatórias independentes e identicamente distribuídas

Giacomelli, Marco Antonio January 1995 (has links)
Esta dissertação é o resultado de um estudo sobre a Teoria de Grandes Desvios, no qual deu-se ênfase ao contexto de variáveis aleatórias independentes e identicamente distribuídas (v.a's i.i.d.). Com a finalidade de discutir a lguns dos principais resultados sobre Grandes Desvios, inicialmente apresentamos as definições e propriedades básicas. ~uma etapa seguinte apresentamos o teorema de Cramér-Chernoff para v .a's i. i .d. a valores em R . A seguir enunciamos um princípio de Grandes Desvios para quaisquer abertos e fechados de R. Numa etapa posterior estendemos o teorema de Cramér-Chernoff para v.a's i.i.d. a valores em Rd. No Capítulo final apresentamos, de maneira sintética, outras extensões do teorema de Cramér-Chernoff, tais como: o teorema de Sanov para v .a's i.i .d. e o princípio de Grandes Desvios para Cadeias de Markov finit as. Além disso, apresentamos algumas aplicações de Grandes Desvios em Estatística Matemática. / This thesis is the result of a study about the Large Deviations Theory, in which the context of independent and identically distributed (i.i.d.) random variables was emphasized. Aiming to discuss some of the main results about Large Deviations, first we present the definitions and the basic properties. In a second moment, we present Cramér-Chernoff's theorem for i.i.d random variables in R. Mter, we enunciate a Large Deviations principie for any open and closed sets in R . In another stage, we extend Cramér-Chernoff's theorem for i.i.d. random variables in Rd. In Jast chapter, we present, briefly, other extensions of CramérChernoff's theorem, such as Sanov's theorem for i.i.d. random variables and the Large Deviations principie for finite state Markov Chains. Besides, we present some applications of Large Deviations in Mathematical Statisitics.
57

Analise de correspondencia para dados com estrutura de grupo

Pamplona, Admur Severino 12 February 1998 (has links)
Orientador: Regina Célia de Carvalho Pinto Moran / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Computação Cientifica / Made available in DSpace on 2018-07-23T09:31:22Z (GMT). No. of bitstreams: 1 Pamplona_AdmurSeverino_M.pdf: 6620069 bytes, checksum: c10774652424f5fe14b01e31580841c8 (MD5) Previous issue date: 1998 / Resumo: Neste trabalho, a técnica de análise multivariada para dados categóricos, Análise de Correspondência (AC) é discutida de forma essencialmente geométrica e descritiva. É feita uma listagem dos vários tipos de dados que podem ser utilizados como entrada desse algoritmo, sendo a tabela de contingência a forma mais simples. Deste modo, desenvolvemos a Análise de Correspondência Simples (ACS), que é o estudo da Análise de Correspondência para tabelas de contingência simples, com a ênfase usual da visão geométrica. A Análise de Correspondência para tabelas de contingência que apresentam uma estrutura de grupo, que chamamos de Análise de Correspondência em Grupos (ACGr) é, então, discutida como uma extensão da ACS, onde o interesse é o de conhecer as associações entre os agrupamentos das categorias nesta estrutura, mas também conhecer as associações das categorias dentro de cada grupo e entre os grupos. Assim, podemos dizer que a ACGr compartilha o princípio da Análise Discriminante Canônica de Fisher: o de maximizar a variabilidade entre os grupos, aqui inércia entre grupos. A ACGr pode ser estruturada em três etapas. A primeira é definir um representante para cada grupo, aqui definimos o centróide como o representante. A segunda é maximizar a inércia destes representantes, que é equivalente a desenvolver a ACS para as tabelas de contingências formadas pelos representantes dos grupos. A terceira é colocar todas, as categorias dos grupos como pontos suplementares na estrutura definida pelos centróides. Para validar esta estrutura mostramos as relações entre as várias matrizes associadas a uma tabela de contingência com estrutura de grupo e demonstramos os principais resultados, como enunciados em Greenacre( 1984). Uma aplicação da ACGr é feita trabalhando com dados dos censos de 1970, 1980 e 1991, onde o interesse é analisar a associação entre variáveis descritoras (Instrução, Renda e Localização do Domicílio) e a variável resposta (Localização Doméstica) controlada pela variável Ciclos de Vida / Abstract: Not informed / Mestrado / Mestre em Estatística
58

Modelo de Gauss-Markov de regressão : adequação de normalidade e inferencia na escala original, apos transformação

Vives, Maria Carola Alfaro 08 May 1995 (has links)
Orientador: Clarice Azevedo de Luna Freire / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Ciencia da Computação / Made available in DSpace on 2018-07-20T08:05:15Z (GMT). No. of bitstreams: 1 Vives_MariaCarolaAlfaro_M.pdf: 2360924 bytes, checksum: 7a09c2138cc3e2e7899e8ad23c36a5a4 (MD5) Previous issue date: 1994 / Resumo: Não informado. / Abstract: Not informed. / Mestrado / Mestre em Estatística
59

Teoria Estatística da Informação para Dados de Radar de Abertura Sintética Univariados e Polarimétricos

NASCIMENTO, Abraão David Costa do 29 February 2012 (has links)
Submitted by Alexandra Feitosa (alexandra.feitosa@ufpe.br) on 2017-07-21T13:10:19Z No. of bitstreams: 1 2012-Tese-AbraãoDoNascimento.pdf: 56935975 bytes, checksum: 0abf608b7bdbccc73399e9281448e6b2 (MD5) / Made available in DSpace on 2017-07-21T13:10:20Z (GMT). No. of bitstreams: 1 2012-Tese-AbraãoDoNascimento.pdf: 56935975 bytes, checksum: 0abf608b7bdbccc73399e9281448e6b2 (MD5) Previous issue date: 2012-02-29 / A tecnologia de radar de abertura sintética polarimétrico (Polarimetric Synthetic Aper-ture Radar– PolSAR) vem sendo apontada como um indispensável ferramental paracapturar e analisar informações aeroespaciais, em particular, da superfície da terra[Freitas, C. C., Frery, A. C. & Correia, A. H. (2005), ‘The polarimetricGdistributionfor SAR data analysis’.Environmetrics16(1), 13–31]. O objetivo desta tese é a pro-posta de métodos inferenciais baseados em Teoria da Informação para dados polari-métricos. Assim, o trabalho de investigação desta tese está dividido em duas áreas deestudo. Primeiramente, propor distâncias estocásticas bem como investigar seus com-portamentos assintóticos para as diferentes distribuições voltadas a imagens PolSAR.Adicionalmente, visa propor outras medidas dentro da Teoria da Informação direcio-nadas aos contextos de imagens PolSAR, tal como entropia [Zografos, K. & Nadarajah,S. (2005), ‘Expressions for Rényi and Shannon entropies for multivariate distributions’,Statistics & Probability Letters71(1), 71–84]. Em segundo lugar, realizar aplicações dosferramentais derivados aos contextos de classificação, segmentação e detecção de bor-das em tais imagens.Inicialmente, na Seção“Testes paramétricos e não paramétrico para dados speckle”, umaimagem SAR é o resultado de observar uma variável aleatória com distribuiçãoG0I.Desta forma, recursos de Inferência Estatística (tais como estimação por máxima ve-rossimilhança - EMV, teste de hipótese e medidas descritivas das estimativas) tentammapear comportamentos e comparações entre as ferramentas desenvolvidas dentrode uma imagem SAR. Ainda, os resultados são submetidos a um modelo de contami-nação paramétrico espelho do fenômeno de reflexão de canto.Como um segundo estudo, a Seção“Estimações melhoradas no modelo Wishart com-plexo escalonado”apresenta dois métodos de EMV melhorados para o número de equi-valente de looks. Tais metodologias são baseadas na expressão para o viés de segundaordem em EMV e em uma fórmula para a verossimilhança perfilada modificada. Fi-nalmente, seus desempenhos são comparados com outros métodos clássicos.Um terceiro estudo é apresentado na Seção“Expressões para distâncias em dados Pol-SAR”. Neste caso, os pixels são matrizes aleatórias pertencentes a família de distribui-ções Wishart complexa escalonada. Nesta perspectiva, esta seção propõe ferramentasestocásticas baseadas na Teoria da Informação (com respeito ao funcional (h,f), pro-posto por Salicrú, Menéndez, Pardo & Morales [(1994), ‘On the applications of diver-gence type measures in testing statistical hypothesis’,Journal of Multivariate Analysis 51, 372–391]) para o contexto da distribuição Wishart complexa escalonada.Posteriormente, na Seção“Novas propostas de deteção de bordas em imagens PolSAR”,nós aplicamos o ferramental derivado na Seção“Expressões para distâncias em dadosPolSAR”ao contexto de detecção de borda em imagens PolSAR. Como resultado prin-cipal, as ferramentas derivadas são propostas como quatro novos detectores de bordase comparadas a uma abordagem usual.Na Seção“Análise estatística para dados PolSAR baseada em medidas de entropia”, umquinto estudo considera a proposta de testes de homogeneidade em imagens PolSARpor meio de entropias estocásticas. Esta metodologia é uma especificação da classe(h,f) de entropias proposta por Salicrú, Mendéndez & Pardo [(1993), ‘Asymptotic dis-tribution of (h,f)-entropy’,Communications in Statistics - Theory Methods22(7), 2015–2031] para a distribuição Wishart complexa escalonada e as entropias de Shannon eRényi.Finalmente, na Seção“Comparação entre testes de homogeneidade em dados PolSAR”,discute-se a comparação de três testes de homogeneidade envolvendo ferramentas daTeoria da Informação com a abordagem baseada na razão de verossimilhanças pro-posta por Conradsen, Nielsen, Schou & Skriver [(2003), ‘A test statistic in the complexWishart distribution and its application to change detection in polarimetric SAR data’,IEEE Transactions on Geoscience and Remote Sensing41(1), 4–19]. O desempenho dos tes-tes é avaliado tendo como critérios de comparação seus poderes e tamanhos estimadosassim como outras medidas descritivas. / The technology of Polarimetric Synthetic Aperture Radar (PolSAR) has been indicatedas an essential tool for capturing and analyzing aerospace informations, in particular,obtained from the earth’s surface [Freitas, C. C., Frery, A. C. & Correia, A. H. (2005),‘The polarimetricGdistribution for SAR data analysis’.Environmetrics16(1), 13–31].The aim of this thesis is the proposal of statistical inference methods based on Infor-mation Theory for polarimetric data. Thus, its research work is organized into twosegments. Firstly, propose stochastic distances and investigate its asymptotic beha-viors for different distributions of PolSAR images. Additionally, others InformationTheory measures were considered and applied on PolSAR scenarios, such as entropy[Zografos, K. & Nadarajah, S. (2005), ‘Expressions for Rényi and Shannon entropies formultivariate distributions’,Statistics & Probability Letters71(1), 71–84]. On the otherhand, propose methodologies of PolSAR image processing by means of the derivedtools, such as classification, segmentation, and edge detection methods.Initially, in Section“Parametric and nonparametric tests for data speckle”, a SAR imageis a realization of a scalar random variable withG0Idistribution. In this context, statis-tical inference techniques (such as maximum likelihood estimation - MLE, hypothesistest, and performance descriptive measures) are performed in order to identify beha-vior as well as to compare different methods on SAR images. Moreover, the results aresubmitted to a parametric contamination model which represents the corner reflectionphenomenon.As a second study, two improved MLE methods for the equivalent number of lo-oks are presented in the section“Modified profile likelihood and bias correction on the scaledcomplex Wishart distribution”. Such methodologies are based on the expression for se-cond order bias correction in MLE and on a formula for modified profile likelihood.Finally, their performance are compared with others classical methods.A third study is presented in Section“Expressions for distances in PolSAR data”. Inthis case, the pixels are random matrices which belong the family of scaled complexWishart distributions. In this perspective, such section proposes stochastic tools basedon Information Theory (with respect to the (h,f) functional, proposed by Salicrú, Me-néndez, Pardo & Morales [(1994), ‘On the applications of divergence type measuresin testing statistical hypothesis’,Journal of Multivariate Analysis51, 372–391]) for thecontext of the scaled complex Wishart distribution.Subsequently, in the section“New proposals of edge detection in PolSAR images”, we apply the derived tools in Section“Expressions for distances in PolSAR data”to edgedetection in PolSAR images. As main result, we propose four new edge detectors andcompare with an usual approach.In Section“Statistical analysis for data PolSAR based on entropy measures”, a fifth studyconsiders the proposal of homogeneity tests in PolSAR images by means of stochasticentropies. This methodology is a specification of the (h,f) class of entropies proposedby Salicrú, Mendéndez & Pardo [(1993), ‘Asymptotic distribution of (h,f)-entropy’,Communications in Statistics - Theory Methods22(7), 2015–2031] to the scaled complexWishart distribution and Shannon and Rényi entropies.Finally, in Section“Homogeneity hypothesis tests on PolSAR images: Information Theoryvs. Likelihood Ratio”, it discusses a comparison of three homogeneity tests based onTheory Information measures with the approach based on likelihood ratio proposedby Conradsen, Nielsen, Schou & Skriver [(2003), ‘A test statistic in the complex Wishartdistribution and its application to change detection in polarimetric SAR data’,IEEETransactions on Geoscience and Remote Sensing41(1), 4–19]. The performance of tests isquantified and compared, considering as comparison criteria their estimated sizes andpowers as well as others descriptive measures.
60

Análise dos microdados do ENEM a partir da teoria da resposta ao item

Castro, Luciano Guimarães Monteiro de 09 May 2017 (has links)
Submitted by Luciano Monteiro de Castro (lucianogmcastro@gmail.com) on 2017-06-26T23:35:31Z No. of bitstreams: 1 TeseTRIv6.pdf: 2619923 bytes, checksum: 7852109eaf466514e20db551b7aa312b (MD5) / Approved for entry into archive by Janete de Oliveira Feitosa (janete.feitosa@fgv.br) on 2017-08-23T17:10:47Z (GMT) No. of bitstreams: 1 TeseTRIv6.pdf: 2619923 bytes, checksum: 7852109eaf466514e20db551b7aa312b (MD5) / Made available in DSpace on 2017-08-25T12:27:14Z (GMT). No. of bitstreams: 1 TeseTRIv6.pdf: 2619923 bytes, checksum: 7852109eaf466514e20db551b7aa312b (MD5) Previous issue date: 2017-05-09 / Since 2009 the Brazilian National High School Examination (Exame Nacional do Ensino Médio - ENEM) started utilising the Item-Response Theory (IRT) to determine students scores. Since 2009 the Brazilian National High School Examination (Exame Nacional do Ensino Médio - ENEM) started utilising the Item-Response Theory (IRT) to determine students scores. The ENEM micro data published by INEP (Instituto Nacional de Estudos e Pesquisas Educacionais Anísio Teixeira) contains detailed information about all instalments of the examination. But there is no data directly related to the actual IRT implementation besides the scores themselves. In this work we analyse the ENEM micro data under the the light of the three parameter logistic model of IRT, with two main goals: 1) To generate more information on the implementation of IRT used in ENEM, particularly estimating the parameters used for each question of the examination; 2) Treat the information gathered and suggest different ways of presenting it in order to improve the understanding of the effect of utilising IRT over the examination scores. The item estimation methods may be used, as an example, to create simulated examinations and calculate the scores on the same scale used by ENEM, with the same methodology, allowing for a better assessment of students preparing for the examination. / A partir de 2009 o Exame Nacional do Ensino Médio (ENEM) passou a utilizar a Teoria da Resposta ao Item (TRI) para o cálculo das notas dos candidatos. Os microdados do ENEM divulgados pelo INEP (Instituto Nacional de Estudos e Pesquisas Educacionais Anísio Teixeira) contêm informação detalhada sobre todas as aplicações do exame. No entanto, além das próprias notas, não há dados diretamente ligados à implementação da TRI. No presente trabalho analisamos os microdados do ENEM sob o ponto de vista do modelo logístico de três parâmetros da TRI, com dois principais objetivos: 1) Gerar mais informações sobre a implementação da TRI no ENEM, em particular estimando os parâmetros utilizados em cada questão da prova; 2) Tratar a informação obtida e propor diferentes formas de apresentá-la de maneira a melhorar a compreensão sobre os efeitos da utilização da TRI sobre as notas do exame. Os métodos de estimação dos parâmetros das questões podem ser utilizados, por exemplo, para criar exames simulados cujas notas sejam calculadas na mesma escala utilizada pelo ENEM, e com a mesma metodologia, permitindo uma melhor avaliação dos candidatos durante sua preparação para o exame.

Page generated in 0.0604 seconds