• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 433
  • 89
  • 36
  • 9
  • 3
  • 1
  • 1
  • Tagged with
  • 572
  • 128
  • 95
  • 95
  • 95
  • 95
  • 95
  • 90
  • 89
  • 77
  • 76
  • 76
  • 71
  • 69
  • 69
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
421

Modelos de regresión paramétricos bivariados para el análisis de supervivencia: una aplicación a tiempos de infección y síntomas

Arangoitia Fernández Baca, Jorge Víctor 17 January 2024 (has links)
Cuando se realizan estudios sobre tratamientos nuevos que pueden aplicarse a pacientes que sufren de una determinada enfermedad, un factor fundamental para evaluar la efectividad de dicho tratamiento es la determinación de si el paciente adquirió la enfermedad o no, y si presentó síntomas de dicha enfermedad, o no lo hizo. Dicho de otro modo, se requiere conocer (o estimar) el efecto que tuvo la aplicación del nuevo tratamiento en el tiempo en el cual el paciente adquirió la infección y el tiempo en el cual comenzó a presentar síntomas, variables que permiten determinar si el tratamiento pudo prevenir la enfermedad, o al menos ralentizar su propagación, y si pudo evitar o atenuar la aparición de síntomas. Es importante resaltar que el estudio del tiempo transcurrido hasta la ocurrencia de una infección o de la aparición de los síntomas, es un caso particular del análisis de supervivencia, rama de la estadística que tiene como objetivo el estudio del tiempo transcurrido hasta la ocurrencia de un evento, así como el efecto que tienen en dicho tiempo variables características propias de los individuos a los que les ocurre el evento, por ejemplo, en el caso de pacientes, se puede considerar el tratamiento que se le aplicó (el estándar o el nuevo), la edad, el género, entre otros. A estas últimas se les conoce como covariables. Así, el presente trabajo propone dos modelos paramétricos bivariados basados en distribuciones y métodos estadísticos utilizados en el análisis de supervivencia, modelos que permitirán estudiar el comportamiento conjunto del tiempo a infección y del tiempo a síntomas, considerando la relación intrínseca existente entre ambas variables. De esta manera, el método de estimación a utilizar será el modelo de tiempo de falla acelerado, modelo de regresión lineal en el cual se asume que el logaritmo del tiempo de infección y el logaritmo del tiempo de síntomas son iguales a una función lineal de las covariables más un error multiplicado por el parámetro de escala correspondiente a cada tiempo. En ese sentido, se cuentan con dos errores (uno para el tiempo de infección y otro para el de síntomas) que corresponden al componente aleatorio de la regresión, componente que se modelará de forma conjunta de las siguientes dos maneras: Asumiendo que ambos errores siguen una distribución bivariada de valores extremos. Asumiendo un modelo de cópulas, en la cual se asume que cada tiempo presenta una distribución marginal Weibull, y la relación de dependencia de ambos tiempos obedece a una cópula Gumbel. Finalmente, el método anterior se puede aplicar a una muestra determinada a fin de estimar los parámetros de las distribuciones asumidas, y de esta manera determinar el efecto que tienen cada una de las covariables en los tiempos de infección y de síntomas. En este trabajo en particular, se aplicará el modelo en el estudio de notificación de parejas, llevado a cabo por Golden en el 2005 y que tuvo como objetivo verificar si un grupo de pacientes presentó reinfección y síntomas de una enfermedad previa, así como el efecto de una nueva terapia sobre tales eventos. / When studies are carried out on new treatments that can be applied to patients suffering from a certain disease, a fundamental factor to evaluate the effectiveness of such treatment is the determination of whether the patient acquired the disease or not, and if he presented symptoms of that disease, or did not. In other words, it is necessary to know (or estimate) the effect that the application of the new treatment had on the time in which the patient acquired the infection and the time in which he began to present symptoms, variables that make it possible to determine if the treatment was able to prevent the disease, or at least slow its spread, and whether it was able to prevent or mitigate the onset of symptoms. It is important to highlight that the study of the time elapsed until the occurrence of an infection or the appearance of symptoms is a particular case of survival analysis, a branch of statistics whose objective is the study of the time elapsed until the occurrence of a event, as well as the effect of variables characteristic of the individuals to whom the event occurs, for example, in the case of patients, the treatment applied to them (the standard or the new), age, gender, among others. This are known as covariates. Thus, the present work proposes two bivariate parametric models based on distributions and statistical methods used in survival analysis, models that will allow studying the joint behavior of time to infection and time to symptoms, considering the intrinsic relationship between both variables. Then, the estimation method to be used will be the accelerated failure time model, a linear regression model in which it is assumed that the logarithm of the infection time and the logarithm of the symptom time are equal to a linear function of the covariates plus an error multiplied by the scale parameter corresponding to each time. With this in mind, there are two errors (one for the time of infection and the other for the time of symptoms) that correspond to the random component of the regression, a component that will be modeled jointly in the following two ways: Assuming that both errors follow a bivariate extreme value distribution. Assuming a copula model, in which it is assumed that each time presents a Weibull marginal distribution, and the dependency relationship of both times obeys a Gumbel copula. Finally, the previous method can be applied to a specific sample in order to estimate the parameters of the assumed distributions, and in this way determine the effect that each of the covariates has on the times of infection and symptoms. In this particular work, the model will be applied in the couple notification study, carried out by Golden in 2005 and whose objective was to verify if a group of patients presented reinfection and symptoms of a previous disease, as well as the effect of a new therapy on such events.
422

Selección de métodos numéricos aplicados a la predicción estadística usando la regresión logística

Bigio Luks, David Miles 09 March 2017 (has links)
El presente proyecto de fin de carrera buscará encontrar el mejor método computacional para la predicción estadística usando la regresión logística. Esta búsqueda se realizará dentro de un espacio limitado de métodos que se estudiaran. Una vez que se realice la investigación se escogerá el algoritmo más óptimo para la predicción y se obtendrá como resultado un aplicativo genérico para modelar comportamientos futuros en cualquier ámbito. Al leer la presente investigación uno podrá lograr discriminar sobre las mejores herramientas – de las planteadas – para la predicción de escenarios futuros en cualquier campo de estudio, de tal forma que se mejoren las decisiones tomadas y que los usuarios (estadísticos, matemáticos e ingenieros) sepan un poco más sobre los métodos que los llevan a sus respuestas predictivas.
423

Metodologías robustas de reconciliación de datos y tratamiento de errores sistemáticos

Llanos, Claudia Elizabeth 23 March 2018 (has links)
La operación de las plantas químicas actuales se caracteriza por la necesidad de introducir cambios rápidos y de bajo costo con el fin de mejorar su rentabilidad, cumplir normas medioambientales y de seguridad, y obtener un producto final de una especificación dada. Con este propósito es esencial conocer el estado actual del proceso, el cual se infiere a partir de las mediciones y del modelo que lo representa. A pesar de los recientes avances en la fabricación de instrumentos, las mediciones siempre presentan errores aleatorios y en ocasiones también contienen errores sistemáticos. El empleo de los valores de las mediciones sin tratamiento puede ocasionar un deterioro significativo en el funcionamiento de la planta, de allí la importancia de aplicar metodologías que conviertan los datos obtenidos por los sensores en información confiable. La Reconciliación de Datos Clásica es una técnica probada que permite reducir los errores aleatorios de las mediciones. Con esta metodología se obtienen estimaciones más precisas de las observaciones, que son consistentes con el modelo. Sin embargo la presencia de errores sistemáticos invalida su base estadística, por lo que éstos deben ser detectados, identificados, y estimados o eliminados antes de aplicarla. Para evitar estos inconvenientes, se propusieron estrategias de Reconciliación de Datos Robusta (RDR) que son insensibles a una cantidad moderada de Errores Sistemáticos Esporádicos (ESE), dado que reemplazan la función Cuadrados Mínimos por un M-estimador. En esta tesis se presentan nuevas metodologías de RDR que combinan las bondades de los M-estimadores monótonos y redescendientes. Se desarrolla un Método Simple que proporciona buenas estimaciones para las mediciones reconciliadas, y su carga computacional es baja debido a que se lo inicializa con una mediana robusta de las observaciones. Por otra parte, se formula el Test Robusto de las Mediciones (TRM) que utiliza la redundancia temporal provista por un conjunto de observaciones, y consigue detectar e identificar mediciones atípicas en variables con redundancia espacial nula, y con un porcentaje de aciertos idéntico al de las variables medidas redundantes. Esto es un notable avance en las técnicas de Detección de ESE pues independiza la capacidad de detección de la redundancia espacial. Además, el TMR permite identificar las variables con ESE en sistemas complejos, como procesos con corriente paralelas o variables equivalentes. En los mismos se logran aislar variables problemáticas sin generar falsas alarmas o perder capacidad de detección. Con lo cual se aborda un problema cuya solución estaba pendiente hasta el momento. El efecto de la presencia de ESE puede ser contrarrestado por la RDR. No obstante, existen Errores Sistemáticos que Persisten en el Tiempo (ESPT), las estimaciones se ven deterioradas. En tal sentido, se presenta una nueva metodología para la detección y clasificación de ESPT basada en la técnica de Regresión Lineal Robusta y un procedimiento para el tratamiento integral de los errores sistemáticos que mejora significativamente la exactitud de las estimaciones de las variables. Las estrategias propuestas en esta tesis han sido probadas satisfactoriamente en un proceso de mayor escala correspondiente a una planta de biodiésel. Se concluye que la correcta aplicación de la Estadística Robusta al procesamiento de datos permite desarrollar estrategias que proveen estimaciones insesgadas de las variables de proceso, con resultados reproducibles y aplicables a otros sistemas. / Nowadays, chemical plants need to introduce fast and low-cost changes in the operation to enhance their profitability, to satisfy environmental and safety regulations, and to obtain a final product of a certain quality. With this purpose, it is essential to know the current process state, which is estimated using the measurements and the model that represents its operation. Despite the recent improvements in instruments manufacturing, measurements are always corrupted with random errors, and sometimes they also are contaminated with systematic ones. The use of untreated observations is detrimental for plant operation; therefore, it is important to apply strategies that transform the data given by sensors in reliable information. The Classic Data Reconciliation (RDC) is a well-known technique that reduces the effect of random measurement errors. It provides more precise estimates of the observations, which are consistent with the process model. But the presence of systematic errors invalidates the statistical basis of that procedure. Therefore, those errors should be detected, identified, and estimated or eliminated before the application of RDC. To avoid this problem, Robust Data Reconciliation (RDR) strategies have been proposed, whose behavior is not affected by the presence of a moderate quantity of Sporadic Systematic Errors (ESE). They replace the Least Square Function by an M-estimator. In this thesis, two RDR methodologies are presented which combine the advantages of monotone and redescendent M-estimators. The Simple Method is proposed, which provides unbiased estimates of the reconciled measurements. Its computation requirement is low because the procedure is initialized using a robust estimate of the observation median. Furthermore, the Robust Measurement Test (TRM) is proposed. It uses the temporal redundancy provided by a set of measurements, and allows the detection and identification of atypical observations for measured variables which have null spatial-redundancy. Their identification percentages are similar to those obtained for the redundant measured ones. This a great advance in the ESE Detection area because for the new method the detection does not depend on the spatial-redundancy. Even more, TMR allows to identify ESE for complex systems, such as processes which have parallel streams and equivalent set of measurements. It isolates the measurements with ESE at a low rate of false alarms and high detection percentages. This has provided a solution to a subject unsolved until now. Even though the detrimental effect of ESE can be reduced by the RDR, the presence of Systematic Errors that Persist in Time (ESPT) deteriorates variable estimates. In this sense, a new methodology is presented to detect the ESPT, and classify them using the Linear Robust Regression Technique. Also the treatment of all systematic errors is tackled using a comprehensive procedure that significantly enhances the accuracy of variable estimates. The strategies proposed in this thesis have been satisfactorily proved for a plant of biodiesel production. It can be concluded that the right application of concepts from Robust Statistic to process data analysis allows to develop techniques which provide unbiased estimates, are reproducible and can be applied to other systems.
424

StadCore - herramienta estadística modular:|buna orientación a la construcción y análisis de tests psicológicos

Tapia Alvarez, James David, Chavez Tapia, Daniel Ricardo 11 November 2011 (has links)
Las herramientas de software estadísticas existentes en el mercado y construidas especialmente para un área específica de estudio son muy pocas, debido a que resultaría muy costoso para el fabricante de software producir, de manera independiente, una herramienta orientada a cada área de estudio dada la diversidad de éstas. Estos costos serían trasladados hacia el usuario final y no harían rentable su producción. Es por esta razón que se opta por construir herramientas estadísticas genéricas que abarquen grandes áreas de conocimiento e incluyan un amplio conjunto de funcionalidades, llegando a cubrir de este modo la mayor parte de las necesidades de los usuarios. Sin embargo, lo anterior en ocasiones no es suficiente, ya que suelen haber pasos previos o posteriores a los cálculos estadísticos (por ejemplo; obtención, tabulación y cuadre de datos, presentación de resultados en determinado formato, etc.) que éstas herramientas de software no contemplan del todo y deben de ser realizadas aparte, ya sea con otras aplicaciones o bien de forma manual. La construcción de tests psicológicos y el análisis de sus resultados son un buen ejemplo: la construcción del test y la recolección de los resultados se realizan de forma manual, y los resultados tienen que ser transcritos para poder ser analizados en una herramienta adecuada, con la probabilidad de cometer errores. Frente a estas limitaciones se plantea un nuevo modelo de solución, el cual consiste de una herramienta de software que implemente funciones básicas, en este caso funciones estadísticas, y cuya ventaja respecto a otras herramientas de software consiste en su capacidad de escalabilidad y reutilización del software base a través de la construcción de módulos de software externos especializados y orientados a una o varias áreas específicas de estudio. Estos módulos externos pueden aprovechar las funciones estadísticas básicas de la herramienta de software base mediante interfaces de comunicación definidas, permitiendo así adaptar la funcionalidad de la herramienta de acuerdo a las necesidades del usuario. Este modelo brindará a la herramienta de software una flexibilidad superior a las actualmente existentes en el mercado. La construcción de tests psicológicos es un área de estudio en la que las herramientas de software disponibles son escasas y de difícil adquisición; ello constituye una oportunidad de mejora que puede ser aprovechada por la herramienta de software planteada. Por consiguiente, y también como prueba de concepto de la solución propuesta, se implementa un módulo orientado a la construcción y administración de tests que automatizará sus procesos de carácter mecánico maximizando el tiempo de respuesta. La presente tesis se desarrolló utilizando UML (Unified Modeling Language) como lenguaje de modelado, RUP (Rational Unified Process) como guía para el proceso de desarrollo del software y Six Sigma(metodología de mejora de procesos) para alcanzar un nivel deseado en la mejora de los procesos implementados.
425

Significados de las medidas de tendencia central : un estudio con alumnos universitarios de carreras de humanidades.

Sayritupac Gutierrez, Javier 17 March 2014 (has links)
En el presente trabajo de investigación se analiza los significados personales e institucionales de las medidas de tendencia central en un estudio con alumnos de primeros ciclos de las carreras de humanidades de la Pontificia Universidad Católica del Perú. Para realizar este análisis se consideró como marco teórico el Enfoque Ontosemiótico de la Cognición e Instrucción Matemática (EOS), el cual nos brindó las herramientas necesarias para el análisis de nuestro objeto de estudio medidas de tendencia central, a través de sus elementos de significado: lenguaje, situaciones, definiciones, procedimientos, proposiciones y argumentos. Se analizaron tres libros de texto usados para la preparación y/o desarrollo del curso. Posterior a esto se elaboró un cuestionario que se aplicó a los estudiantes para luego analizar sus respuestas y evidenciar los conflictos que se presentaron. Se realizó también una entrevista a los profesores del curso. Se hicieron configuraciones cognitivas para analizar las respuestas de los estudiantes. La metodología empleada fue básicamente de tipo cualitativo e interpretativo, y se complementó con alguna información de carácter cuantitativo, especialmente al presentar los resúmenes de los resultados. El objetivo general de este trabajo fue analizar los significados personales e institucionales en torno a las medidas de tendencia central: media, mediana y moda, considerando un curso básico de estadística para estudiantes de humanidades de la Pontificia Universidad Católica del Perú. A manera de resumen de las conclusiones obtenidas, podemos manifestar que los significados de referencia reflejados en los textos analizados, por una parte son restringidos a considerar las medidas de tendencia central como medidas de resumen, sin dar una perspectiva de la media como un estimador del parámetro  II de la población; y por otra parte, enfatizan los aspectos algorítmicos y de cálculo, y no la comprensión conceptual de estas medidas; sin embargo, esto está presente en los significados pretendidos, como se refleja en las entrevistas realizadas a los docentes. A pesar de ello, no se encuentra entre los significados institucionales implementados y como consecuencia, tampoco en los significados personales logrados de los estudiantes.
426

Procesos de percolación en dos dimensiones

Vásquez Vivas, Karen Alexandra 07 December 2015 (has links)
Los procesos de percolación son modelos que sirven para describir el flujo de líquidos en medios porosos desordenados. Este trabajo es una introducción a los procesos de percolación independiente sobre grafos planos. Primero desarrollamos la teoría de grafos y de probabilidad involucrada para luego definir los modelos de percolación de enlaces y de sitios (bond y site, respectivamente, por sus nombres en inglés), en los cuales los objetos de interés son las aristas y los vértices del grafo, respectivamente. Después exhibimos las cualidades más básicas de estos modelos y las características cuantitativas usadas en su estudio haciendo hincapié en su comportamiento de "transición de fase": un pequeño cambio de los parámetros del modelo resulta en un cambio abrupto de su comportamiento global. En este caso, esta transición de fase ocurre en una probabilidad crítica que, en general, es dificil de hallar exactamente. La excepción son algunos grafos "simétricos", para los que se cumple una interesante relación entre sus probabilidades críticas y que explicaremos en este trabajo. Finalmente, presentamos algoritmos computacionales para simular los modelos de percolación de enlaces y de sitios. Además, utilizamos estos algoritmos para observar gráficamente el comportamiento de transición de fase y los adaptamos para estimar probabilidades críticas que no han podido hallarse analíticamente.
427

Portafolios óptimos bajo estimadores robustos clásicos y bayesianos con aplicaciones al mercado peruano de acciones

Vera Chipoco, Alberto Manuel 20 July 2015 (has links)
El Modelo del Portafolio, propuesto por Markowitz (1952), es uno de los más importantes en el ámbito nanciero. En él, un agente busca lograr un nivel óptimo de sus inversiones considerando el nivel de riesgo y rentabilidad de un portafolio, conformado por un conjunto de acciones bursátiles. En este trabajo se propone una extensión a la estimación clásica del riesgo en el Modelo del Portafolio usando Estimadores Robustos tales como los obtenidos por los métodos del Elipsoide de Volumen mínimo, el Determinante de Covarianza Mínima, el Estimador Ortogonalizado de Gnanadesikan y Kettenring, el Estimador con base en la matriz de Covarianzas de la distribución t-student Multivariada y la Inferencia Bayesiana. En este último caso se hace uso de los modelos Normal Multivariado y t-student multivariado. En todos los modelos descritos se evalúa el impacto económico y las bondades estadísticas que se logran si se usaran estas técnicas en el Portafolio del inversionista en lugar de la estimación clásica. Para esto se utilizarán activos de la Bolsa de Valores de Lima.
428

Estimación no paramétrica en un proceso de Markov "enfermedad-muerte" aplicado a una base de clientes de una AFP

Requena Espinoza, Genaro 16 August 2012 (has links)
En el presente trabajo, se estudian las propiedades del método de estimación no paramétrico en un modelo de “Enfermedad - Muerte" de proceso de Markov. Este modelo posee tres estados 1, 2 y 3 correspondientes a “salud", “enfermedad" y “muerte" respectivamente y solo admite las transiciones de 1-2, 1-3 y 2-3, asimismo a este proceso se le denomina de Markov porque la probabilidad de transición de un estado a otro es independiente del tiempo de permanencia en el estado inicial. Las funciones de tiempo de muerte y enfermedad, así como la función de riesgo de muerte dada la enfermedad son los parámetros del modelo \Enfermedad - Muerte". Sin embargo la estimación de estas funciones del modelo no es directa pues existen dos formas de censura en los datos: los intervalos censurados y la pérdida de estados de transición; por lo que se utiliza un algoritmo de autoconsistencia para calcular estos estimadores. Los intervalos censurados y la pérdida de estados de transición se generan porque los pacientes son evaluados periódicamente. En un intervalo censurado (t1 , t2) se conoce que la enfermedad ocurrió entre un tiempo t1 y t2 pero no el momento exacto, mientras que para la pérdida de estados de transición se sabe que la enfermedad no ha ocurrido hasta la última medición pero se desconoce si la enfermedad ocurre entre esta última medición y el tiempo final del estudio. En la aplicación del modelo \Enfermedad - Muerte" de proceso de Markov a una base de clientes de una administradora de fondos de pensiones (AFP) se consideran los intervalos censurados para los reclamos de los clientes, as__ como la pérdida de estados de transición para los traspasos. Modelar los tiempos de traspaso y de reclamo de los afiliados bajo un proceso de Markov \Enfermedad - Muerte" con intervalos censurados y pérdida de estados de transición intermedia, aumenta la precisión de los estimadores de las funciones de tiempo y riesgo.
429

Proceso de formación docente en creación de problemas para la enseñanza de la tabla de frecuencia bajo el desarrollo del pensamiento estadístico

Saire Huamani, Carina Juana 23 March 2018 (has links)
En la presente investigación se aborda la estadística y su enseñanza en el marco del pensamiento estadístico Wild & Pfannkuch. Se desarrolló un taller de formación en gestión de datos para profesores de secundaria en ejercicio, teniendo como insumo un proceso de instrucción aplicado a estudiantes de primer año de secundaria, a los cuales se les propuso una situación problemática sobre hábitos de lectura de tablas de distribución de frecuencias. El objetivo de nuestra investigación es analizar las situaciones problemáticas referidas a tablas de frecuencia que crea un docente de secundaria antes y después de un proceso de formación sobre el desarrollo del Pensamiento Estadístico de Wild & Pfannkuch, con el fin de corroborar si se manifiesta en los participantes una mejora en su capacidad de creación de situaciones problemáticas relacionadas con tablas de distribución de frecuencias. Para poder analizar la capacidad creativa utilizamos los criterios establecidos por Torrance y Guilford que son: Flexibilidad, originalidad, adecuación, fluidez y claridad, para lo cual elaboramos indicadores que nos permitieron realizar un mejor análisis. Para analizar las situaciones problemáticas examinamos si poseen: un contexto, un requerimiento, cohesión, coherencia y si es factible de realizar. La metodología aplicada en esta investigación es la constructivista/cualitativa, pues realizamos una descripción e interpretación de lo desarrollado antes y después del taller en gestión de datos. Como resultado del análisis realizado concluimos que: es posible mejorar la capacidad creativa de los participantes al elaborar situaciones problemáticas referidas a tablas de Distribución de Frecuencias si los participantes conocen el ciclo PPDAC (Problema, Plan, Datos, Análisis y Conclusiones) y fortalecen su capacidad de creación de problemas a través de la elaboración de situaciones problemáticas. / In the present research the statistics and its teaching in the frame of the statistical thinking Wild and Pfannkuch are approached. A training workshop on data management was developed High school (secondary school) teachers in service, having as an input an instructional process applied to first year high school students, who were proposed a problematic situation regarding reading habits of distribution tables of frequencies. The objective of our research is to analyze the problematic situations referred to tables of frequency that creates a high school teacher before and after a formation process on the development of Wild and Pfannkuch Statistical Thinking, in order to corroborate if it manifests itself in the Participants an improvement in their ability to create problem situations related to frequency distribution tables. In order to analyze the creative capacity, we use the criteria established by Torrance and Guilford: Flexibility, originality, adequacy, fluency and clarity, for which we elaborate indicators that allowed us to perform a better analysis. To analyze problematic situations, we examine whether they have a context, a requirement, cohesion, coherence and whether it is feasible to carry out. The methodology applied in this research is the constructivist / qualitative, as we perform a description and interpretation of what was developed before and after the workshop in data management. As a result of the analysis, we conclude that: it is possible to improve the creative capacity of participants in developing problematic situations related to frequency distribution tables if participants know the cycle PPDAC (Problem, Plan, Data, Analysis and Conclusions) and strengthen their capacity of creating problems through the elaboration of problematic situations.
430

Modelos testlet logísticos y logísticos de exponente positivo para pruebas de compresión de textos

Flores Ari, Sandra Elizabeth 16 August 2012 (has links)
Los modelos de Teoría de Respuesta al Item (TRI) para datos binarios multivariados, permiten estimar una medida latente (de habilidad) a partir de información observada, que puede ser respuestas dicotómicas (de éxito y fracaso) a un conjunto de ítems de una determinada prueba. Uno de los supuestos críticos en los modelos TRI es la independencia condicional de los ítems, que permite el cálculo directo de la verosimilitud del modelo. En muchas situaciones de evaluación este supuesto no se cumple, como es el caso de pruebas de comprensión de textos, en la que se presenta un texto y luego varias preguntas relacionadas con ese texto. Este tipo de estructuras son denominadas como testlets. Bradlow et al. (1999) desarrollaron una parametrización adicional para recoger el efecto de esta dependencia. A partir de este trabajo se presenta el modelo Testlet logístico y se propone el modelo Testlet logístico de exponente positivo (2LPET), que es una extensión del modelo LPE propuesto por Samejima (1999) y Bazan y Bolfarine (2010) y considera enlaces asimétricos. Se desarrollaron varios estudios de simulación en los que se muestra que cuando se tiene testlets, los modelos Testlet recuperan mejor los parámetros respecto a los modelos TRI. Finalmente se realizó una aplicación con datos del Ministerio de Educación, específicamente con los resultados de la prueba de comprensión de textos de la Evaluación Censal de Estudiantes (ECE) dirigido a estudiantes de segundo grado de primaria, en un conjunto de escuelas de Lima metropolitana. De los resultados obtenidos se concluye que los modelos TRI sobreestiman la medida de habilidad respecto a los modelos Testlets y además la información de la prueba es mejor distribuida por el modelo propuesto.

Page generated in 0.0735 seconds