• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 433
  • 89
  • 36
  • 9
  • 3
  • 1
  • 1
  • Tagged with
  • 572
  • 128
  • 95
  • 95
  • 95
  • 95
  • 95
  • 90
  • 89
  • 77
  • 76
  • 76
  • 71
  • 69
  • 69
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
261

Modelos alternativos de respuesta graduada con aplicaciones en la calidad de servicios

Tarazona Vargas, Enver Gerald 20 July 2015 (has links)
Los modelos politómicos de la Teoría de Respuesta al Ítem (TRIP) tienen como finalidad explicar la interacción existente entre los sujetos evaluados y los atributos de un test en aquellas situaciones en las cuales los atributos que lo componen tienen varias categorías de respuesta. Dentro de los distintos tipos de modelos TRIP, el Modelo de Respuesta Graduada General (GRM) propuesto originalmente por Samejima (1969, 2010), es un conjunto de modelos diseñados para aplicarse en aquellas situaciones en las cuales las categorías de respuesta son ordinales. En este trabajo se presenta una formulación general para los GRM, su clasificación y principales propiedades desde el punto de vista bayesiano. De manera específica, se muestra el Modelo de Respuesta Graduada Logístico de dos parámetros (2PL-GRM) como un caso particular de los GRM simétricos y el Modelo de Respuesta Graduada Logístico de Exponente Positivo (LPE-GRM) como un modelo asimétrico derivado de incorporar un parámetro de penalización que controla la curvatura de las Funciones de Respuesta a las Etapas de los Ítems (FREI). La estimación de ambos modelos fue realizada usando la inferencia bayesiana con Métodos Montecarlo vía Cadenas de Markov (MCMC) e implementada en R y WinBUGS. Se realizó un estudio de simulación con el _n de estudiar la precisión en la recuperación de parámetros para el Modelo 2PL-GRM obteniéndose resultados apropiados para las medidas de ajuste consideradas. Los modelos 2PL-GRM y LPE-GRM estudiados fueron aplicados al estudio de un cuestionario acerca de la satisfacción de clientes y comparados con el tradicional análisis clásico de los test. La muestra del estudio está formada por 5354 clientes de una empresa de telecomunicaciones que se comunicaron con el Call Center de atención al cliente por algún motivo (consulta, reclamo, pedido, etc.). A través del análisis de dimensionalidad de la escala se encontró que el cuestionario evalúa dos dimensiones de la satisfacción con la atención al cliente: la Accesibilidad (4 ítems) y el Desempeño del asesor (7 ítems). Los resultados indican, considerando diferentes criterios, que en ambas dimensiones el modelo LPE-GRM es mejor. Adicionalmente, ambos modelos ofrecen mejor información que el tradicional análisis clásico. Se sugiere realizar diferentes estudios de simulación para evaluar distintas condiciones para la inferencia del modelo LPE-GRM puesto que para las mismas condiciones de estimación MCMC se observa que puede ser más demorado debido a que presenta mayor autocorrelación que el modelo 2PL-GRM. / Tesis
262

Tablas y gráficos de barras a través del ciclo del pensamiento estadístico : un estudio con alumnos de primer grado de educación primaria

Espinoza Esteban, Norma Consuelo 21 April 2016 (has links)
El presente trabajo de investigación tiene por objetivo analizar cómo estudiantes de 6 a 7 años de edad, que se encuentran en primer grado de Educación Primaria, transitan por el ciclo de investigación del pensamiento estadístico cuando trabajan con tablas y gráficos de barras. Para lo cual utilizamos una actividad que diseñamos según las fases de ciclo de investigación: Problema, Plan, Datos, Análisis y Conclusiones (PPDAC). Así nos planteamos la siguiente pregunta de investigación: ¿Cómo los estudiantes de primer grado de educación primaria transitan por el ciclo del pensamiento estadístico cuando desarrollan actividades relacionadas con tablas y gráficos de barras? En nuestro trabajo tomamos como marco referencial la propuesta de Wild y Pfannkuch, sobre el desarrollo del pensamiento estadístico pues consideramos que es un proceso que puede ser incorporado desde los primeros grados de la educación básica. También consideramos los niveles de lectura propuestos por Curcio para identificar la lectura que realizan los estudiantes sobre información presentada en tablas o gráficos de barras. Usamos una metodología de investigación cualitativa como es el Estudio de Caso pues nos interesa reconocer y describir la manera en que los estudiantes transitan por las fases del ciclo investigativo cuando trabajan con tablas y gráficos de barras. A modo de conclusión podemos mencionar que el desarrollo de la actividad permitió que los estudiantes de primer grado de educación primaria transiten por el ciclo investigativo y lean información directa que se presenta en tablas y gráficos de barras, logrando de esta manera el primer nivel de lectura de Curcio. / This research aims to analyze how students 6-7 years of age, who are in first grade of primary school, passing through the research cycle of statistical thinking when working with tables and bar graphs. To use an activity which we designed according to the phases of the research cycle: Problem, Plan, Data Analysis and Conclusions (PPDAC). So we have the following research question: How do students first grade of primary education transiting cycle thinking when developing statistical tables and graphs related to bar activities? In our work we take as a reference the proposed Wild and Pfannkuch, on the development of statistical thinking because we believe that is a process that can be built from the earliest grades of basic education. Also we consider reading levels proposed by Curcio to identify the reading done by students on information presented in tables or bar charts. We used a qualitative research methodology such as case study because we want to recognize and describe how students pass through the phases of the research cycle when working with tables and bar charts. In conclusion we mention that the development of the activity allowed students to first grade of primary education transiting the research cycle and read direct information presented in tables and bar graphs, thus achieving the first level of reading Curcio. / Tesis
263

Inferencia bayesiana en el modelo de regresión spline penalizado con una aplicación a los tiempos en cola de una agencia bancaria

Huaraz Zuloaga, Diego Eduardo 08 April 2013 (has links)
En diversos campos de aplicación se requiere utilizar modelos de regresión para analizar la relación entre dos variables. Cuando esta relación es compleja, es difícil modelar los datos usando técnicas paramétricas tradicionales, por lo que estos casos requieren de la flexibilidad de los modelos no paramétricos para ajustar los datos. Entre los diferentes modelos no paramétricos está la regresión spline penalizada, que puede ser formulada dentro de un marco de modelos lineales mixtos. De este modo, los programas computacionales desarrollados originalmente para la inferencia clásica y Bayesiana de modelos mixtos pueden ser utilizados para estimarlo. La presente tesis se centra en el estudio de la inferencia Bayesiana en el modelo de regresión spline penalizado. Para lograr esto, este trabajo proporciona un marco teórico breve de este modelo semiparamétrico y su relación con el modelo lineal mixto, la inferencia Bayesiana de este modelo, y un estudio de simulación donde se comparan la inferencia clásica y Bayesiana en diferentes escenarios considerando diversos valores del n umero de nodos, tamaños de muestra y niveles de dispersión en la data simulada. Finalmente, en base a los resultados del estudio de simulación, el modelo se aplica para estimar el tiempo de espera en cola de los clientes en agencias bancarias con el fin de calcular la capacidad de personal óptima bajo determinadas metas de nivel de servicio. / Tesis
264

Una aplicación de intervalos de confianza para la mediana de supervivencia en el modelo de regresión de Cox

Mondragón Arbocco, Jorge Adolfo 17 July 2015 (has links)
El presente trabajo estudiará el método propuesto por Tze y Zheng (2006) aplicándolo a la obtención de intervalos de confianza para la mediana de supervivencia de líneas móviles de una empresa de telecomunicaciones. Esta metodología se aplicará con el objeto de conocer el riesgo de vida promedio de la línea móvil así como de qué manera inciden las covariables sobre el tiempo hasta el incumplimiento del pago de los clientes de la empresa. Para ello se hará uso de una extensión del modelo de Cox haciendo uso de la estimación máximo verosímil para obtener nuevas estimaciones del vector de parámetros mediante el método bootstrap lo que permita la construcción de los intervalos de confianza para la mediana de supervivencia. / Tesis
265

Portafolios óptimos bajo estimadores robustos clásicos y bayesianos con aplicaciones al mercado peruano de acciones

Vera Chipoco, Alberto Manuel 20 July 2015 (has links)
El Modelo del Portafolio, propuesto por Markowitz (1952), es uno de los más importantes en el ámbito nanciero. En él, un agente busca lograr un nivel óptimo de sus inversiones considerando el nivel de riesgo y rentabilidad de un portafolio, conformado por un conjunto de acciones bursátiles. En este trabajo se propone una extensión a la estimación clásica del riesgo en el Modelo del Portafolio usando Estimadores Robustos tales como los obtenidos por los métodos del Elipsoide de Volumen mínimo, el Determinante de Covarianza Mínima, el Estimador Ortogonalizado de Gnanadesikan y Kettenring, el Estimador con base en la matriz de Covarianzas de la distribución t-student Multivariada y la Inferencia Bayesiana. En este último caso se hace uso de los modelos Normal Multivariado y t-student multivariado. En todos los modelos descritos se evalúa el impacto económico y las bondades estadísticas que se logran si se usaran estas técnicas en el Portafolio del inversionista en lugar de la estimación clásica. Para esto se utilizarán activos de la Bolsa de Valores de Lima. / Tesis
266

"Análisis de la idoneidad de un proceso de instrucción para la introducción del concepto de probabilidad en la enseñanza superior" .

Osorio Gonzales, Augusta Rosa 17 July 2013 (has links)
La enseñanza de la estadística es, en la actualidad, motivo de estudio para muchos grupos relacionados con la didáctica. La principal razón para explicar este fenómeno es que esta ciencia se considera como el instrumento básico para analizar información, actividad que encontramos presente dentro de un sinnúmero de profesiones. Así, cualquier disciplina de estudio requiere de conocimientos básicos de la estadística para su mejor desarrollo. En particular, vemos los casos de la Antropología o Sociología que usan la estadística como una herramienta necesaria para el análisis de los resultados de sus investigaciones sobre el individuo y la sociedad; de la Sicología que utiliza procesos estadísticos para poder validar los test de análisis del comportamiento de las personas; también podemos mencionar a la Arqueología, donde el análisis multivariado sirve para la agrupación de restos en épocas o culturas. Y como estos, podemos dar muchos más ejemplos. / Tesis
267

Significados de las medidas de tendencia central : un estudio con alumnos universitarios de carreras de humanidades.

Sayritupac Gutierrez, Javier 17 March 2014 (has links)
En el presente trabajo de investigación se analiza los significados personales e institucionales de las medidas de tendencia central en un estudio con alumnos de primeros ciclos de las carreras de humanidades de la Pontificia Universidad Católica del Perú. Para realizar este análisis se consideró como marco teórico el Enfoque Ontosemiótico de la Cognición e Instrucción Matemática (EOS), el cual nos brindó las herramientas necesarias para el análisis de nuestro objeto de estudio medidas de tendencia central, a través de sus elementos de significado: lenguaje, situaciones, definiciones, procedimientos, proposiciones y argumentos. Se analizaron tres libros de texto usados para la preparación y/o desarrollo del curso. Posterior a esto se elaboró un cuestionario que se aplicó a los estudiantes para luego analizar sus respuestas y evidenciar los conflictos que se presentaron. Se realizó también una entrevista a los profesores del curso. Se hicieron configuraciones cognitivas para analizar las respuestas de los estudiantes. La metodología empleada fue básicamente de tipo cualitativo e interpretativo, y se complementó con alguna información de carácter cuantitativo, especialmente al presentar los resúmenes de los resultados. El objetivo general de este trabajo fue analizar los significados personales e institucionales en torno a las medidas de tendencia central: media, mediana y moda, considerando un curso básico de estadística para estudiantes de humanidades de la Pontificia Universidad Católica del Perú. A manera de resumen de las conclusiones obtenidas, podemos manifestar que los significados de referencia reflejados en los textos analizados, por una parte son restringidos a considerar las medidas de tendencia central como medidas de resumen, sin dar una perspectiva de la media como un estimador del parámetro  II de la población; y por otra parte, enfatizan los aspectos algorítmicos y de cálculo, y no la comprensión conceptual de estas medidas; sin embargo, esto está presente en los significados pretendidos, como se refleja en las entrevistas realizadas a los docentes. A pesar de ello, no se encuentra entre los significados institucionales implementados y como consecuencia, tampoco en los significados personales logrados de los estudiantes. / Tesis
268

StadCore - herramienta estadística modular:|buna orientación a la construcción y análisis de tests psicológicos

Tapia Alvarez, James David, Chavez Tapia, Daniel Ricardo 11 November 2011 (has links)
Las herramientas de software estadísticas existentes en el mercado y construidas especialmente para un área específica de estudio son muy pocas, debido a que resultaría muy costoso para el fabricante de software producir, de manera independiente, una herramienta orientada a cada área de estudio dada la diversidad de éstas. Estos costos serían trasladados hacia el usuario final y no harían rentable su producción. Es por esta razón que se opta por construir herramientas estadísticas genéricas que abarquen grandes áreas de conocimiento e incluyan un amplio conjunto de funcionalidades, llegando a cubrir de este modo la mayor parte de las necesidades de los usuarios. Sin embargo, lo anterior en ocasiones no es suficiente, ya que suelen haber pasos previos o posteriores a los cálculos estadísticos (por ejemplo; obtención, tabulación y cuadre de datos, presentación de resultados en determinado formato, etc.) que éstas herramientas de software no contemplan del todo y deben de ser realizadas aparte, ya sea con otras aplicaciones o bien de forma manual. La construcción de tests psicológicos y el análisis de sus resultados son un buen ejemplo: la construcción del test y la recolección de los resultados se realizan de forma manual, y los resultados tienen que ser transcritos para poder ser analizados en una herramienta adecuada, con la probabilidad de cometer errores. Frente a estas limitaciones se plantea un nuevo modelo de solución, el cual consiste de una herramienta de software que implemente funciones básicas, en este caso funciones estadísticas, y cuya ventaja respecto a otras herramientas de software consiste en su capacidad de escalabilidad y reutilización del software base a través de la construcción de módulos de software externos especializados y orientados a una o varias áreas específicas de estudio. Estos módulos externos pueden aprovechar las funciones estadísticas básicas de la herramienta de software base mediante interfaces de comunicación definidas, permitiendo así adaptar la funcionalidad de la herramienta de acuerdo a las necesidades del usuario. Este modelo brindará a la herramienta de software una flexibilidad superior a las actualmente existentes en el mercado. La construcción de tests psicológicos es un área de estudio en la que las herramientas de software disponibles son escasas y de difícil adquisición; ello constituye una oportunidad de mejora que puede ser aprovechada por la herramienta de software planteada. Por consiguiente, y también como prueba de concepto de la solución propuesta, se implementa un módulo orientado a la construcción y administración de tests que automatizará sus procesos de carácter mecánico maximizando el tiempo de respuesta. La presente tesis se desarrolló utilizando UML (Unified Modeling Language) como lenguaje de modelado, RUP (Rational Unified Process) como guía para el proceso de desarrollo del software y Six Sigma(metodología de mejora de procesos) para alcanzar un nivel deseado en la mejora de los procesos implementados. / Tesis
269

Combinación de reglas de portafolio con la asignación 1/N y la ponderada por capitalización bursátil

Rodríguez Alcócer, Augusto Fernando 23 November 2016 (has links)
La teoría del portafolio estudia el proceso a través del cual se realiza la asignación óptima de activos. El análisis Media - Varianza (MV) propone que los agentes estructuran portafolios de inversión optimizando el retorno esperado o el riesgo. Así, fijando el nivel deseado de una de estas variables, es posible elaborar una frontera eficiente compuesta por portafolios óptimos. Sin embargo, si bien el análisis MV ha sido trabajado de manera extensa presenta una limitación: los parámetros reales no son conocidos sino estimados a partir de la observación de datos. Ello incorpora el problema de incertidumbre en la modelación, por lo que las reglas de portafolio óptimo están sujetas a errores aleatorios que pueden generar que los parámetros estimados se alejen de los reales. El objetivo del presente trabajo es revisar dicho análisis bajo el enfoque de reglas de portafolio, y si existe la posibilidad de reducir el riesgo de estimación a través de la combinación de las reglas con el portafolio de pesos iguales y con el portafolio ajustado por capitalización bursátil. Para la programación se utiliza el paquete estadístico R - project. Los resultados sugieren que la combinación de las reglas con los dos portafolios seleccionados puede mejorar los resultados fuera de muestra esperados y que bajo ciertas circunstancias, combinar con el portafolio de capitalización bursátil puede ser más eficiente que con el portafolio de pesos iguales. / Tesis
270

Identificación de necesidades de entrenamiento en operadores de camiones, utilizando análisis estadístico

Rebolledo Campos, Jaime José January 2016 (has links)
Magíster en Gestión y Dirección de Empresas / En la gran minería del cobre de cielo abierto, el desempeño de la flota de camiones es determinante en la rentabilidad de la operación. El transporte de mineral desde la mina hasta la planta es un proceso comandado mayormente por personas. Estas personas, arriba de grandes camiones mineros, deben enfrentar todo tipo de distracciones, peligros, y además, deben desarrollar su actividad en condiciones ambientales adversas. Es el desempeño de estos operadores la que condiciona la productividad de la mina, y son por supuesto sus conductas las que afectan la seguridad de personas y la integridad de los equipos. Esta tesis se hace cargo de diseñar una metodología analítica para identificar a los operadores de camión que tienen brechas en su desempeño, ofreciendo con esto un instrumento de gestión que permite enfrentar de manera focalizada los recursos de entrenamiento, y disminuyendo las mermas de productividad. Gracias al uso y procesamiento de grandes cantidad de datos, provenientes de tanto del sistema de signos vitales de los camiones mineros, como del sistema de despacho de la flota, es posible reconocer las pérdidas de eficiencia de la flota, y la contribución que tienen los operadores de camión a estas pérdidas. Se presenta además un diagrama de visualización de velocidades georreferenciadas que permite reconocer condiciones en las rutas con brechas de velocidad, producto de interferencias, o deficiente gestión de caminos. En este trabajo se presentan propuestas de reportes analíticos que demandan un esfuerzo no menor de integración datos, y de crear estructuras de gestión que utilicen esta nueva información. Estos nuevos reportes, que permitirán cuantificar algunas de las más grandes pérdidas de eficiencia de la flota - imputables a la conducta de los operadores - son el producto de una iniciativa de la superintendencia de mina, la cual se espera se implemente durante el año 2016. / 19/11/2019

Page generated in 0.0437 seconds