• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 179
  • 15
  • 3
  • 1
  • 1
  • Tagged with
  • 199
  • 199
  • 38
  • 36
  • 31
  • 31
  • 30
  • 30
  • 30
  • 30
  • 28
  • 28
  • 27
  • 27
  • 26
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Identificación de necesidades de entrenamiento en operadores de camiones, utilizando análisis estadístico

Rebolledo Campos, Jaime José January 2016 (has links)
Magíster en Gestión y Dirección de Empresas / En la gran minería del cobre de cielo abierto, el desempeño de la flota de camiones es determinante en la rentabilidad de la operación. El transporte de mineral desde la mina hasta la planta es un proceso comandado mayormente por personas. Estas personas, arriba de grandes camiones mineros, deben enfrentar todo tipo de distracciones, peligros, y además, deben desarrollar su actividad en condiciones ambientales adversas. Es el desempeño de estos operadores la que condiciona la productividad de la mina, y son por supuesto sus conductas las que afectan la seguridad de personas y la integridad de los equipos. Esta tesis se hace cargo de diseñar una metodología analítica para identificar a los operadores de camión que tienen brechas en su desempeño, ofreciendo con esto un instrumento de gestión que permite enfrentar de manera focalizada los recursos de entrenamiento, y disminuyendo las mermas de productividad. Gracias al uso y procesamiento de grandes cantidad de datos, provenientes de tanto del sistema de signos vitales de los camiones mineros, como del sistema de despacho de la flota, es posible reconocer las pérdidas de eficiencia de la flota, y la contribución que tienen los operadores de camión a estas pérdidas. Se presenta además un diagrama de visualización de velocidades georreferenciadas que permite reconocer condiciones en las rutas con brechas de velocidad, producto de interferencias, o deficiente gestión de caminos. En este trabajo se presentan propuestas de reportes analíticos que demandan un esfuerzo no menor de integración datos, y de crear estructuras de gestión que utilicen esta nueva información. Estos nuevos reportes, que permitirán cuantificar algunas de las más grandes pérdidas de eficiencia de la flota - imputables a la conducta de los operadores - son el producto de una iniciativa de la superintendencia de mina, la cual se espera se implemente durante el año 2016. / 19/11/2019
52

Desarrollo de un modelo predictivo para detectar casos de fraude interno en una institución bancaria

García Jurado, Diego Ignacio January 2016 (has links)
Ingeniero Civil Industrial / El presente trabajo desarrolla metodologías de minería de datos y analítica para, a partir de datos transaccionales de una institución bancaria nacional, generar un modelo predictivo que sea capaz de detectar sospechosos de la comisión de fraude interno. Es decir, fraude cometido por empleados de la misma institución. El banco posee 11.723 empleados, cerca de 3,6 millones de clientes y más de 500 sucursales, lo que genera alrededor de 21 millones de transacciones diarias. Debido a que se cuenta exclusivamente con 5 registros de fraude, se opta por abordar el problema desde una óptica de modelos no supervisados, que permiten extraer conocimiento de los datos sin tener información a priori de ellos. Se utilizan tres modelos para generar con cada uno una lista de sospechosos de haber cometido fraude interno, ya sea por semejanza con los fraudes, o por presentar un comportamiento que se desvía del comportamiento común del resto de los datos (outlier). Primero se utilizan medidas de distancia para encontrar los vecinos más cercanos a cada uno de los registros de fraude, luego se implementa el algoritmo Local Outlier Factor (LOF) que es capaz de identificar outliers a partir de la búsqueda de diferencias significativas entre la densidad de un dato y la de sus vecinos. Posteriormente se usa Análisis de Componentes Principales (PCA), que sirve para reducir la dimensionalidad de los datos generando combinaciones lineales de las variables, para ver la ubicación topológica de los registros de fraudes y seleccionar sospechosos que se encuentren en su entorno. Finalmente se consolida una lista con los sospechosos entregados por los tres criterios, por medio de majority voting, considerando exclusivamente los que son considerados sospechosos por al menos 2. Este conjunto de metodologías genera un modelo con un lift de 61,18. Así se obtiene una lista de 74 usuarios sospechosos que presentan una media de transacciones diarias muy por debajo del resto de los datos, especialmente en las variables consulta de datos básicos de la cuenta y localización de personas. Además de presentar un tiempo promedio entre transacciones inferior al resto de los datos. / 30/11/2021
53

Desarrollo de un Sistema de Replicación y Distribución de Consultas de Bases de Datos Infobright

Poillot Cartes, Ronald Elias January 2012 (has links)
La Inteligencia de Negocios (BI) y la Minería de Datos (DM) son áreas que han tenido un importante crecimiento en los últimos diez años. Estas disciplinas ayudan en la toma de decisiones de las compañías, entregando valiosa información extraída desde los datos de la empresa mediante complejos procedimientos. Resulta indispensable para los proveedores de servicios en estas áreas el contar con los datos disponibles la mayor cantidad de tiempo posible, para no incurrir en quiebres importantes de su continuidad operacional. El objetivo de la presente memoria fue crear un sistema básico de alta disponibilidad que incluye replicación y distribución de consultas a Bases de Datos, el cual pretende disminuir los riesgos asociados al downtime de los servidores de datos de la empresa Penta Analytics. Esta compañía utiliza Infobright como motor de almacenamiento de datos, el cual está orientado a Bases de Datos de tipo analítica y que actualmente no cuenta con una solución de alta disponibilidad que abarque ambos temas. La solución fue diseñada en base a tres componentes principales: un sistema de replicación de datos, un sistema de distribución de consultas y una tabla de estados de replicación. Para la replicación se desarrolló una aplicación ad-hoc programada en lenguaje Java, mientras que la distribución de consultas fue creada en base a una aplicación llamada MySQL-Proxy, que fue adaptada para funcionar con un clúster de Bases de Datos analíticas. La tabla de replicación resguarda el estado de actualización de cada componente del sistema, estado que debe ser consistente ante cualquier escenario. Como resultado se obtuvo un sistema que mejora los tiempos de respaldo de datos y de respuestas a consultas a Bases de Datos. La solución para la distribución de consultas es escalable y paralelizable, mientras que el sistema de replicación escala sólo verticalmente y requiere modificación de código para agregar paralelismo y escalabilidad horizontal. Este desarrollo constituye una innovación como solución de alta disponibilidad para este tipo de Bases de Datos. En base a la presente memoria se muestra un conjunto de posibles mejoras y trabajos futuros, como por ejemplo mejorar los algoritmos de selección de servidor en la distribución de consultas u optimizar el transporte de datos entre servidores del sistema de replicación.
54

Automatización y mejora de pocesos de la gestión técnica del seguro obligatorio de accidentes personales para Consorcio Seguros Generales S.A.

Araya Sepúlveda, Gonzalo Matías January 2016 (has links)
Magíster en Ingeniería de Negocios con Tecnologías de Información / Consorcio es uno de los mayores conglomerados financieros del país y la mayor aseguradora del mercado. Entre las filiales dedicadas a los seguros, se encuentra Consorcio generales, la filial encargada de los seguros no-vida. Dentro de esta empresa es que se enmarca el proyecto, intentado potenciar el crecimiento para un producto donde se ve un gran potencial tanto en participación de mercado como en rentabilidad. El objetivo principal del presente proyecto de grado es el aumento del beneficio y marketshare del seguro obligatorio de accidentes personales (SOAP) mediante la implementación de Analítica y la automatización de procesos claves propios de la gestión técnica del producto. Para esto se aplicara la metodología de ingeniería de negocios así como la construcción e implementación de los sistemas TI correspondientes. La estructura del proyecto fue dividida en las siguientes etapas: realización del análisis estratégico de la empresa, luego se desarrolló la arquitectura de Macro procesos propios de Consorcio Seguro Generales, se diseñaron los procesos claves en BPMN, para finalmente diseñar e implementar los sistemas TI necesarios. Entre los procesos claves que fueron rediseñados destacan el cálculo de OYNR, en donde se automatiza el cálculo y se mejora considerablemente el poder de predicción del modelo, además de la segmentación y el pricing para la cartera de clientes, así como la creación de un modelo de clasificación de clientes. Varios resultados relevantes se obtuvieron producto del rediseño y de la implementación de la analítica, por un lado se obtuvo mejoras operacionales en el tiempo de proceso, reducción del orden del 75% y un nuevo modelo de predicción de OYNR con un 93% de efectividad, asimismo se descubrió que variables como la marca del vehículo, su antigüedad o si el seguro fue contratado por una empresa son mejores discriminadores que las variables utilizadas actualmente en la segmentación y pricing. Finalmente la evaluación económica entrega un VAN de 5300 UF con condiciones conservadoras y un horizonte de 3 años. Luego se discuten cuales son algunos de los mayores desafíos posteriores la implementación y las perspectivas para desarrollos futuros.
55

Técnicas de inferencias, predicción y minería de datos

Apolaya Torres, Carlos Humberto, Espinosa Diaz, Adolfo 23 August 2018 (has links)
En el primer capítulo, se describe la problemática que se quiere solucionar y se detalla los objetivos específicos que aportan al cumplimiento del objetivo general y el alcance del proyecto. En el segundo capítulo, se definen los conceptos básicos más importantes como Data Mining y Machine Learning, los cuales están relacionados al tema de estudio de la investigación. En el tercer capítulo, se encuentra el Estado del Arte, en el cual se revisará la investigación previa relacionada al proyecto indicando el rubro en el que fue implementado. Esto permite entender cómo se encuentra el tema investigado en la actualidad y tener una visión más clara de lo que se puede desarrollar. En el cuarto capítulo, se describe el desarrollo del proyecto, la metodología a utilizar, se detalla las fases de dicha metodología y el proceso a seguir para la correcta implementación del modelo utilizando arboles de decisión y la metodología Knowledge Discovery in Databases (KDD). En el quinto capítulo se detalla cómo se obtuvo un porcentaje de error de predicción de aproximadamente 9.13%, las pruebas realizadas y recomendaciones. Así como también las propuestas de continuidad del proyecto enfocados en la mejora del modelo de predicción. Finalmente, en el sexto capítulo se describen los resultados finales en la gestión propia del proyecto, en los aspectos de Resultado Final y las Gestiones de alcance, tiempo, comunicación, recursos humanos y riesgos. / In the first chapter, it describes the problem to be solved and it details the specific objectives that contribute to the fulfillment of the general objective and the scope of the project. In the second chapter, the most important basic concepts like Data Mining and Machine Learning are defined, which are related to the subject of research study. In the third chapter, there is the State of Art, in which the previous research related to the project will be reviewed indicating the area in which it was implemented. This allows us to understand how the subject is currently investigated and to have a clearer vision of what can be developed. In the fourth chapter, we describe the development of the project, the methodology to be used, details the phases of the methodology and the process to be followed for the correct implementation of the model using decision trees and the Knowledge Discovery in Databases (KDD) methodology. The fifth chapter details how we obtained a prediction error rate of approximately 9.13%, the tests performed and recommendations. As well as proposals for project continuity focused on improving the prediction model. Finally in the sixth chapter, the final results are described in the project's own management, in the aspects of Final Result and the Outreach, Time, Communication, Human Resources and Risk Management. / Tesis
56

Diseño del proceso de clasificación supervisada de cubiertas de suelo en imágenes satelitales

Perry Cáceres, Andrea Verónica January 2017 (has links)
Magíster en Ingeniería de Negocios con Tecnologías de Información. Ingeniera Civil Industrial / El desarrollo de la agricultura en Chile requiere de un esfuerzo científico y tecnológico para mantener al país a la vanguardia en los mercados mundiales. El Instituto de Investigaciones Agropecuarias (INIA) es el organismo estatal encargado de esta misión, generando y transfiriendo conocimiento, experiencias y tecnologías desde las investigaciones a los agricultores y a las demás instituciones estatales y privadas que los respaldan. El Ministerio de Agricultura (MINAGRI) a través del Subdepartamento de Información, Monitoreo y Prevención del Departamento de Gestión Integral de Riesgo, evalúa y decreta las Emergencias Agrícolas con una base técnica de información desarrollada por el INIA en su Boletín Nacional de Análisis de Riesgos Agroclimáticos para las principales especies frutales y cultivos, y la ganadería. Dicho Boletín compara el comportamiento de zonas anómalas utilizando sus datos históricos, sin lograr clasificar las cubiertas estudiadas, lo que no permite dimensionar a cabalidad el daño producido por las emergencias. El proyecto de tesis presentado aborda esa problemática al diseñar e implementar un proceso automatizado de detección de cubiertas en imágenes satelitales, utilizando algoritmos de minería de datos, para la monitorización de una localidad específica . La herramienta tecnológica diseñada apoya la clasificación de imágenes satelitales Landsat de las comunas en estudio: Lonquimay y Los Sauces. Las imágenes procesadas se clasifican entre 8 categorías, entregando un archivo con las cubiertas clasificadas y un reporte de la clasificación realizada. De acuerdo a las evaluaciones realizadas por los expertos de los organismos involucrados que han acompañado el desarrollo de este proyecto, es posible concluir que la información obtenida para ambas comunas en estudio es útil para la temporada de verano en Lonquimay y para primavera y verano en Los Sauces. Con esto se aporta información extra para la toma de decisiones en las Emergencias Agrícolas de esas temporadas, aunque la base de puntos conocidos debe ser mejorada para obtener resultados más confiables. El proceso de clasificación de imágenes satelitales presentado se creó con el propósito de ser parte de las actividades de Transferencia que realiza INIA; no solo para la redacción del Boletín Agrometeorológico, sino también como una base para la mejora continua de clasificaciones en imágenes satelitales. Éstas pueden formar parte de futuros proyectos de INIA con otras Instituciones públicas o privadas. El proyecto entrega un VAN de CLP $60MM, el cual permitiría mejorar la inversión en recursos de procesamiento (humanos y tecnológicos) o mejorar la base de puntos conocidos en terreno, manteniendo el tipo de imágenes utilizadas (Landsat). El uso de imágenes de mejor calidad y que no sean gratuitas implicaría un costo que no compensaría los beneficios supuestos, además de la necesaria actualización de los algoritmos. Como siguiente paso se requiere de una base sólida de puntos conocidos en terreno. Es importante destacar que la solución presentada es directamente escalable para otras comunas de interés, por lo que INIA podría incorporarla en nuevos (o antiguos) servicios.
57

Análisis del Comportamiento del Usuario Web

Román Asenjo, Pablo January 2011 (has links)
Desde los orígenes de la Web en el CERN, ha existido una pregunta recurrente entre los investigadores y desarrolladores: ¿Cual es la estructura y contenido correcto para que un sitio web atraiga y/o retenga a sus visitantes? En parte, la respuesta a esta interrogante, se encuentra fuertemente relacionada con una mayor comprensión de las motivaciones que posee un usuario al visitar un sitio. En efecto, mientras más información y conocimiento se obtenga acerca de qué es lo que el usuario busca al visitar un sitio web, mejores serán los contenidos y estructuras que se le puedan ofrecer, permitiendo la implementación de sistemas que personalicen la experiencia del usuario en un sitio. Por otra parte, el análisis del comportamiento humano, ha sido abordado por una gran cantidad de disciplinas como Psicología, Sociología, Economía, Lingüística, Marketing y Computación, entre otras. Lo anterior permite la creación de un marco teórico práctico con un altísimo potencial de ser aplicado en otras áreas del conocimiento, en particular el análisis del comportamiento del usuario web. Las disciplinas antes mencionadas, recurren fundamentalmente a encuestas y a muestreos experimentales para extrapolar el comportamiento de una persona ante determinadas circunstancias. En el caso del usuario web, la mayor fuente de datos respecto de su comportamiento de navegación y preferencias queda almacenada en archivos de Web Log, los cuales dan cuenta de cada una de las acciones que un usuario ha efectuado cuando visita a un sitio. Dependiendo de la cantidad de visitas del sitio, estos archivos pueden contener millones de registros, constituyendo una de las mayores fuentes de datos sobre comportamiento humano. El presente trabajo describe un nuevo enfoque que aplica teorías sobre la neurofisiología de la toma de decisiones para describir el comportamiento de navegación del usuario web. La hipótesis de investigación corresponde a: “Es posible aplicar teorías de la neurofisiología de la toma de decisiones para explicar el comportamiento de navegación de los usuarios web”. Para el análisis del comportamiento del usuario web, primero se requiere de una etapa de preprocesamiento de datos. Esto es, reconstruir las secuencias de páginas visitadas (sesiones) de cada visitante, el contenido de texto y la estructura de link del sitio web. Históricamente, el siguiente paso es aplicar algoritmos y técnicas de minería de datos para la identificación y extracción de patrones de comportamiento de los usuarios. Una importante contribución de este trabajo corresponde al realizado en la etapa de pre-procesamiento. Es necesario asegurar la calidad de los datos debido a que la etapa de calibración es sensible al conjunto de datos usados. Para estos fines, fueron desarrollados nuevos algoritmos basados en programación entera para la extracción optima de de las sesiones de usuario. Esta tesis también propone un modelo estocástico para describir el proceso de navegación del usuario web. Éste se basa en la teoría neurofisiológica de la toma de decisiones LCA (Leaky Competing Accumulator). En ella se describe la actividad neuronal de diferentes regiones de la corteza cerebral durante el proceso de determinación, por medio de un proceso estocástico que evoluciona hasta que se alcance un cierto umbral que gatilla la decisión. Esta clase de modelos estocásticos han sido estudiados experimentalmente por más de 40 años. En este contexto, un usuario web se enfrenta a la decisión de elegir que link visitar de acuerdo a sus propias motivaciones, el proceso se repite en cada visita a las paginas hasta salir del sitio. Los parámetros del modelo son ajustados por medio del método de máxima verosimilitud, usando las secuencias de páginas reales. Se concluye que cerca del 70% de la distribución real de sesiones de recupera mediante este método. Este es un importante avance debido a su rendimiento sobresaliente en relación a algoritmos tradicionales de web mining. Entonces se prueba la plausibilidad de la hipótesis.
58

Aplicación de Técnicas de Minería de Datos para el Apoyo a la Administración de Comunidades Virtuales de Práctica

Silva Álvarez, Roberto Andrés January 2011 (has links)
Internet ha permitido la creación de distintas formas de comunicación entre los individuos, permitiéndoles intercambiar información y, en conjunto, crear conocimiento. Existe una gran diversidad de entidades sociales en la Web, tales como las redes sociales, comunidades virtuales, entre otras, donde cada una posee un objetivo y una razón de ser. El objetivo del presente trabajo de título es diseñar e implementar una aplicación de análisis que permita proveer de información y apoyar la moderación y administración de comunidades virtuales de práctica, utilizando técnicas de minería de datos, reduciendo la carga de trabajo en esta tarea. En este tipo de entidades, existe un integrante que posee características particulares, el administrador de la comunidad. Este individuo, debe realizar la labor de mantener el control sobre los distintos eventos que acontecen diariamente, arreglar los posibles problemas, facilitar herramientas e información, todo lo necesario para que la comunidad se mantenga acorde con el objetivo principal: crear y mantener el conocimiento. El problema de la administración, existe principalmente ya que las actividades moderadoras pueden tomar mucho tiempo, al ser una actividad básicamente manual. La solución propuesta consta del uso de minería de datos originados en la Web, con la intención de analizar los comportamientos de usuario de los integrantes de la comunidad. Mediante el proceso de descubrimiento de conocimiento en bases de datos (KDD), se intenta encontrar un modelo de clusters o grupos de los comportamientos de manera de analizar sus características y así poder indagar en la revisión de los mensajes generados por ellos. Se utilizan dos algoritmos de clustering particional, SelfOrganizing Maps (SOM) y la variante del K-means, K-Medoids. El uso de SOM tiene el propósito de encontrar la cantidad de clusters inherentes dentro del modelo. Se proponen dos modelos sobre medidas de similitud (modelo 1) y disimilitud (modelo 2) de las sesiones de usuario, utilizando dos representaciones del contenido. Los modelos se basan en el uso de medidas que capturan los aspectos más importantes de la navegación en la Web y en características exclusivas de los foros de comunidades virtuales. La metodología se aplica sobre el foro de la comunidad de Plexilandia.cl. Los resultados varían principalmente en la distribución de cantidad de clusters. El análisis final se basa en dos características principales, el análisis de secuencia y contenido, y en las características de los mensajes ingresados por el usuario durante su navegación. Al evaluar los modelos propuestos, se encuentra que revisando un 85% de todos los mensajes permite encontrar el 88% de los mensajes que requieren moderación para el modelo 1, y al revisar un 65% de todos los mensajes, se encuentra un 61% en el modelo 2. Además, se destaca que un alto porcentaje de los mensajes que requieren más moderación son bien clasificados en este trabajo. En conclusión, es posible encontrar y pronosticar mensajes que requieren mayor atención estudiando los comportamientos que poseen los usuarios respecto al sistema. Analizando las características de los resultados de manera exhaustiva produce una mejor comprensión del porqué ciertos comportamientos identificados generan o no mensajes relevantes al momento de moderar. Estudiando los comportamientos es posible generar estrategias preventivas y así minimizar la necesidad de moderación en la comunidad. Se recomienda en trabajos futuros utilizar otros algoritmos de minería de datos, tales como reglas de asociación, buscando causalidad entre el comportamiento de usuario y la moderación o en el caso del clustering, utilizar medidas de similitud o disimilitud que incluyan características personales de usuario que tengan incidencia en la generación de mensajes problemáticos.
59

Diseño y Optimización del Proceso de Gestión y Ejecución de la Venta Mayorista para una Empresa Tipo Home Improvement

Guzmán Silva, Sebastián Antonio January 2008 (has links)
La creciente demanda de productos para la construcción y el mejoramiento del hogar, junto con el crecimiento del mercado mayorista como un sector cada vez más exigente, sumado al explosivo boom hipotecario de los últimos años, han generado un crecimiento fuerte para los proveedores y distribuidores de estos productos, donde muchos no han tenido la capacidad de aprovechar esta enorme oportunidad, pues no han podido crecer y madurar al ritmo del mercado, entregando servicios y trabajando mediante flujos que no satisfacen completamente a este complejo grupo de clientes. La propuesta de este trabajo consiste en realizar el diseño del nuevo proceso de Gestión y Planificación de Venta Mayorista, con el fin de transformar al negocio en un generador de ofertas y un vendedor de proyectos, no sólo artículos, mejorando la calidad percibida de atención (cumplimiento de necesidades), la contribución al negocio y los resultados de la estrategia comercial definida. Todo esto se basa en el aprovechamiento del conocimiento y la información, para conocer mejor las necesidades de los clientes y optimizar el negocio, optimizando del proceso de venta mediante marketing, minería de datos y modelos predictivos optimizantes, a la luz de las opciones de los sistemas de información y sus potencialidades no explotadas aún. El resultado de esto es una asignación (sugerida) de visita y oferta optimizada a clientes del canal mayorista (de retail tipo hogar y construcción) mediante el uso de minería de datos, metodologías de venta cruzada, perfilamiento y segmentación de dichos clientes y modelos de optimización que maximicen la utilidad esperada del negocio sin necesidad de aumentar la fuerza de venta. Luego se ejecuta este plan, representado en una matriz de clientes – productos a ofrecer por los vendedores a terreno asignados. Paralelamente, mediante la generación de herramientas de asistencia a la venta (Sugerencia de complementarios y sustitutos desplegados con cierta lógica e inteligencia) en los mesones de venta de los locales, se pretende optimizar también la atención a los clientes mayoristas que no son atendidos por vendedores a terreno, y se auto atienden directamente en estos mesones. Los análisis por medio de minería de datos realizado sobre las bases de clientes, de productos y el transaccional de venta del que dispone de la empresa entrega el perfil necesario de cada cliente y su relación de compra para cada categoría de productos. Con esto se alimentan los modelos de optimización y el análisis de venta cruzada, que define los mejores pares complementarios, apoyado por la información experta entregada por la gerencia comercial, para lograr un plan de venta mayorista alineado además al plan comercial de la compañía.
60

Diseño de una estrategia para disminuir las deserciones temprana de los estudiantes de Pregrado de la Universidad de Chile

Serrano Vergara, Mauricio Gonzalo January 2017 (has links)
Magíster en Ingeniería de Negocios con Tecnologías de Información / La deserción conlleva costos altísimos a los estudiantes, sobre todo aquellos que sus familias no disponen de los recursos y debe solicitar créditos, quedando endeudados y debiendo pagar por no lograr obtener un grado o título. Por otro lado, también genera costos a la institución, ya que se determinan cupos de ingreso a cada Programa de Formación, los cuales se utilizan en su totalidad y se espera que los estudiantes permanezcan hasta lograr su graduación y/o titulación. El objetivo del proyecto es diseñar una estrategia para disminuir las deserciones tempranas de los estudiantes de pregrado de la Universidad de Chile, a través de la creación y aplicación de un modelo que permita detectar tempranamente a los posibles desertores de los estudiantes de pregrado. El presente proyecto contempla estudiantes que hayan ingresado sólo a través de la Prueba de Selección Universitaria y las deserciones que ocurren en el primer año, realizándose un piloto con el Programa de Formación de Arquitectura. Se utilizan las metodologías de Ingeniería de Negocios y Proceso de Extracción del Conocimiento (KDD) para obtener un modelo el cual debe ser ejecutado los primeros días del año, cuando se obtiene la matrícula de los estudiantes nuevos, luego se publica el listado de estudiantes que podrían desertar en el Sistema de Información para la Gestión Académica (SIGA), donde los Profesionales contratados para realizar el seguimiento y acompañamiento de los estudiantes se informan, para luego llevar a cabo sus actividades con los estudiantes. En el presente proyecto se ha obtenido un modelo de redes neuronales, el cual considera las variables de Educación Secundaria: Grupo Dependencia y Nota de Enseñanza Media; PSU: Puntaje de Prueba de Lenguaje y Comunicación, puntaje de Prueba de Matemáticas, Puntaje Ponderado y Preferencia; Socioeconómico: Ingreso Bruto y si tiene o no beca; Personal: Género; y Grupo Familiar: Número de integrantes del grupo familiar y si están vivos sus padres. El modelo tiene un resultado sobresaliente, ya que predice al 74,32% de los estudiantes que van a desertar en su primer año de carrera. Se realizó un análisis de sensibilidad en la evaluación económica del proyecto, lo cual permite apreciar que los beneficios sobre los costos son notablemente mayores, haciendo que el proyecto sea muy rentable. Se han obtenido beneficios que no estaban presupuestados como la creación del portal SIGA, los formularios de registro con posteriores reportes de análisis y un comparador de modelos, que permite realizar en menor tiempo todas las combinaciones de modelos evaluados.

Page generated in 0.0741 seconds