• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 179
  • 15
  • 3
  • 1
  • 1
  • Tagged with
  • 199
  • 199
  • 38
  • 36
  • 31
  • 31
  • 30
  • 30
  • 30
  • 30
  • 28
  • 28
  • 27
  • 27
  • 26
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Diseño y construcción de un modelo de predicción de mortalidad en pacientes adultos mayores hospitalizados en Unidad de Cuidados Intensivos del Hospital Clínico de la Universidad de Chile

Harnecker Fontecilla, María Belén January 2017 (has links)
Ingeniera Civil Industrial / El presente trabajo de título tiene como objetivo diseñar y construir un modelo de predicción de mortalidad en adultos mayores admitidos en unidades de cuidados intensivos, utilizando información de salud específica de una cohorte de 403 pacientes admitidos en UCI del Hospital Clínico de la Universidad de Chile (HCUCH), almacenada bajo la forma de bases de datos disponibles en los sistemas de información del hospital. A causa del envejecimiento de la población y del aumento de la esperanza de vida, las unidades de cuidados intensivos enfrentan nuevos desafíos: en el caso del HCUCH, casi la mitad de los pacientes que han pasado por este servicio en los últimos cinco años tienen más de 65 años. Adicionalmente, se ha demostrado que los pacientes mayores obtienen peores resultados después de un evento crítico comparado con el resto de la población adulta, lo cual se manifiesta tanto en el deterioro cognitivo y funcional, como en mayores tasas de mortalidad. Por otro lado, se identifica la oportunidad brindada por la masificación del uso de registros electrónicos de salud durante los últimos años, lo que da paso a la generación de grandes cantidades de información específica de cada paciente, almacenada bajo la forma de datos estructurados y no estructurados. Este conjunto problema-oportunidad, motiva al desarrollo de modelos que asignen a cada paciente un indicador de riesgo de mortalidad que, por un lado, apoye la toma de decisiones de los médicos, y por otro lado ayude a entender cuáles son los factores que explican un mayor riesgo y por lo tanto peores desenlaces clínicos. Utilizando la metodología Knowledge Discovery in Databases (KDD), se construye un modelo de predicción de mortalidad intra-hospitalaria, mediante el entrenamiento de algoritmos de clasificación de data mining, empleando datos correspondientes a información demográfica y clínica de cada paciente, incluyendo diagnósticos, procedimientos, fármacos y exámenes de laboratorio, disponibles durante las primeras 24, 48 y 72 horas de hospitalización. Tanto el pre-procesamiento, la transformación y el modelamiento de la data fue realizado utilizando el lenguaje Python. Los modelos construidos demuestran resultados satisfactorios: AUC 0.78- 0.83, 0.82-0.85 y 0.81-0.82 para modelos de 24, 48 y 72 horas respectivamente, desempeño comparable con los sistemas de scoring comúnmente utilizados en UCI (APACHE II y SOFA), teniendo la ventaja de ser modelos potencialmente útiles para desarrollar sistemas predictivos automáticos y dinámicos en el tiempo, además del gran impacto y aporte de ser construidos a partir de población chilena y específica de pacientes adultos mayores. Por otro lado la interpretación de los resultados resultan ser biológicamente plausibles, identificando factores de riesgo que pueden ser motivo de futuras investigaciones e iteraciones sobre el modelo propuesto. Se concluye que los resultados de este trabajo alientan seguir una línea de investigación al respecto.
62

Análisis de Comportamiento del Usuario en la Web a Partir de la Simulación de su Navegación Usando Optimización de Colonia de Hormiga

Loyola Heufemann, Pablo January 2011 (has links)
Este trabajo de memoria tiene por objetivo principal el diseño y aplicación de un modelo de comportamiento del usuario en un sitio web basado en la metaheurística de Optimización de Colonia de Hormiga (ACO por sus siglas en inglés). Desde el comienzo de la Web se ha buscado saber cuál es la mejor estructura y contenido para un sitio de tal forma que se asegure la captura y recepción de usuarios. Una de las posibles soluciones consiste en personalizar la navegación del usuario web, es decir, adaptar el sitio dependiendo de las preferencias y hábitos que se detectan, con el fin de facilitar el acceso a la información requerida. Lo anterior se puede lograr a partir de la extracción de información y conocimiento desde los datos que origina el usuario en su navegación, que quedan registrados en los archivos de web logs. De esta forma surge la necesidad de generar modelos y herramientas que asistan en el proceso de personalización de los sitios web, cuyo mayor problema radica principalmente en los altos volúmenes de datos a utilizar como también en la diversa naturaleza de los mismos. Frente a esto, se propone explorar la factibilidad ACO como una alternativa basada en la generación colaborativa de sesiones de usuario. Inicialmente se realizó un estudio de los métodos involucrados dentro de Web Mining, que abarcan desde la selección y preprocesamiento de los datos, hasta la obtención de conocimiento. Posteriormente se investigó la metaheurística de ACO desde sus bases biológicas hasta sus aplicaciones en problemas estándar, como también su utilización dentro del campo de Web Intelligence. En base a lo anterior, se diseñó un modelo de ACO que incorpora el aprendizaje desde las sesiones de usuario real, a través de la modificación continua de un vector de preferencias por texto, simulando la utilidad que percibe un individuo al enfrentarse con el contenido de una página web. Luego, conjuntos de hormigas entrenadas generan, a través de un proceso colaborativo y autocatalítico, sesiones artificiales, las cuales son posteriormente contrastadas con sesiones reales. El modelo fue aplicado en el sitio web del Departamento de Ingeniería Industrial de la Universidad de Chile, del cual se extrajo tanto su estructura y contenido como las sesiones de sus visitantes. Los resultados obtenidos muestran que el modelo propuesto es capaz de ajustar en aproximadamente un 81% los patrones de navegación reales, en relación con una medida de similitud que incorpora tanto las páginas visitadas como también el orden de éstas dentro de las sesiones. En conclusión, es factible modelar el comportamiento del usuario en la Web a través de ACO en un nivel agregado, es decir, la identificación de las tendencias de comportamiento global por sobre las secuencias individuales. Asimismo, se debe señalar que dadas las múltiples variables existentes en los problemas relativos a Web Mining, es necesario realizar cambios considerables en la formulación tradicional de la metaheurística en estudio con el fin de lograr una adaptación coherente. Se propone como trabajo futuro el continuar con el desarrollo de mejores técnicas de extracción y preprocesamiento de los datos originados en la web, como también implementar los modelos en sitios más dinámicos tanto en su estructura como en contenido.
63

Estudio de Metodologías para el Seguimiento de Modelos de Credit Scoring Utilizando Regresión Logística

Tolvett Sepúlveda, Carlos Felipe January 2011 (has links)
No description available.
64

Minado de Relaciones de Conflicto en la Cámara de Diputados

Uribe Buzeta, Francisco Javier January 2008 (has links)
No description available.
65

Minería de datos educacionales: modelos de predicción del desempeño escolar en alumnos de enseñanza básica

Molen Moris, Johan van der January 2013 (has links)
Ingeniero Civil Matemático / En los últimos años, se ha abierto una oportunidad de hacer análisis más precisos de las habilidades y desempeños de los estudiantes. De a poco, han comenzado a proliferar sistemas de ejercitación en línea y tutores inteligentes que permiten registrar una gran cantidad de información valiosa referente al aprendizaje de los alumnos. La Minería de Datos Educacionales (MDE), es un campo de estudio dedicado a desarrollar métodos matemáticos para analizar datos provenientes de ambientes relacionados a la educación, y extraer la mayor cantidad de información para tratar de entender mejor a los estudiantes, profesores y actores relacionados, con el fin de mejorar los procesos educativos. En esta memoria se aborda el problema de predecir el desempeño de un alumno dados sus datos históricos recopilados a partir de su interacción en un sistema computacional de ejercitación en línea. Este desafío se ha constituido últimamente como uno de los más importantes dentro de la MDE, tal como evidencia el aumento de publicaciones relacionadas, y el gran interés que ha despertado por parte de universidades y entidades gubernamentales. En este trabajo, se analizan los registros almacenados de más de medio millón de ejercicios en línea realizados semanalmente en el 2011 por 805 estudiantes en 23 cursos de cuarto básico de 13 escuelas vulnerables, explorando varios de los enfoques más usados para enfrentar este problema, y proponiendo nuevas variantes para mejorar los resultados y ayudar a la detección de observaciones anómalas que podrían incluir instancias de "gaming the system". Adicionalmente, se estudia el problema de conocer cómo ciertos contenidos impactan en otros. Se trata de un problema de Minería de Datos Educacionales central en el diseño curricular y la planificación de clases. Usualmente esta red de influencias causales se construye en base a las opiniones de expertos. Algunos contribuyen explicitando la dependencia lógica de los contenidos y otros con sus experiencias personales al enseñar esos contenidos. Sin embargo, es muy importante contrastar esas opiniones con el proceso de aprendizaje que efectivamente ocurre en el aula y construir redes causales en base a la evidencia empírica. Aprovechamos los datos y técnicas de Minería de Datos para generar automáticamente la primera red causal de contenidos de un currículo construida empíricamente. Finalmente, se reporta el análisis del impacto de la ejercitación en línea en el desempeño de la prueba SIMCE. Mediciones en condiciones de laboratorio muestran que la ejercitación aumenta el aprendizaje. Sin embargo, implementaciones escolares no han mostrado impactos positivos. Este trabajo muestra la experiencia con escuelas vulnerables donde los estudiantes hacen decenas de ejercicios matemáticos semanales en un sistema en línea. El SIMCE de matemáticas subió significativamente, más de tres veces el aumento histórico logrado a nivel nacional en 2011. Además, los cursos que realizaron mayor cantidad de ejercicios lograron un mayor aumento en el SIMCE, independiente del efecto del profesor y de la escuela.
66

Mejoramiento de una metodología para la identificación de website keyobject mediante la aplicación de tecnologías eye tracking, análisis de dilatación pupilar y algoritmos de web mining

Martínez Azocar, Gustavo Adolfo January 2013 (has links)
Ingeniero Civil Industrial / El crecimiento acelerado de internet ha creado un aumento sostenido de los sitios web para todo tipo de empresas, organizaciones y particulares, provocando un nivel de oferta inmensamente alto. Estos sitios comienzan cada vez más a ser un importante canal tanto de comunicación directa con el cliente como de ventas, por lo que se hace necesario tratar de generar estrategias que permitan atraer a más usuarios al sitio y además hacer que los actuales usuarios continúen utilizándolo. Esto lleva a preguntarse qué tipo de información resulta de utilidad para el usuario final y como poder identificar esa información. Anteriormente se ha tratado de abordar este problema mediante técnica de web mining a las áreas de contenido, estructuras y usabilidad de un sitio web, de modo de poder encontrar patrones que permitan generar información y conocimiento sobre estos datos. Estos a su vez permitirían tomar mejores decisiones respecto de la estructura y contenido de los sitios web. Sin embargo este tipo de técnicas incluía la conjunción de datos objetivos (web logs) con datos subjetivos (encuestas y focus group principalmente), los cuales poseen una alta variabilidad tanto personal como interpersonal. Esto provoca que el análisis posterior de los datos pueda contener errores, lo que redunda en peores decisiones. Para resolver en cierta manera eso, este proyecto de memoria desarrolló algoritmos de web mining que incluyen análisis de exploración visual y neurodatos. Al ser ambas fuentes de datos objetivas, se elimina en cierta parte la variabilidad de los resultados posteriores, con la consecuente mejora en las decisiones a tomar. El resultado principal de este proyecto son algoritmos de web mining y modelos de comportamiento del usuario que incluyen información de análisis de exploración visual y datos obtenidos a través de ténicas de neurociencia. Se incluyen también una lsita de website keyobjects encontrados en la página de prueba para este proyecto. Se incluyen además una revisión general acerca de los principales temas sobre los que el proyecto se basa: la web e internet, el proceso KDD, Web Mining, sistemas de eye tracking y website keyobjects. Por otra parte se especificaron los alcances del proyecto de memoria, tanto técnicos como de investigación. Se concluye que el resultado del trabajo fue exitoso, incluso siendo el resultado de los algoritmos similares a la metodología previa. Sin embargo se abre un nuevo camino en cuanto al análisis de sitio dadas las relaciones encontradas entre el comportamiento pupilar y el análisis del sitio. Son incluidas ciertas consideraciones y recomendaciones para continuar y mejorar este trabajo.
67

Análisis y comparación entre el motor de bases de datos orientado a columnas Infobright y el framework de aplicaciones distribuidas Hadoop en escenarios de uso de bases de datos analíticas

Silva Balocchi, Erika Fernanda January 2014 (has links)
Ingeniera Civil en Computación / Business Intelligence es la habilidad para transformar datos en información, y la información en conocimiento, de forma que se pueda optimizar la toma de decisiones en los negocios. Debido al aumento exponencial en la cantidad de datos disponibles en los ultimos años y a la complejidad de estos, las herramientas tradicionales de bases de datos y business intelligence pueden no dar a basto, suponiendo numerosos riesgos para las empresas. El objetivo de la presente memoria fue analizar el uso del framework de aplicaciones distribuidas Hadoop en comparación a la solución actual de Penta Analytics, buscando hacer un mejor uso de la infraestructura y aumentando la disponibilidad de los datos a medida que el volumen de estos crece. Actualmente esta compañía utiliza un motor de bases de datos analíticas llamado Infobright, que permite la ejecución de consultas de manera eficiente dada su estructura columnar, pero a nivel de un único servidor, limitando las capacidades de manejo de datos y uso eficiente de todos los servidores. Para realizar la comparación se tomaron en cuenta dos casos de procesamiento de datos reales; consultas OLAP y ETL, además de tres casos de consultas estándar. Para cada uno de estos casos se realizaron tres variantes según el volumen a procesar para evaluar el rendimiento según crecían los datos. La solución Hadoop fue desarrollada en un cluster en la nube, con tres servidores (un maestro y dos esclavos). En el sistema de archivos del cluster se almacenó la información a procesar y se realizaron los sets de consultas mediante dos herramientas Hadoop: Hive e Impala. Los resultados obtenidos arrojaron que Hive presenta tiempo superiores a Impala e Infobright, esto debido al overhead que implica lanzar las tareas map y reduce, sin embargo es el único que ofrece tolerancia ante el fallo de un nodo. Por otro lado Impala presenta la menor latencia, con un tiempo de respuesta mucho menor a Infobright, no obstante presenta la mayor utilización de memoria. A partir de los resultados se pudo observar que Hive se comporta mejor en trabajos pesados tipo ETL donde la robustez prime sobre el tiempo, e Impala aplica mejor en consultas ligeras donde prime la velocidad. Se pudo concluir que la combinación de distintas herramientas en un ambiente con tecnología Hadoop pueden ofrecer un buen desempeño, además de mejor utilización de máquinas y eventual tolerancia a fallos. Sin embargo hay que tomar en cuenta la curva de aprendizaje implicada.
68

Incidencia de la dilatación pupilar como variable predictiva del comportamiento de los usuarios en una página web antes de tomar una decisión

Jadue Musalem, Joaquín Nicolás January 2014 (has links)
Ingeniero Civil Industrial / El objetivo general del presente trabajo es la implementación de metodologías para estudiar la incidencia de la dilatación pupilar como variable predictiva de la toma de decisión de usuarios que navegan a través de sitios web. Esta memoria busca encontrar patrones de comportamiento de la pupila en usuarios web al momento de tomar una decisión, utilizando herramientas de Data Mining, Eye-Tracking y Dilatación Pupilar. Este estudio es un apoyo al proyecto FONDEF adjudicado por la Universidad de Chile, titulado Plataforma informática basada en web-intelligence y herramientas de análisis de exploración visual para la mejora de la estructura y contenido de sitios web (AKORI: Advanced Kernel for Ocular Research and web Intelligence), el cual busca paquetizar una metodología de mejoramiento de sitios web. La metodología a utilizar en este trabajo, es el \textit{método científico}, apoyado por el análisis \textit{ Knowledge Discovery in Databases (KDD)} de minería de datos. La hipótesis a validar es: Los cambios del diámetro de la pupila en el tiempo son una variable predictiva dependiente relevante en las tomas de decisión próximas . Se realiza un experimento en el cual se presentan distintos objetos de valencia neutros de la base de datos IAPS, organizados ene 90 categorías distintas, y el sujeto de prueba de elegir uno de los objetos haciendo click con el mouse. No hay un criterio de de decisión impuesto en la instrucción. La instrucción es:"Se le presentará un set de 9 imágenes en una grilla de 3x3. Haciendo click con el mouse, elija una de las imágenes...". Para validar la hipótesis planteada, se realiza un experimento en que usuarios web navegan por un sitio, dada una instrucción y a través de herramientas de eye-tracking y dilatación pupilar, se obtienen medidas periódicamente del diámetro de la pupila, y la coordenada en la pantalla el cual el sujeto está mirando. Se utilizan distintos métodos de minería de datos para validar la hipótesis, buscando la relación entre la data y la toma de decisión. Se define una toma de decisión como el momento en que el sujeto de prueba hace un click en la pantalla. El experimento revela resultados favorables, validando la hipótesis con una confianza del 95\%. Se genera un clasificador utilizando herramientas de minería de datos. Se utilizan los métodos de clasificación binaria: Support Vector Machine; Accuracy de 72\%, Regresión Logística; Accuracy de 75\%, y Redes Neuronales; Accuracy de 82\%. %Conclusión más importante Se concluye que la dilatación pupilar muestra patrones de comportamiento marcados en relación con las tomas de decisiones.
69

Modelo de detección de fraude en clientes del servicio de agua potable de una empresa sanitaria

Patiño Espinoza, Victoria Yazmín del Rosario January 2014 (has links)
Ingeniera Civil Industrial / Aguas Andinas corresponde a la empresa sanitaria más grande del país, con alrededor de 1,8MM de clientes en la Región Metropolitana y una facturación anual de 509MM de m3 de agua potable, equivalente aproximadamente a $341MMM. Todas las empresas sanitarias presentan cierto porcentaje de agua no facturada, vale decir, aquella agua potable que se produce, pero no logra cobrarse al consumidor final. Este índice es de alrededor del 30% y es explicado por 3 factores: pérdida técnica, pérdida por micromedición y pérdida por uso irregular. El presente trabajo de memoria pretende encargarse del tercer factor, relativo al agua no facturada por intervenciones que realizan las personas en sus medidores o red de agua potable, con el objeto de disminuir la lectura de m3. Este punto es el causante de una pérdida mensual estimada de 700.000 m3, lo que en dinero se traduce en $468MM. Hasta ahora, la empresa ha utilizado ciertos criterios para detectar usuarios irregulares, como verificar cuáles de los clientes previamente visitados por personal técnico ha presentado una baja en su consumo (pues se sabe que algunos trabajadores gasfiteros ofrecen intervenir el medidor) o comprobar denuncias hechas por los clientes. Mas, se desaprovecha un sinfín de información con la que se cuenta y que podría aportar a una mayor detección de ilícitos, mejorándose la actual tasa de detección del 15%. Se tiene por cada 1% de mejora en dicha tasa aumenta la recaudación en $6MM. El eje del trabajo lo constituye la metodología KDD, tendiente a extraer patrones útiles y coherentes de la información que se posee. Es así como se buscó obtener un modelo que señalara la probabilidad que tiene cada cliente de ser un irregular, con la mayor certeza posible, para lo cual se trabajó con datos de clientes irregulares y no irregulares, construyendo una base a la que se le aplicó 3 modelos de aprendizaje supervisado: regresión logística binaria, árbol de decisión CHAID y red neuronal, definiéndose el mejor modelo en base a los costos asociados a los errores tipo I y II. El mejor método resultó ser el árbol de decisión, con la eficacia más alta igual a 75%, lo que conllevaba al costo por error más bajo. A la vez su eficiencia fue de 81,2%, por lo que en un escenario conservador, si se considera que la tasa de detección aumente de un 15% actual a un 40% con el nuevo método, se está ante una recuperación extra mensual de $150MM. Finalmente, junto con la aplicación del modelo resultante de este trabajo se sugiere diseñar una estrategia orientada a mejorar la actual tasa de regularización del 55%, considerada baja, lo que aumentaría aún más la recuperación monetaria. Además se debe tener presente que este tipo de modelos posee un determinado ciclo de vida, vale decir, después de cierto tiempo de aplicación es altamente probable que la eficacia y eficiencia comiencen a decaer debido a cambios que vaya experimentando el universo bajo estudio. Por ello se recomienda retroalimentar cada cierto tiempo el modelo, utilizando toda la data que se vaya recolectando, de modo de mantener su calidad.
70

Text mining aplicado a documentación de API para la detección de directivas

Correa Gaete, Gabriel Andrés Josué January 2015 (has links)
Ingeniero Civil en Computación / En esta memoria de Título se estudia la factibilidad de detectar directivas de API usando herramientas de Machine Learning y Text Mining. Las directivas son instrucciones importantes sobre el correcto uso de una API junto con restricciones y precauciones para prevenir errores. Sin embargo, existe la necesidad de destacar las directivas ya que pueden pasar desapercibidas para los desarrolladores de software. El objetivo general de este trabajo es diseñar e implementar un sistema de detección semi-automático de directivas de API. En este proyecto se realiza una búsqueda de los mejores algoritmos de Machine Learning para detectar las directivas de una API. Se realizaron una serie de experimentos de Text Mining para evaluar la precisión de algoritmos que intentan separar las frases de una documentación en directivas y en no-directivas. Previo a la realización de los experimentos, fue necesario reunir una colección de directivas y de no-directivas, requeridos para entrenar los programas de Machine Learning. Para facilitar la recopilación de estos datos, se implementó Comments Highlighter o CHi: una aplicación web que ayuda a buscar y destacar manualmente las directivas de una API. De este modo, se utilizó la herramienta implementada para reunir los datos precisados por los algoritmos de clasificación y posteriormente se realizaron pruebas para medir el rendimiento de la detección automática de directivas. Luego, la habilidad de detectar las directivas es agregada a la aplicación, y como la detección no es perfecta, los errores pueden ser corregidos manualmente usando CHi. Es por esto que el sistema es denominado como una solución semi-automática. Los resultados demuestran que es factible detectar directivas usando clasificadores de Machine Learning. Además, se hacen pruebas variando el tamaño de los datos usados para entrenar los clasificadores, obteniendo información sobre cuántas muestras es necesario reunir para lograr un porcentaje satisfactorio de directivas detectadas. Finalmente se observa que hay dos algoritmos que funcionan significativamente mejor que los otros y uno de ellos es agregado a las funcionalidades de CHi.

Page generated in 0.046 seconds