• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3
  • Tagged with
  • 3
  • 3
  • 3
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Predicción no lineal en línea de series de tiempo mediante el uso y mejora de algoritmos de filtros adaptivos de Kernel

Castro Ojeda, Iván Alonso January 2018 (has links)
Magíster en Ciencias de la Ingeniería, Mención Eléctrica. Ingeniero Civil Eléctrico / El modelamiento de series de tiempo es un problema transversal a diferentes áreas de ingeniería y ciencias. Este tópico, visto a través del foco de aprendizaje de máquinas o aprendizaje estadístico, se reduce a elegir un modelo de regresión que sea lo suficientemente flexible sin que sobreajuste al conjunto de entrenamiento y, por ende, permita generalizar. No obstante, la elección de modelos flexibles suele venir de la mano de poca interpretabilidad de los mismos, como por ejemplo en modelos con estructura tipo \textit{caja negra}. Los modelos más flexibles son preferidos para problemas de alta complejidad, debido a su ajuste con mayor precisión a las observaciones. Más aún, el ajuste de los modelos predictivos es una componente crìtica para la regresión en línea aplicada a problemas reales. Es por ello que se decide abordar el tema del aprendizaje en línea para series de tiempo no lineales a través de un modelo flexible, que extiende la teoría del filtrado adaptivo lineal, al caso no lineal, haciendo uso de transformación de espacio de características basadas en \textit{kernel} reproductivos. Los objetivos de la investigación realizada son (i) presentar e interpretar el estimador de filtro de \textit{kernel} adaptivo (KAF) al contexto de regresión no lineal de series de tiempo, (ii) extender, en términos de mejoras sobre el algoritmo y el ajuste de sus hiperparámetros, la aplicación estándar de KAF validada sobre series sintéticas y datos reales y (iii) acercar la interpretabilidad y aplicabilidad de los métodos KAF para usuarios, validando la mejora tanto en desempeño predictivo como en ajuste de modelos con las extensiones propuestas. Para ello, este trabajo de investigación reúne los resultados principales de dos investigaciones previas, la primera enfocada en mejorar la predicción de KAF utilizando una entrada exógena de un sistema. En ese contexto se estudió el comportamiento de descarga de batería de ion-litio para una bicicleta eléctrica que utilizaba como entrada exógena mediciones de altitud derivadas a partir de coordenadas de geolocalización. El objetivo era caracterizar la posible dependencia oculta a través del descubrimiento automático de relevancia de las variables al momento de la predicción; para lo cual se usó un \textit{kernel} Gaussiano de Determinación de Relevancia Automática (ARD). Por otro lado, la segunda investigación se centró en la validación de una metodología para la inicialización de KAF extendiendo el estimador a una variante probabilística para mejorar su desempeño y entrenamiento, proponiendo hibridar la estimación en línea adicionando un entrenamiento en \textit{batch} que permite encontrar los hiperparámetros óptimos de la extensión propuesta. Adicionalmente, este enfoque permitió proponer un regularizador novedoso para abordar dos de los problemas más desafiantes de diseño según el estado del arte para KAF: el ajuste del hiperparámetro del \textit{kernel} Gaussiano y el tamaño del diccionario usado por el estimador. La metodología fue validada tanto en datos sintéticos, específicamente para el caso del atractor caótico de Lorentz, como en datos reales, los cuales correspondieron a una serie de viento extraída a partir de mediciones de anemométro. Ambos estudios mostraron resultados prometedores, acercando el uso de KAF a usuarios neófitos, tanto por las metodologías desarrolladas que quedan como guías metodológicas aplicadas, como por la interpretabilidad proporcionada a través de toda la investigación, caracterización y desarrollo del uso de KAF. Finalmente se dejan desafíos futuros con respecto a promover más aún la automatización con respecto a la selección de hiperparámetros del modelo, lo que culminaría con un desarrollo completamente adaptivo de estos métodos, vale decir, con intervención mínima del usuario en la selección de los hiperparámetros.
2

Algoritmo de predicción de crisis respiratoria en pacientes pediátricos

García Tenorio, Fabián Andrés January 2018 (has links)
Magíster en Gestión de Operaciones. Ingeniero Civil Industrial / Las enfermedades respiratorias crónicas (ERC) afectan las vías respiratorias y otras estructuras del pulmón por más de tres meses, lo que en caso de infantes repercute tanto en su crecimiento como en su desarrollo normal. En Chile las enfermedades respiratorias son la primera causa de egreso hospitalario, siendo las ERC una de las razones más frecuentes. Diversas iniciativas se han implementado en apoyo a estas problemáticas, principalmente a través de Garantías Explícitas en Salud, pero éstas presentan un enfoque de atención médica necesaria y oportuna más que de prevención. A partir de 2013 una iniciativa impulsada por el Ministerio de Salud busca reintegrar en sus domicilios a pacientes menores de 20 años que requieran apoyo respiratorio, lo que mejora su calidad de vida y la de sus familias. No obstante, el protocolo de detección de crisis y su consiguiente plan contingente recae en las familias y cuidadores. Por esto es fundamental generar estrategias que puedan prevenir y detectar de forma oportuna cualquier riesgo de salud una vez que llegan a sus casas. Para esto, el objetivo general planteado es predecir el estado de riesgo de salud futuro del paciente en base a los signos vitales capturados, brindando el tiempo necesario para desencadenar el plan contingente asociado a la situación. El resultado de este trabajo es un algoritmo capaz de conectarse a un sistema de captura de datos del paciente que logre detectar una situación adversa futura entregando este resultado en un tiempo mínimo de procesamiento. Considerando esto es fundamental contar con un repositorio de datos confiable, tanto para modelar el predictor como para su funcionamiento continuo. Este algoritmo está dividido en dos etapas: elección de modelos óptimos y clasificación de riesgo futuro. La primera etapa busca escoger el conjunto de métodos de series de tiempo que sea capaz de predecir siguiente estado del paciente, y luego escoger el modelo de aprendizaje supervisado que clasifique de mejor forma el riesgo del paciente. La segunda etapa busca tomar los modelos ya seleccionados y utilizarlos para desencadenar la predicción. Con esto se logra que la respuesta del próximo estado de cada paciente se obtenga en segundos. El resultado muestra que algunos signos vitales se pueden modelar de buena forma con la distancia de captura de los datos que se tiene (dos horas), como la temperatura, que para el paciente en que mejor se ajusta se puede modelar con un 1% de error cuadrático medio. En contraste, la frecuencia cardiaca no es posible modelarla con la misma distancia entre datos, teniendo en el mejor caso un error cuadrático medio de 35,90. Por otro lado, la clasificación de riesgo llega a resultados bastante buenos en términos de exactitud, cercano a 90% en algunos casos, pero se tiene que para el mejor escenario el Valor-F alcanza sólo 67%. Contrastando simultáneamente sensibilidad y especifidad se logra obtener modelos que están sobre 80% en ambas métricas, o cercano a 90% en una manteniéndose sobre 70% en la otra.
3

Deep learning para identificación de núcleos activos de galaxias por variabilidad

Miranda Castillo, Nicolás Martín January 2018 (has links)
Magíster en Ciencias, Mención Computación / En la presente era de datos masivos, la astronomía requiere de herramientas automatizadas para el análisis de información asociada al comportamiento de objetos a lo largo del tiempo. El desarrollo de proyectos de observación sinópticos plantea muchos desafíos en lo que respecta a obtener descripciones relevantes de los aspectos subyacentes de muchos procesos variables en el tiempo. En particular, el estudio de los Núcleos Activos de Galaxia (AGN) resulta de especial interés; dado su comportamiento estocástico en el tiempo y la singular estructura en la variación temporal de su emisión electromagnética. El uso de algoritmos de aprendizaje computacional ha sido de gran éxito en aspectos de identificación de objetos según su morfología y análisis espectral; es de mucho valor el replicar esos resultados en el análisis de dominio temporal. Con este fin es que se puso a prueba distintas configuraciones de arquitecturas de algoritmos de Deep Learning, en particular Convolutional Neural Networks y Recurrent Neural Networks, con el fin de realizar tareas de clasificación de AGN a partir de sus curvas de luz. Estos se pusieron a prueba sobre datos simulados mediante un modelo matemático y sobre 6102 curvas de luz reales obtenidas a partir de observaciones de los campos extragalácticos COSMOS, Stripe82 y XMM-LSS. Los resultados fueron favorables sobre datos simulados, alcanzando un puntaje ROC AUC máximo de 0.96, pero no así sobre datos reales, donde el puntaje máximo alcanzado fue de 0.55 ROC AUC. Esta diferencia puede explicarse debido al reducido número de datos reales del que se dispuso a la hora de entrenar los distintos clasificadores, y a que el modelo de simulación permitió generar un mucho mayor número de curvas de entrenamiento, lo cual permitió un mucho mejor aprendizaje a partir de estas. El presente trabajo entregó información cuantitativa sobre lo importantes que son ciertas características de las curvas de luz, en particular la regularidad de su muestreo y el número de observaciones, en el desempeño de estos tipos de modelos de clasificación de Deep Learning. Junto con esto, se plantea un flujo en el procedimiento de manejo de datos de curvas de luz para clasificación, desde su recolección desde archivos de formato estándar (FITS) hasta la validación de los modelos, que puede ser reutilizado en el futuro en aplicaciones de Deep Learning sobre series de tiempo. Se sugiere, además, el añadir en próximas implementaciones métodos para manejo de incertidumbre debido a ausencia de mediciones, tales como modelos gráficos, de estado oculto o estocásticos.

Page generated in 0.1223 seconds