• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 18
  • 4
  • Tagged with
  • 22
  • 22
  • 6
  • 6
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Desarrollo de modelo para la identificación de somnolencia basado en redes neuronales convolucionales y procesamiento de señales de electroencefalografía

Guarda Bräuning, Luis Felipe January 2018 (has links)
Ingeniero Civil Mecánico / La confiabilidad en todo proceso de ingeniería es fundamental para asegurar su correcto y seguro desarrollo. Por este motivo se vuelve imperante ampliar las fronteras de análisis en confiabilidad, dejando de tener como eje central el análisis de equipos técnicos, apuntando de manera paralela al estudio de confiabilidad del operador de dichos equipos. Las nuevas herramientas de aprendizaje de máquinas permiten a una computadora analizar información en base a algoritmos para aprender a identificar características concretas de su entorno. Dentro de estas nuevas herramientas, las redes neuronales convolucionales (CNN) se presentan como una de las técnicas más robustas para el reconocimiento de imágenes. Mediante esta técnica es posible determinar patrones de frecuencia en señales de electroencefalografía (EEG) para determinar diversos estados anímicos de un individuo. El objetivo general de la memoria consiste en desarrollar un modelo para la detección del estado de somnolencia de un operador en base a redes neuronales convolucionales utilizando señales de electroencefalografía. Los objetivos específicos son: Desarrollar, comprender y manejar un modelo de detección de sujetos con ojos abiertos y cerrados en base a CNN, a través del procesamiento de señales de electroencefalografía. Desarrollar, comprender y manejar un modelo de detección de sujetos en estado de somnolencia utilizando CNN a través del procesamiento de señales de electroencefalografía. Comparar la clasificación de sujetos en estado de somnolencia realizada con redes neuronales convencionales (NN), Support Vector Machines (SVM) y Random Forest (RF). Para llevar a cabo los objetivos planteados, se utilizó la base de datos de somnolencia multimodalidad ULg . Con ella, en primer lugar, se generaron seis conjuntos de datos a evaluar, con sus respectivas etiquetas. Luego se elaboró un clasificador utilizando CNN, capaz de clasificar entre sujetos con y sin somnolencia, con el cual además se encontró el conjunto de datos que entregaba el mayor desempeño para el modelo creado. Posteriormente se procedió a comparar el desempeño de la red elaborada con el conjunto de datos optimo generado con NN, SVM y RF. Luego de comparar el rendimiento entregado por cada modelo, se obtuvo que las redes neuronales convolucionales representan el método más a fin para realizar la clasificación de sujetos bajo estado somnolencia, entregando una exactitud de clasificación superior al 86%.
2

Detección de objetos usando redes neuronales convolucionales junto con Random Forest y Support Vector Machines

Campanini García, Diego Alejandro January 2018 (has links)
Ingeniero Civil Eléctrico / En el presente trabajo de título se desarrolla un sistema de detección de objetos (localización y clasificación), basado en redes neuronales convolucionales (CNN por su sigla en inglés) y dos métodos clásicos de machine learning como Random Forest (RF) y Support Vector Machines (SVMs). La idea es mejorar, con los mencionados clasificadores, el rendimiento del sistema de detección conocido como Faster R-CNN (su significado en inglés es: Regions with CNN features). El sistema Faster R-CNN, se fundamenta en el concepto de region proposal para generar muestras candidatas a ser objetos y posteriormente producir dos salidas: una con la regresión que caracteriza la localización de los objetos y otra con los puntajes de confianza asociados a los bounding boxes predichos. Ambas salidas son generadas por capas completamente conectadas. En este trabajo se interviene la salida que genera los puntajes de confianza, tal que, en este punto se conecta un clasificador (RF o SVM), para generar con estos los puntajes de salida del sistema. De esta forma se busca mejorar el rendimiento del sistema Faster R-CNN. El entrenamiento de los clasificadores se realiza con los vectores de características extraídos, desde una de las capas completamente conectadas del sistema Faster R-CNN, específicamente se prueban las tres que contempla la arquitectura, para evaluar cuál de estas permite obtener los mejores resultados. Para definir, entre otras cosas, el número de capas convolucionales a utilizar y el tamaño de los filtros presentes en las primeras capas del sistema Faster R-CNN, se emplean los modelos de redes convolucionales ZF y VGG16, estas redes son solamente de clasificación, y son las mismas ocupados originalmente. Para desarrollar los sistemas propuestos se utilizan distintas implementaciones o librerías para las cuales se dispone de su código de forma abierta. Para el detector Faster R-CNN se utiliza una implementación desarrollado en Python, para RF se comparan dos librerías: randomForest escrita en R y scikit-learn en Python. Por su parte para SVM se utiliza la librería conocida como LIBSVM escrita en C. Las principales tareas de programación consisten en desarrollar los algoritmos de etiquetado de los vectores de características extraídos desde las capas completamente conectadas; unir los clasificadores con el sistema base, para el análisis \textit{online} de las imágenes en la etapa de prueba; programar un algoritmo para el entrenamiento eficiente en tiempo y en memoria para SVM (algoritmo conocido como hard negative mining) Al evaluar los sistemas desarrollados se concluye que los mejores resultados se obtienen con la red VGG16, específicamente para el caso en que se implementa el sistema Faster R-CNN+SVM con kernel RBF (radial basis function), logrando un mean Average Precision (mAP) de 68.9%. El segundo mejor resultado se alcanza con Faster R-CNN+RF con 180 árboles y es de 67.8%. Con el sistema original Faster R-CNN se consigue un mAP de 69.3%.
3

Desarrollo de un modelo predictivo para identificar la probabilidad de robo de vehículos en la Ciudad de Santiago

Gómez Montecino, Bruno Ayrton January 2018 (has links)
Memoria para optar al título de Ingeniero Civil Industrial / 26/11/2020
4

Rediseño de sistema automático de detección de retinopatía diabética

Rojas Contreras, Maximiliano Alejandro January 2018 (has links)
Magíster en Ingeniería de Negocios con Tecnologías de Información. Ingeniero Civil Industrial / 22/08/2023
5

Predicción no lineal en línea de series de tiempo mediante el uso y mejora de algoritmos de filtros adaptivos de Kernel

Castro Ojeda, Iván Alonso January 2018 (has links)
Magíster en Ciencias de la Ingeniería, Mención Eléctrica. Ingeniero Civil Eléctrico / El modelamiento de series de tiempo es un problema transversal a diferentes áreas de ingeniería y ciencias. Este tópico, visto a través del foco de aprendizaje de máquinas o aprendizaje estadístico, se reduce a elegir un modelo de regresión que sea lo suficientemente flexible sin que sobreajuste al conjunto de entrenamiento y, por ende, permita generalizar. No obstante, la elección de modelos flexibles suele venir de la mano de poca interpretabilidad de los mismos, como por ejemplo en modelos con estructura tipo \textit{caja negra}. Los modelos más flexibles son preferidos para problemas de alta complejidad, debido a su ajuste con mayor precisión a las observaciones. Más aún, el ajuste de los modelos predictivos es una componente crìtica para la regresión en línea aplicada a problemas reales. Es por ello que se decide abordar el tema del aprendizaje en línea para series de tiempo no lineales a través de un modelo flexible, que extiende la teoría del filtrado adaptivo lineal, al caso no lineal, haciendo uso de transformación de espacio de características basadas en \textit{kernel} reproductivos. Los objetivos de la investigación realizada son (i) presentar e interpretar el estimador de filtro de \textit{kernel} adaptivo (KAF) al contexto de regresión no lineal de series de tiempo, (ii) extender, en términos de mejoras sobre el algoritmo y el ajuste de sus hiperparámetros, la aplicación estándar de KAF validada sobre series sintéticas y datos reales y (iii) acercar la interpretabilidad y aplicabilidad de los métodos KAF para usuarios, validando la mejora tanto en desempeño predictivo como en ajuste de modelos con las extensiones propuestas. Para ello, este trabajo de investigación reúne los resultados principales de dos investigaciones previas, la primera enfocada en mejorar la predicción de KAF utilizando una entrada exógena de un sistema. En ese contexto se estudió el comportamiento de descarga de batería de ion-litio para una bicicleta eléctrica que utilizaba como entrada exógena mediciones de altitud derivadas a partir de coordenadas de geolocalización. El objetivo era caracterizar la posible dependencia oculta a través del descubrimiento automático de relevancia de las variables al momento de la predicción; para lo cual se usó un \textit{kernel} Gaussiano de Determinación de Relevancia Automática (ARD). Por otro lado, la segunda investigación se centró en la validación de una metodología para la inicialización de KAF extendiendo el estimador a una variante probabilística para mejorar su desempeño y entrenamiento, proponiendo hibridar la estimación en línea adicionando un entrenamiento en \textit{batch} que permite encontrar los hiperparámetros óptimos de la extensión propuesta. Adicionalmente, este enfoque permitió proponer un regularizador novedoso para abordar dos de los problemas más desafiantes de diseño según el estado del arte para KAF: el ajuste del hiperparámetro del \textit{kernel} Gaussiano y el tamaño del diccionario usado por el estimador. La metodología fue validada tanto en datos sintéticos, específicamente para el caso del atractor caótico de Lorentz, como en datos reales, los cuales correspondieron a una serie de viento extraída a partir de mediciones de anemométro. Ambos estudios mostraron resultados prometedores, acercando el uso de KAF a usuarios neófitos, tanto por las metodologías desarrolladas que quedan como guías metodológicas aplicadas, como por la interpretabilidad proporcionada a través de toda la investigación, caracterización y desarrollo del uso de KAF. Finalmente se dejan desafíos futuros con respecto a promover más aún la automatización con respecto a la selección de hiperparámetros del modelo, lo que culminaría con un desarrollo completamente adaptivo de estos métodos, vale decir, con intervención mínima del usuario en la selección de los hiperparámetros.
6

Metodología para el diagnóstico y pronóstico de fallas en el motor de tracción de equipos de transporte de material minero

Seria Ríos, Sebastián Emmanuel January 2018 (has links)
Tesis para optar al grado de Magíster en Ciencias de la Ingeniería, Mención Eléctrica / Memoria para optar al título de Ingeniero Civil Eléctrico / 12/11/2023
7

Aplicaciones de aprendizaje de máquinas y EEG para salud mental

Valdivia Hennig, Tomás Alonso January 2018 (has links)
Memoria para optar al título de Ingeniero Civil Matemático / La ciencia de los datos y el aprendizaje de máquinas son un conjunto de técnicas y herramientas que han permitido gran desarrollo en diversas áreas de la técnica y las ciencias naturales. Las técnicas utilizadas en general no son necesariamente nuevas, sin embargo, el aumento explosivo en la capacidad de almacenamiento de datos y cómputos han hecho que estas herramientas hayan sido más aplicadas que nunca y su creciente fama puede deberse a la efectividad que tienen. Una de las áreas que se ha visto influenciada por este tipo de aplicaciones es la biomedicina. Un desafío importante en neuropsiquiatría es tener exámenes objetivos que indiquen presencia de trastornos psiquiátricos por sus anormalidades a nivel fisiológico. Se han realizado diversos esfuerzos en esta línea, muchos con buenos resultados, aunque esto todavía no se emplea a nivel clínico. En la presente memoria se evalúa la capacidad discriminativa de las mediciones de electroencefalografías para diferenciar poblaciones clasificadas previamente por expertos. Este trabajo busca ahondar en esta línea, mostrando que no sólo es posible para adultos, sino que también para niños y adolescentes. Junto a esto, se estudia el caso de la diferenciación utilizando grabaciones realizadas con un sistema de adquisición de bajo costo. Para responder a estas interrogantes se diseña una metodología basada en ciencia de los datos y aprendizaje de máquinas para evaluar la capacidad de discriminación del EEG en reposo en trastornos psiquiátricos relacionados con la esquizofrenia. Se conducen dos experimentos, el primero con grabaciones de EEG clínico de adolescentes rusos sin tratamiento farmacológico, con síntomas asociados a esquizofrenia y sin síntomas; y el segundo con grabaciones de EEG tomadas con un hardware comercial de bajo costo a adultos chilenos en tratamiento farmacológico diagnosticados con esquizofrenia u otro trastorno psiquiátrico. Esta discriminación se plantea como un problema de clasificación. La evaluación se realiza a través de un test estadístico de diferencia de medianas no paramétrico a los puntajes asignados por los clasificadores. Los resultados muestran que los clasificadores diferencian a ambas poblaciones de adolescentes con una significancia estadística del 0.1% con todos los métodos estudiados, se determinan además familias de características relevantes. El segundo caso logra una diferenciación con una significancia estadística del 5% para uno de los métodos empleados. Se estima que esto se puede mejorar con más datos, ajuste de los parámetros de los métodos y con la toma de datos de más datos. / CMM Conicyt PIA AFB170001
8

Mejoramiento de la clasificación funcional de enzimas usando aprendizaje de máquinas

Gómez Padilla, David Ignacio January 2017 (has links)
Ingeniero Civil Eléctrico / Los avances tecnológicos han permitido secuenciar el ADN de un organismo de manera mucho más accesible que en el pasado. Esto ha generado grandes volúmenes de información; en particular, de los principales productos génicos, las proteínas. Sin embargo, solo se ha logrado asignar funcionalidad a una centésima parte de las proteínas disponibles, ya que ello se realiza de forma experimental, lo cual es muy laborioso y lento. Es por ello que se han desarrollado un gran número de métodos computacionales que buscan predecir la funcionalidad de las proteínas. Dentro de ellos, BLAST (Basic Local Alignment Search Tool) ha sido el más usado, el cual asigna funcionalidad basándose en la noción de homología: proteínas con secuencias aminoacídicas similares tendrían funciones similares. Sin embargo se ha visto que proteínas con secuencias muy distintas pueden tener la misma funcionalidad, y variaciones en la secuencia de una proteína pueden tener grandes impactos en su función. Debido a las limitaciones de la inferencia de funcionalidad basado en homología, numerosos acercamientos basados en aprendizaje de máquinas han sido propuestos como alternativas. CAFA (Critical Assesment of Functional Annotation) es una competencia que busca evaluar las distintas alternativas que han surgido. Este desafío ha arrojado que no existe un método que sobrepase claramente a los demás, además de probar que si bien las alternativas propuestas sobrepasan el rendimiento de BLAST, este último aún sigue teniendo efectividad. En el presente trabajo se propone BLAST-KNN: un algoritmo que ensambla técnicas de aprendizaje de máquinas junto a BLAST para mejorar el proceso de clasificación funcional en enzimas, un subconjunto de las proteínas, utilizando la nomenclatura de los números EC (Enzyme Commission) como etiquetas. De esta manera se aprovecha la efectividad de BLAST y se intentan corregir aquellas clases en que este no tiene un rendimiento perfecto. Se incorpora el uso del programa InterProScan como extractor de características para representar las proteínas, lo que entrega la ventaja de tener información basada no solo en homología. Se seleccionan las características más relevantes usando técnicas de teoría de la información. Usando los datos disponible en SwissProt que cuentan con sus cuatro dígitos EC asignados, se logran mejorar 835 clases en términos del puntaje F1 obtenido solo por BLAST, lo que representa el 55.48% de las clases en que BLAST no tiene un rendimiento perfecto. Además, se muestra un predominio de BLAST-KNN frente a BLAST al evaluar clases con más de un número EC asignado, mejorando el 60.3% de los casos. Por otro lado, se valida PANTHER, CDD y los descriptores propios de InterPro (IPR) como fuente importante de información al momento de predecir números EC a nuevas enzimas. Las limitantes del algoritmo propuesto están en la poca información por clase disponible, teniendo una distribución no uniforme en el número de muestras por etiquetas, lo que fuerza a utilizar algoritmos simples para clasificar. Se propone mejorar la representación de las enzimas incorporando nuevas características, así como extender el clasificador a uno que considere enzimas que no tengan los cuatro dígitos EC asignados. / Este trabajo ha sido parcialmente financiado por Conicyt 11150107
9

A framework for learning continuous actions from corrective advice

Celemin Páez, Carlos Eduardo January 2018 (has links)
Doctor en Ingeniería Eléctrica / Esta tesis presenta un método que permite que usuarios no expertos enseñen agentes a ejecutar tareas complejas durante tiempo de ejecución, con el principal propósito de acelerar la convergencia del aprendizaje y mejorar el desempeño final de las políticas aprendidas. En este sentido, se propone COrrective Advice Communicated by Humans (COACH), un framework interactivo para entrenar políticas con vagas correcciones respecto a las acciones ejecutadas, las cuales son cambios relativos de la magnitud de las acciones que están siendo ejecutadas. Así, los usuarios sugieren correcciones como: incrementar la fuerza, reducir la velocidad, ir más hacia la izquierda, etc. Inicialmente, se propone un esquema de aprendizaje que permite a humanos enseñar políticas de acciones continuas por medio de correcciones correctivas, para problemas de acciones de una dimensión. Se incluye en el framework de aprendizaje un módulo que representa las intenciones del profesor, el cual se basa en la historia pasada de las correcciones. Luego, el framework se extiende a problemas de acciones de más de una dimensión, incluso para casos en los que las correcciones del usuario no están en el mismo espacio de la política. Adicionalmente, el COACH propuesto es combinado con aprendizaje reforzado Policy Search con el fin de obtener la ventajas de ambas fuentes de información (correcciones humanas y funciones de recompensa) en el proceso de aprendizaje. Se proponen dos enfoques híbridos que combinan los dos enfoques, uno secuencial y uno simultáneo. Los resultados muestran que estos esquemas se benefician de las ventajas de cada uno de sus componentes, es decir se obtiene i) rápido progreso al principio del proceso de aprendizaje, y ii) aprendizaje robusto a errores humanos, junto con optimalidad local. Además, este enfoque híbrido es extendido para entrenar primitivas de movimiento. Así, las ventajas previamente mencionadas son extendidas para aprender también políticas representadas como Dynamic Movement Primitives (DMP) y Probabilistic Movement Primitives (ProMP), las cuales son convenientes para aprender trayectorias. El uso del enfoque propuesto es validado en muchos problemas tanto simulados como reales, con variadas características, recorriendo problemas de equilibrio, navegación con robots bípedos en el contexto del fútbol robótico, y también habilidades motoras con brazos robóticos en tareas como escritura de símbolos y el conocido juego "emboque". Los resultados muestran que el conocimiento de los usuarios no expertos puede apalancar procesos de aprendizaje de máquina, guiando hacia desempeños más altos con respecto a otros enfoques de aprendizaje de máquina interactivo y de aprendizaje reforzado, e incluso superando las capacidades de usuarios aprendiendo a tele-operar los agentes. Adicionalmente, los métodos presentados obtienen convergencias las cuales varían desde 3 hasta más de 40 veces más rápido que otras técnicas, dependiendo del problema.
10

Diseño de un sistema de catalogación de productos de e-commerce utilizando procesamiento de lenguaje natural (NLP) y machine learning

Guerra López, Rodrigo Andrés January 2019 (has links)
Tesis para optar al grado de Magíster en Gestión de Operaciones / Memoria para optar al título de Ingeniero Civil Industrial / En el presente proyecto de tesis se aborda el problema de extraer atributos y valores de atributos de productos a partir de descripciones no estructuradas de estos. Por ejemplo, el producto con descripción Notebook Lenovo i5 8 GB 500 GB posee, entre otros, un atributo Marca con valor Lenovo y un atributo Memoria RAM con valor 8 gigabytes . Así, se puede representar un producto p, en un formato estructurado, mediante un conjunto de atributos {a1, a2, ..., an} y un conjunto valores de atributos {v1, v2, ..., vn}, de la forma p = {a1 : v1,a2 : v2,...,an : vn}. Para cualquier sitio e-commerce, contar con datos estructurados de los atributos y valores de atributos de sus productos es una ventaja clave. Permite, por un lado, mejorar la experiencia del usuario a través de, por ejemplo, la implementación de filtros de búsqueda por atributos. Por otro lado, permite facilitar y sofisticar cualquier análisis que el sitio quiera realizar a partir de sus datos: desde identificar productos sustitutos hasta segmentar clientes en base a sus preferencias. A pesar de las ventajas que presentan estos datos estructurados, son pocos los e-commerce que cuentan con ellos para todos sus productos. Esto se debe principalmente a que la labor de extraer atributos y valores de atributos es difícil de automatizar, por lo que generalmente se realiza de forma manual. Para un ecommerce con un amplio catalogo de productos, esto se vuelve infactible. La solución propuesta consiste en un software de aplicación, al cual se denomina sistema de catalogación, que hace posible que equipos pequeños de persona puedan mantener grandes catálogos de productos con información estructurada de sus atributos y valores. Para lograr lo anterior, el sistema combina algoritmos de machine learning con técnicas de procesamiento de lenguaje natural (NLP), junto a supervisión humana. A grandes rasgos, el sistema funciona realizando predicciones sobre los atributos y valores de atributos de un producto, las cuales tienen un nivel de confianza asociado. Las predicciones con alto nivel de confianza son validadas automáticamente, mientras que aquellas con bajo nivel de confianza deben ser validadas de forma manual por una persona, mediante preguntas de selección múltiple generadas automáticamente por el sistema. Estas preguntas se diseñan de manera que sean fáciles de responder por cualquier persona con un leve conocimiento del rubro de los productos, lo que permite externalizar la validación manual a plataformas de crowdsourcing. A través de pruebas realizadas con datos de múltiples e-commerce nacionales, junto a aplicaciones concretas llevadas a cabo en la tienda (e-commerce) de ChileCompra Express, se exhibe el correcto funcionamiento sistema. Gracias a la arquitectura utilizada, que incluye supervisión humana constante, el sistema logra detectar los atributos y valores de atributos de los productos con una alta precisión de sobre un 80 %.

Page generated in 0.0974 seconds