• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 19
  • 5
  • Tagged with
  • 24
  • 24
  • 16
  • 16
  • 5
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Optimización multiobjetivo de un modelo fenomenológico para el empaquetamiento de baterías de litio mediante programación genética

Aguilar Aguilera, Nicolás Manuel January 2019 (has links)
Memoria para optar al título de Ingeniero Civil Eléctrico / Actualmente las baterías de ion-litio son utilizadas en una gran variedad de aplicaciones, tales como: dispositivos electrónicos, herramientas, vehículos eléctricos y sistemas de alma- cenamiento de energía. El masivo uso de estas baterías ha despertado el interés de optimizar el diseño de su empaquetamiento, siendo relevantes factores como: costos, temperaturas má- ximas, área, ventilación, etc. Una forma de abordar este problema es evaluando una gran cantidad de configuraciones, mediante simulaciones en software de multi-física Computatio- nal Fluid Dynamics (CFD). Sin embargo, una simulación toma varios minutos, por lo que probar una gran cantidad de configuraciones requiere de mucho tiempo. Una alternativa es formular un modelo fenomenológico, el cual permite obtener una aproximación de la simula- ción del CFD en un tiempo mucho menor a éste. En la memoria de título de Francisco Villa los ajustes al modelo fenomenológico se rea- lizaron mediante programación genética en un contexto de optimización multiobjetivo. En esta memoria se propone continuar este trabajo, analizando la validez de las soluciones en- contradas, aumentando el número de celdas estudiadas y buscando nuevas soluciones que se ajusten de mejor manera a las condiciones del nuevo modelo. Para lograr lo anterior, se construyó una base de datos de un modelo de 102 celdas con distintas configuraciones utilizando el software CFD ANSYS. Las estradas son: la corriente en las celdas, la separación entre celdas, el diámetro de las celdas, el flujo de aire entrante y la temperatura ambiente. Posteriormente, se utilizó programación genética multiobjetivo para evolucionar y encontrar simultáneamente funciones de los siguientes parámetros de interés del modelo fenomenológico: coeficiente de arrastre, factor de fricción y número de Nusselt. Con esta metodología se pudo construir un frente de Pareto en la optimización del modelo fenomenológico, ajustando la velocidad y presión de fluido y la temperatura de las celdas centrales. Se obtuvieron conjuntos de funciones que representan de mejor manera el comportamien- to de los parámetros analizados, logrando un mayor ajuste del modelo fenomenológico en relación a las desarrolladas en trabajos anteriores. En referencia al modelo original, se pudo disminuir el RMSE global de 3,9361[m/s], 215,1223[Pa] y 7,4035[K] a 0,954[m/s], 64,4[Pa] y 6,5051[K] con el modelo más general encontrado sobre la configuración de 102 celdas. Ade- más, se observó que los modelos encontrados pierden validez al extrapolar a un mayor número de celdas, siendo necesario realizar nuevos ajustes.
12

Predicción de rentas en Santiago de Chile utilizando algoritmos de aprendizaje automático

Chardon Schirm, Isabelle January 2019 (has links)
Memoria para optar al título de Ingeniera Civil / En este trabajo se aplican tres algoritmos de aprendizaje automático al problema de predicción de rentas de bienes inmobiliarios en la ciudad de Santiago de Chile por primera vez. Se dispone de una base de datos de 600.902 transacciones de casas y departamentos efectuadas entre los años 2007 y 2018, facilitada por la empresa TocToc.com, especialista en georreferenciación y tasación de bienes inmobiliarios. Se comparan una red neuronal, un algoritmo de máquinas de vectores de soporte para la regresión (SVR) y un bosque aleatorio (conjunto de árboles de regresión) para la predicción de rentas de departamentos en la comuna de La Florida. Los errores absolutos porcentuales medios obtenidos son de 19,17%, 14,69% y 9,67% respectivamente, por lo que el bosque aleatorio es el algoritmo más preciso para la predicción de rentas. Además, el bosque aleatorio funciona tanto con muestras pequeñas como con muestras grandes, mientras el poder predictivo de la red neuronal y del algoritmo SVR baja al reducir el tamaño de la muestra. También se observa que baja el error absoluto porcentual medio cuando la variable de precio a predecir es el valor del metro cuadrado y no el precio total del departamento, en concordancia con las conclusiones de Antipov y Pokryshevskaya (2012). Luego, se construyen distintas muestras según ingresos comunales y por región geográfica para predecir rentas de departamentos utilizando el bosque aleatorio, con lo que se calcula la importancia de los atributos de los bienes según el método de importancia de Gini (Breimann, 2001). Las variables que más contribuyen en la determinación de los precios de los bienes son el año de venta, el ingreso promedio de los hogares por comuna y el índice de calidad calculado por el Servicio de Impuestos Internos, que representa la calidad estructural y la antigüedad de los departamentos. Cuando mejora el índice de calidad y aumenta el ingreso promedio de los hogares suben la rentas de los departamentos. Este último resultado también ha sido encontrado en Santiago de Chile por Figueroa (1992).
13

Monitoreo y aprendizaje de redes neuronales utilizando medidas de información y su aplicación en detección de eventos astronómicos transitorios

Reyes Jainaga, Ignacio Alfredo January 2019 (has links)
Tesis para optar al grado de Magíster en Ciencias de la Ingeniería, Mención Eléctrica / Memoria para optar al título de Ingeniero Civil Eléctrico / Durante los últimos años, las redes neuronales profundas han mostrado excelentes resultados en múltiples tareas. Sin embargo, estos modelos son percibidos como "cajas negras", cuyos procesos internos no son comprendidos del todo. Dados los prometedores resultados alcanzados, estos modelos se proyectan como herramientas de gran utilidad en astronomía y otras áreas. Sin embargo, si se quieren utilizar para la toma automática de decisiones es necesario comprender mejor los principios fundamentales que rigen el comportamiento de las redes. En esta tesis se propone utilizar la teoría de la información para analizar el flujo de información en redes neuronales. Primero se analizan teóricamente algunas operaciones utilizadas en las redes neuronales, explicando los mecanismos mediante los cuales se destruye la información. Segundo, se monitorean las representaciones internas de los datos en la red durante el entrenamiento usando dos medidas de información. La primera medida utilizada es la "suficiencia", que corresponde a la información mutua entre la representación y las etiquetas, mientras que la segunda es una nueva medida propuesta llamada "robustez", que corresponde a la información mutua entre las etiquetas y la representación contaminada con ruido aditivo gaussiano. Tercero, se propone un algoritmo para aprender representaciones basado en la optimización de la robustez. Cuarto, se diseña un algoritmo capaz de entrenar redes neuronales completas, tanto redes MLP como redes neuronales convolucionales. Por otra parte se introduce Deep-HiTS, una red convolucional para detectar eventos astronómicos transitorios, la cual se entrena con datos semi-sintéticos construidos desde observaciones del High cadence Transient Survey (HiTS). Al comparar los resultados de Deep-HiTS con un modelo Random Forests y características diseñadas a mano, se observa que la red obtiene un error de clasificación de 0.53 % versus un 1.04 % del Random Forests. Usando las herramientas propuestas, se monitorea el flujo de información en las representaciones internas de Deep-HiTS. Además se entrena una red Deep-HiTS con arquitectura simplificada con el método propuesto basado en teoría de la información. Los experimentos verifican el cumplimiento de la desigualdad de procesamiento de información y el aumento de la suficiencia durante el aprendizaje. Los valores de suficiencia medidos sobre versiones reducidas de las representaciones reflejan la construcción jerárquica de características en las redes profundas. En el caso de Deep-HiTS, las propiedades medidas permiten cuantificar la dificultad del problema y muestran cómo fluye la información a través de la red. Los experimentos de aprendizaje muestran que los algoritmos propuestos permiten entrenar modelos efectivamente, aunque con un desempeño subóptimo. Varias mejoras posibles para el algoritmo de entrenamiento propuesto se describen en trabajo futuro. / Programa de formación de capital humano avanzado de CONICYT, a través de la Beca de Magíster Nacional 2016 número 22162464
14

Synergistic (Analysis of) algorithms and data structures

Ochoa Méndez, Carlos Ernesto January 2019 (has links)
Tesis para optar al grado de Doctor en Ciencias, Mención Computación / Los refinamientos actuales del análisis del peor caso sobre instancias con tamaño de entrada fijo consideran el orden de la entrada (por ejemplo, las subsecuencias ordenadas en una secuencia de números y las cadenas poligonales simples en las que puede dividirse una secuencia de puntos) o la estructura de la entrada (por ejemplo, la multiplicidad de los elementos en un multiconjunto y las posiciones relativas entre un conjunto de puntos en el plano), pero nunca, hasta donde sabemos, ambos al mismo tiempo. En esta tesis se proponen nuevas técnicas que combinan soluciones que se aprovechan del orden y la estructura de la entrada en una sola solución sinérgica para ordenar multiconjuntos, y para calcular la eficiencia de Pareto y la envoltura convexa de un conjunto de puntos en el plano. Estas soluciones sinérgicas se aprovechan del orden y la estructura de la entrada de tal forma que asintóticamente superan cualquier solución comparable que se aproveche solo de una de estas características. Como resultados intermedios, se describen y analizan varios algoritmos de mezcla: un algoritmo para mezclar secuencias ordenadas que es óptimo para cada instancia del problema; el primer algoritmo adaptativo para mezclar eficiencias de Pareto; y un algoritmo adaptativo para mezclar envolturas convexas en el plano. Estos tres algoritmos se basan en un paradigma donde las estructuras se dividen antes de ser mezcladas. Este paradigma es conveniente para extenderlo al contexto donde se responden consultas. Karp et al. (1998) describieron estructuras de datos diferidas como estructuras "perezosas" que procesan la entrada gradualmente a medida que responden consultas sobre los datos, trabajando la menor cantidad posible en el peor caso sobre instancias de tamaño fijo y número de consultas fijo. En esta tesis se desarrollan nuevas técnicas para refinar aún más estos resultados y aprovechar al mismo tiempo el orden y la estructura de la entrada y el orden y la estructura de la secuencia de consultas en tres problemas distintos: calcular el rango y la posici\'on de un elemento en un multiconjunto, determinar si un punto está dominado por la eficiencia de Pareto de un conjunto de puntos en el plano y determinar si un punto pertenece a la envoltura convexa de un conjunto de puntos en el plano. Las estructuras de datos diferidas que se obtienen superan todas las soluciones previas que solo se aprovechan de un subconjunto de estas características. Como una extensión natural a los resultados sinérgicos obtenidos en este trabajo para ordenar un multiconjunto, se describen estructuras de datos comprimidas que se aprovechan del orden y la estructura de la entrada para representar un multiconjunto, mientras se responden consultas del rango y la posición de elementos en el multiconjunto. / CONICYT-PCHA/Doctorado Nacional/2013-63130161, y los proyectos CONICYT Fondecyt/Regular nos 1120054 y 1170366
15

"Análisis del desempeño de MPLS VPN L2 y L3"

Flores Baldes, Jorge Eduardo January 2018 (has links)
Magíster en Ingeniería de Redes de Comunicaciones / La conmutación de etiquetas multiprotocolo (MPLS por sus siglas en inglés, Multiprotocol Label Switching) surge como un mecanismo de convergencia para los protocolos que operan sobre los niveles 2 y 3 del modelo OSI. Su capacidad para proveer y administrar diversos servicios con garantías de calidad de servicio y disponibilidad sobre una infraestructura común, ha hecho que MPLS sea un estándar en las redes de transporte de los proveedores de servicios. La interconexión de data centers y en general de redes LAN y MAN corporativas, se realiza a través de servicios MPLS VPN considerando solamente la topología de la red. En este contexto, resulta útil proporcionar información adicional para seleccionar modelos VPN en función del tipo de tráfico que se desea transportar. En este trabajo se diseña e implementa escenarios experimentales para proporcionar métricas que permiten ese contraste; el resumen de cada capítulo se detalla a continuación. En el primer capítulo se describen tecnologías, métricas de desempeño, herramientas de modelación y herramientas estadísticas. En el segundo capítulo se describen los procesos de diseño, implementación y simulación de los escenarios experimentales. Los escenarios garantizan que el desempeño de los servicios MPLS VPN se ponga a prueba bajo las mismas condiciones. Esas condiciones comprenden nodos de borde y políticas de QoS comunes para los servicios que se contrastan. Además, los escenarios consideran la capacidad de los nodos emulados por Dynamips como restricción y el tráfico que atraviesa una red operativa como condición inicial. Este tráfico se modela con redes neuronales artificiales y para poder generarlo con IPERF, se utiliza BoxCox y Bootstrapping sobre el modelo para obtener estadísticos representativos. Los procesos de implementación y simulación se realizan sobre GNS3; este último comprende la ejecución simultanea y recurrente de IP SLA, kron, IPERF, Wireshark, NTP y TFTP. En el tercer capítulo se presenta el resultado de los test estadísticos aplicados sobre las métricas de estudio. Además, se utilizan herramientas de simulación para estimar los intervalos de confianza de la media y obtener una representación gráfica del desempeño de los servicios MPLS VPN. En el cuarto capítulo se exponen las conclusiones de este trabajo, estas analizan los resultados de los test estadísticos asociados a los objetivos e hipótesis planteadas. Para finalizar se exponen algunas apreciaciones sobre trabajos futuros.
16

Herramienta de apoyo a revisiones sistemáticas de la literatura en el área de la computación

López Luque, Néstor Adrián January 2019 (has links)
Tesis para optar al grado de Magíster en Tecnologías de Información / Las revisiones sistemáticas de la literatura (RSL) son actividades de gran utilidad en entornos de investigación, ya que permiten identificar los principales estudios científicos en una cierta temática, a través de preguntas de investigación específicas. Estas actividades siguen un proceso recomendado, el cual varía un poco según la disciplina sobre la que se realice dicho estudio; por ejemplo, el proceso de RSL para el área de computación es levemente diferente al que se sigue para el área de medicina o de física. Este trabajo de tesis consideró sólo el proceso de RSL para computación, y particularmente para el área de ingeniería de software, para la cual hay una recomendación de proceso definido y ampliamente validado. A pesar de la utilidad que tiene realizar RSL, requiere un gran esfuerzo por parte de los involucrados en realizarla. Este trabajo de tesis abordó esta problemática, tratando de simplificar dicho proceso y hacerlo más abordable para el usuario final (en términos del esfuerzo requerido), sin perder precisión o flexibilidad respecto al proceso recomendado para el área de ingeniería de software. Como resultado de este trabajo de tesis se realizaron modificaciones al proceso de RSL recomendado, se definieron nuevos indicadores para usar en dicho proceso, y también los algoritmos requeridos para calcularlos. Además, se desarrolló una aplicación de software Web para definir y gestionar la mayor parte del proceso de RSL, incluyendo las actividades colaborativas que forman parte de él. El software desarrollado implementa las modificaciones propuestas al proceso, y calcula y utiliza los indicadores definidos. La usabilidad y utilidad de la aplicación desarrollada fue evaluada a través de dos focus groups con investigadores que han realizado RSL. Además, la precisión del software para recuperar estudios relevantes para una RSL fue evaluada en la práctica, y comparada con los resultados reportados en tres procesos de revisión diferentes publicados en la literatura. El resultado de esta comparación fue muy positivo reduciendo el tiempo necesario para desarrollar todo el proceso, así como para encontrar los artículos relevantes, mostrando que la propuesta de modificación del proceso de RSL, así como su implementación a través de la aplicación Web antes mencionada, representan una ayuda real y tangible para los investigadores que se ven enfrentados a realizar esta actividad.
17

Detección de fallas en equipos utilizando modelos en base a Deep Learning

Montagna Puga, Sebastián January 2018 (has links)
Memoria para optar al título de Ingeniero Civil Mecánico / Los equipos mecánicos están sujetos a daño durante la operación, lo que deteriora su estructura y funcionamiento produciendo fallas. La detección preventiva de fallas y el pronóstico de vida remanente son herramientas muy útiles en el ámbito práctico, permitiendo evitar tiempos inesperados de parada del equipo, además de permitir agendar la mantención en un momento propicio según la condición en la que se encuentre el equipo en operación. Se propone implementar un modelo novedoso para el análisis de registros de series temporales en base a Deep Learning, redes neuronales convolucionales causales, que ha presentado muy buenos resultados realizando tareas de generación de secuencias con dependencias de largo alcance [1]. Los objetivos del trabajo propuesto en el presente informe son los siguientes: Objetivo General: Determinar la vida remanente en equipos mecánicos mediante la implementación de un modelo en base a CNNs causales. Objetivos Específicos: Analizar, indexar y clasificar los registros de señales de sensores de los equipos perti- nentes. Generar un modelo en base a redes neuronales convolucionales causales para el pronós- tico y estimación de vida remanente. Verificar y corroborar resultados obtenidos comparando con métodos actuales y parti- cularmente métodos en base a Long Short-Term Memory. Teniendo la base de datos del registro de los equipos, se procede a definir la arquitectura del modelo en base a Deep Learning y a realizar el entrenamiento e implementación del modelo. Luego, se analizan y verifican los resultados. En caso de que los resultados no sean satisfactorios se procede a cambiar los hiper-parámetros de la arquitectura del modelo y se repite el procedimiento. Los resultados obtenidos validan la implementación del modelo propuesto por medio de métodos comparativos entre modelos con y sin los métodos que se busca implementar. Los valores obtenidos para las predicciones de la base de datos en la que se implementa el modelo responden a lo esperado y al comparar con el estado del arte, se puede notar que el modelo realiza buenas predicciones, no ajustándose con tanta precisión, pero obteniendo mejores resultados en las bases de datos con más parámetros de operación debido a la capacidad de aprendizaje más general.
18

Modelo para identificación de modos de falla de máquinas en base a variational Auto-Encoders

San Martín Silva, Gabriel Antonio January 2018 (has links)
Ingeniero Civil Mecánico / Dentro del campo de la ingeniería mecánica, una de las áreas que más crecimiento ha mostrado en los últimos años es la de la gestión de activos físicos y confiabilidad. Junto con la capacidad de construir máquinas y sistemas más complejos, el problema de la detección temprana de fallas en elementos mecánicos se vuelve de suma importancia. Al mismo tiempo, el incremento en la disponibilidad de tecnología sensitoria ha dado a los ingenieros la capacidad de medir una gran cantidad de variables operacionales, como por ejemplo presión, temperatura o emisiones acústicas, a frecuencias de muestreo altísimas. Es ese aspecto, se vuelve un desafío en sí mismo el poder procesar esa cantidad de datos de una manera eficiente, con tal de extrar información útil a partir de ellos. Una metodología para enfrentar este problema es el desarrollo de técnicas de reducción de dimensionalidad, las cuales, si son implementadas de forma correcta, pueden generar una mejor representación de los datos con el fin de mejorar el diagnóstico posterior de los modos de falla presentes. La motivación principal de este trabajo de título es la necesidad de desarrollar modelos confiables para el diagnóstico de modos de falla en elementos mecánicos utilizando técnicas de Aprendizaje de Máquinas. Estos modelos pueden resultar en grandes beneficios para los sectores industriales, tanto en términos de ahorros monetarios como seguridad operacional. El principal objetivo de esta tesis es desarrollar modelos para el diagnóstico de fallas en elementos mecánicos basados en una reducción de dimensionalidad usando un Auto Encoder Variacional (VAE), y luego evaluar y comparar los resultados obtenidos con un modelo similar que usa Análisis de Componentes Principales (PCA) como método de reducción de dimensionalidad y un tercer modelo que no genera una reducción. La metodología usada para este trabajo consiste principalmente de cinco etapas. Primero, una revisión del estado del arte respecto a metodologías existentes para el diagnóstico de fallas es desarrollada. Luego, la adquisición y preprocesamiento de datos operacionales que serán utilizados para entrenar y evaluar los modelos desarrollados. Tercero, el modelo que usa PCA y el modelo que no realiza reducción de dimensionalidad es implementado. Cuarto, el modelo que utiliza VAE es desarrollado e implementado. Por último, el modelo que usa VAE es comparado con los otros dos modelos para extraer conclusiones sobre su aplicabilidad. La principal conclusión de este trabajo es que el modelo que utiliza VAE es mejor en el diagnóstico de modos de falla que el que utiliza PCA para situaciones donde la cantidad de datos etiquetados es escasa, o para los casos cuando una reducción de dimensionalidad muy drástica es requerida. Tambien, el modelo que utiliza VAE casi siempre presenta mejores resultados que el modelo que no genera reducción en los datos, mostrando la importancia de reducir la dimensionalidad de los datos previo a una operación de diagnóstico o clasificación.
19

Diseño de sistema experto para el diagnóstico y análisis de fallas en el SIC

Moreno Ramírez, Lucas Ignacio January 2017 (has links)
Ingeniero Civil Eléctrico / Resulta imposible reducir a cero la cantidad de fallas que ocurren en un sistema eléctrico, lo cual es más difícil aun cuando están involucradas las líneas de transmisión que se encuentran totalmente expuestas y enlazando todos los puntos de un sistema como el Sistema Interconectado Central en Chile. Sabiendo lo anterior y considerando que tampoco se pueden predecir las contingencias en líneas eléctricas, para minimizar su impacto solo queda actuar rápidamente cuando ocurre una falla. Este trabajo muestra un posible camino hacia la automatización en el diagnóstico y análisis de fallas mediante el diseño de un sistema experto. El desafío se aborda tomando en cuenta una serie de etapas y analizando cada una de ellas para una resolución global. El objetivo es mostrar rápidamente la causa de falla probable ante una contingencia. Primero se entiende el problema revisando lo que existe, en este caso se analizan los Estudios de Análisis de Falla del año 2016, informes que detallan cada falla que significó pérdida de consumo en el SIC. Luego, se realizan simulaciones para caracterizar las fallas típicas que podemos encontrar en las líneas de transmisión del sistema eléctrico, la idea es conformar una base de datos con información valiosa en líneas de 220 y 500 [kV], puesto que en el futuro se pretende que la información de las protecciones de las líneas de esos niveles de tensión llegue automáticamente a una plataforma online. El sistema experto se desenvuelve en Excel por simplicidad, y este requiere de datos simples pero precisos para ser procesados por las reglas de inferencia y para determinar qué falla ocurrió junto con la causa y su probabilidad, por tanto, se realiza una etapa de pre procesamiento para pasar del dominio del tiempo al estadístico en los datos obtenidos con las simulaciones. Generar las reglas de detección de fallas implica el mayor esfuerzo porque se necesita conocer el comportamiento de las corrientes, esta etapa es el centro del trabajo, y es totalmente perfectible. Por último, es importante relevar que para encontrar la causa con su probabilidad se realizan resúmenes estadísticos de la historia de las líneas falladas en 220 [kV] y 500 [kV].
20

Estudio de la utilización del potencial de información cruzado en el aprendizaje con ensamble de redes neuronales

Saavedra Doren, Pablo Antonio January 2017 (has links)
Ingeniero Civil Eléctrico / El propósito del presente trabajo es estudiar y proponer un método de aprendizaje para los Ensambles de Redes Neuronales basados en la maximización de la Información Mutua Cuadrática entre las salidas de los modelos que componen el Ensamble. En esencia el método propuesto es una función de costo que incluye un término de regularización basado en Información Mutua que se estima a partir del Potencial de Información Cruzado o CIP (Cross Information Potential), además el término de regularización busca favorecer la diversidad entre los modelos del Ensamble. Al método propuesto se le identifica en este trabajo como CIPL (Cross Information Potential Learning). La hipótesis de trabajo es que la utilización de herramientas de Teoría de la Información en la definición de la función de costo de CIPL pueden ayudar a mejorar la precisión y la diversidad del Ensamble comparado con el método basado en correlación negativa propuesto por el método NCL (Negative Correlation Learning) además de ayudar a favorecer más aun la diversidad. La metodología de trabajo incluye primeramente la implementación de una librería desarrollada en el lenguaje de programación Python para poder entrenar modelos de redes neuronales en forma paralela con el fin de poder probar el método de entrenamiento NCL y CIPL. Para evaluar el método de entrenamiento CIPL se realizan pruebas sobre problemas de regresión y clasificación típicos, parte de estas pruebas intentan determinar su comportamiento bajo condiciones de ruido y valores atípicos. Para el caso de CIPL se agregan pruebas sobre los diferentes hiperparámetros que tiene. Los resultados obtenidos muestran que CIPL tiene un desempeño similar que NCL en problemas de clasificación, no así en regresión donde NCL es mucho mejor. En cuanto a los hiperparámetros de CIPL se destaca que la sinergia y la redundancia influyen directamente en la diversidad del Ensamble, incluso permiten obtener mejores niveles de diversidad que NCL. La implementación de CIPL tiene problemas con los tiempos de entrenamiento que aumentan de forma exponencial con la cantidad de muestras y de modelos del Ensamble, por lo que requiere una optimización del código. Por otro lado, aunque la diversidad en el caso de CIPL mejora los resultados, no es posible cuantificar este efecto, por tanto se deja propuesto para trabajos futuros. Además, falta resolver problemas que tiene la implementación de CIPL cuando se trabaja con más de 2 clases.

Page generated in 0.088 seconds