• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 7
  • Tagged with
  • 7
  • 7
  • 7
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Utilización de modelos empíricos y filtros de partículas sensibles al riesgo para detección temprana de anomalías

Ossa Gómez, Gabriel Felipe January 2013 (has links)
Ingeniero Civil Electricista / El presente trabajo de memoria postula como objetivo el estudio del desempeño de filtros de partículas en el área del pronóstico y diagnóstico de fallas, modelando sistemas dinámicos no-lineales por medio de formas paramétricas. También se desarrollan diferentes estrategias de filtrado, las cuales evalúan la validez del estado estimado an base a la información pasada de la operación. Todas las estrategias se evalúan analizando el efecto de la variabilidad de los parámetros del modelo sobre el rendimiento en estimación, predicción y detección de anomalías Los filtros de partículas corresponden a técnicas basadas en representaciones empíricas de la dis- tribución de probabilidad del estado en modelos Bayesianos. En el contexto de un modelo dinámico, tales técnicas sirven para estimar los estados y parámetros variantes en el tiempo de dicho modelo. El uso de curvas de ajuste parámetricas permite expandir el uso previamente mencionado a modelos que además de incluir las componentes mencionadas poseen parámetros fijos en su definición. El rendimiento de los métodos estudiados fue evaluado mediante el uso de datos empíricos pro- venientes de pruebas experimentales. En particular, los datos usados corresponden a una estimación directa del crecimiento de una fractura axial en una placa del engranaje planetario de un helicóptero. Para abordar el problema, se determinó usar la función arcotangente hiperbólica como curva de ajuste, con el fin de modelar la propagación de la fractura del componente mecánico en el tiempo. Además, se establecieron mecanismos novedosos basados en la generación de proyecciones de trayectorias en el pasado de la curva de ajuste a partir del vector de estados del modelo para un instante determinado, mediante la cual se evalúa el verosimilitud histórica de la estimación proporcionada por el algoritmo haciendo uso de la distribución chi-cuadrado y su distribución acumulada complementaria. De esta forma, se analizó el desempeño de cinco filtros: uno que sólo incluye la curva de ajuste en su operación, y otros cuatro que generan proyecciones de trayectorias en el pasado, para distintas ventanas de tiempo histórico y distribuciones de evaluación. El análisis de los filtros entregó resultados regulares. El filtro sin proyección pasada tuvo un mejor desempeño a la hora de filtrar, y la predicción ofrecida por el mismo se mantuvo estable. Por otra parte, los filtros basados en el uso de proyecciones de trayectorias en el pasado y que evaluaban con la distribución chi-cuadrado presentaron signos de degeneración muestral para variabilidades muy altas en los parámatros de la curva de ajuste, pero ofrecieron capacidades de detección importantes. Por último se observó un alto nivel de degeneración muestral en los filtros que hacían uso de las proyecciones en el pasado pero que evaluaban con la distribución acumulada complementaria de la distribución chi-cuadrado, bajo todas las condiciones experimentales estudiados. Se concluye a partir del trabajo realizado que la variabilidad de los ruidos involucrados al usar formas paramétricas en el modelo de sistema influye fuertemente en los desempeños de los filtros, y que, en términos de desempeño, el filtro de partículas sólo con curva de ajuste tiene mejor desempeño que aquellos que hacen uso de proyecciones de trayectorias en el pasado.
2

Diseño e implementación de un sistema supervisor con modelos basados en similitud para la detección y aislamiento de fallas en turbina a gas natural

Fuentealba Toro, Sebastián Felipe January 2012 (has links)
Ingeniero Civil Electricista / Debido al constante aumento en los estándares de producción y calidad, así como las exigencias impuestas por estrictas normativas ambientales y de seguridad, existe en la industria moderna la necesidad de incrementar la eficiencia y complejidad de los sistemas de control asociados. Sin embargo, existen perturbaciones que no pueden ser eficazmente manejadas por los controladores a menos que exista una adecuada caracterización del modo de operación. He ahí la necesidad de incorporar sistemas de monitoreo para detección y aislamiento de anomalías que pudiesen condicionar el funcionamiento del proceso. En este sentido, el objetivo general de este trabajo es diseñar e implementar un sistema supervisor en línea con modelos basados en similitud (SBM) que permita la detección y el aislamiento de anomalías en procesos industriales multivariados y en particular, en el caso de una turbina a gas natural. El diseño del sistema supervisor incluye una etapa preliminar fuera de línea y de tres etapas que operan en tiempo real. La etapa preliminar corresponde al análisis del proceso en estudio y de los modos de falla de interés, así como la generación de los modelos SBM que serán utilizados en la etapa de implementación en línea. A través de esta metodología de estudio de eventos se determinan las variables más relevantes en cada anomalía con el fin de optimizar el procedimiento de generación de modelos. Las etapas asociadas a la implementación en línea se han denominado fases . Fase I genera una señal de alarma si la salida estimada por un modelo clasificador SBM, diseñado en la etapa preliminar, supera un umbral determinado en la etapa preliminar. Si se produce una alarma, entonces se ejecuta la Fase II que determina el vector de residuos entre las salidas medidas y las salidas estimadas por el modelo SBM, para cada posible anomalía en gestación. Fase III calcula el indicador de Hotelling de cada vector de residuos. Se genera una alarma de anomalía si este indicador supera un umbral determinado en la etapa preliminar. Este sistema es aplicado en una turbina a gas natural para el estudio de dos anomalías que ocasionan una disminución significativa en la potencia: (i) temperatura de un álabe fuera de rango (Anomalía #1) y, (ii) suciedad excesiva en el compresor (Anomalía #2). Los porcentajes de detección de las Anomalías #1 y #2 son 96% y 76%, respectivamente. Estos porcentajes se estiman en función del número de datos. Debido al tamaño de los conjuntos de datos disponibles, es imposible en esta aplicación utilizar probabilidades para caracterizar al sistema supervisor. Las principales ventajas de disponer de este sistema supervisor son: (1) con una metodología de estudio de eventos, se obtienen aquellas variables que son más relevantes en cada anomalía, (2) con la Fase I se logran descartar del análisis aquellas observaciones que representan un modo normal de operación y (3) a través de señales binarias Normal o Alarma se logra centralizar la información que entregan todos los modelos.
3

Localización de fallas en líneas de alta tensión con compensación serie

Montoya Soto, Esteban Andrés January 2016 (has links)
Ingeniero Civil Eléctrico / En el marco de una creciente demanda eléctrica global, es inminente la búsqueda de soluciones tecnológicas eficientes para reducir costos y mantener una operación del sistema eléctrico segura y confiable, y de esta forma, satisfacer este aumento de requerimiento energético. Ante esto, el uso de equipos de compensación serie en líneas de transmisión, es una medida óptima, la cual incrementa la capacidad de transferencia de potencia por las líneas a un costo mínimo en comparación con la construcción de nuevas líneas. Pero esta instalación, conlleva ciertos fenómenos transitorios como el alto contenido de frecuencia subsincrónica y elevado contenido de componente de decaimiento DC, afectando directamente a la localización de fallas. Sabida es la importancia de la ubicación de fallas en líneas de transmisión, ya que para fallas con tiempos de retardo mayores en su despeje, disminuye el tiempo de restauración del suministro eléctrico. Adicionalmente, tal como lo establece la ley, para toda falla se deben determinar sus causas, por lo que la localización de fallas aporta en reducir el rango de búsqueda de las brigadas de operación, ahorrando tiempo y recursos. Por lo tanto, este trabajo se enfocará en atenuar la influencia de estos problemas, y así, obtener la localización de falla con un mínimo error. Expuesto lo anterior, la presente memoria se centra en la localización de fallas en líneas de alta tensión con compensación serie, empleando información de las líneas de 500 [kV] de Transelec, las cuales comprenden gran parte del sistema de transmisión troncal chileno debido a sus grandes longitudes (incluso mayores a 200 kilómetros). Primero, se desarrolla un algoritmo que determine la ubicación de falla, que aplicado a ciertos parámetros variables, como la frecuencia de corte de los filtros y el método de resolución, entregará la localización con menor error. Aun así, la búsqueda de un error mínimo, lleva a realizar un problema de optimización estadístico que minimice la distancia a la ubicación real de las fallas. Luego, este algoritmo resolutivo es validado mediante el procesamiento de fallas simuladas en Digsilent, donde los escenarios de simulaciones dinámicas corresponden al tipo de falla y la ubicación de la falla con respecto a la compensación serie, con tal de abarcar la totalidad del largo de la línea. En general, los resultados obtenidos demuestran bajos errores promedio en la ubicación de fallas. Para fallas reales, se obtiene un 8.98% de error promedio para el algoritmo sin optimización, pero una vez minimizado el error, este desciende a 3.74%. En cuanto a las fallas simuladas en Digsilent, los errores corresponden a 8.01% y 3.95% respectivamente, lo que verifica los resultados alcanzados y permite ampliar la estadística para la corrección del error de la localización.
4

Aplicación de Métodos Secuenciales de Monte Carlo Sensibles al Riesgo en la Estimación de Vida Útil de Componentes

Neira Bravo, Daniel Alexis January 2011 (has links)
El presente trabajo de memoria se propone como objetivo principal el de analizar el desempeño de los filtros de partículas clásico y sensible al riesgo en el estudio de la vida útil de componentes mecánicos que se encuentren en falla. Los filtros de partículas, también conocidos como métodos secuenciales de Monte Carlo, corresponden a técnicas de estimación y pronóstico que se sustentan en un marco teórico de trabajo capaz de tratar con problemas en tiempo real, no lineales y con ruidos de proceso y observación no necesariamente Gaussianos. El desempeño de estos métodos de estimación y predicción será estudiado y validado mediante la utilización de datos de laboratorio, provenientes de pruebas realizadas a componentes reales de un helicóptero en falla. En particular, se utilizarán los datos originados a partir del crecimiento de una fractura en una placa de engranaje planetario, pieza que se encuentra presente en el rotor principal de la nave. La prueba de laboratorio, realizada por terceros, consistió en fracturar artificialmente una placa de engranaje planetario para luego someterla a una carga variable, carga que en un instante de la prueba sufre un cambio. A partir del perfil de vibraciones originado se hizo una estimación ruidosa del crecimiento de la fractura, característica que finalmente es la que se utiliza en este trabajo. Lo que se espera a partir del estudio de esta señal es evaluar cómo se desempeña el filtro de partículas sensible al riesgo, en comparación con el clásico, en vista del cambio introducido durante el registro de los datos y cómo ello influye en la estimación de la vida útil de la pieza mecánica. Para implementar los algoritmos de los filtros se hacen diversas consideraciones de cara a disminuir la complejidad del código, proveer una aproximación más simple al problema y reducir la carga computacional asociada con su ejecución. La suposición más importante que se realiza da origen a que durante el proceso de pronóstico los pesos de las partículas se mantengan constantes. En particular, la implementación de la etapa de predicción para el caso del filtro de partículas sensible al riesgo considera dos casos excluyentes. En el primero, las componentes del ruido de proceso y distribuyen como Gaussianas de media cero y se calcula el valor esperado de los estados. En el segundo caso, ~ y , sin cálculo del valor esperado de los estados. Las estimaciones de vida útil obtenidas a partir de los filtros de partículas implementados no fueron satisfactorias. Al no existir una actualización de pesos en la etapa de pronóstico, no fue posible corregir el error que se estaba cometiendo en la estimación. Así, la alerta de falla se activa con demasiada anticipación, subestimando el tiempo real de vida útil remanente del sistema. En conformidad con lo anterior se propone como trabajo futuro la implementación de una técnica encargada de actualizar los pesos de las partículas durante la etapa de pronóstico, así como de una estrategia que sea capaz de evaluar en línea la calidad de las predicciones a largo plazo. Se concluye a partir del trabajo realizado que para el caso de los filtros de partículas sensibles al riesgo implementados, en cuanto a estimación de vida útil y desempeño computacional, no ofrecen ventajas comparativas claras frente al filtro de partículas clásico.
5

Detección de Anomalías en Procesos Industriales Usando Modelos Basados en Similitud

León Olivares, Alejandro Samir January 2012 (has links)
La detección de anomalías en procesos industriales es un tema de alto impacto que ha sido analizado y estudiado en diversas áreas de la ingeniería e investigación. La mayor parte de los métodos de detección actualmente disponibles posibilitan el estudio de las irregularidades encontradas en el historial de un proceso, ayudando a extraer información significativa (y a veces crítica) en una amplia variedad de aplicaciones, y convirtiéndose de este modo en parta fundamental e integral de esquemas de reducción de costos tanto humanos como económicos en la industria contemporánea. El objetivo general de este trabajo es desarrollar e implementar un enfoque modular de detección de anomalías, aplicable a procesos industriales multivariados y fundado en el análisis de residuos generados a partir de modelos no paramétricos basados en similitud (similarity-based modeling, SBM). La herramienta consiste principalmente de un sistema de generación automática de modelos SBM, una metodología de estudio de eventos y un algoritmo estadístico de detección. El trabajo realizado se enmarca en un proyecto de colaboración conjunta entre las empresas CONTAC, INGENIEROS LTDA. y ENDESA-CHILE. Gracias a esto, ha sido posible evaluar el sistema propuesto utilizando datos de operación correspondientes a una central termoeléctrica de ciclo combinado perteneciente a la segunda empresa ya mencionada. Las comparaciones en cuanto al desempeño del sistema de modelación implementado permiten concluir que el algoritmo es capaz de generar una representación más apropiada del proceso, basado en el error obtenido con la técnica de modelación SBM, la cual es cercana al 25% del error obtenido con la técnica de modelación lineal en los parámetros. Además, la metodología de estudio de eventos permite detectar correctamente las variables que no aportan al objetivo de detección de un evento en particular, así como también identifica las variables más significativas para lograr tal propósito, reduciendo el número de variables analizadas y con esto, los requerimientos de cómputo de operación en línea. La validación de los resultados entregados por el método de detección de anomalías desarrollado, permite aseverar que la utilización de modelos no-paramétricos tipo SBM, en combinación con la metodología de estudio de eventos y el algoritmo estadístico de detección, resultan eficaces a la hora de generar alarmas y detectar las anomalías estudiadas.
6

Manejo de incertidumbre ante pérdida parcial o total de datos en algoritmos basados en métodos secuenciales de Monte Carlo y nueva definición de probabilidad de falla en el contexto de monitoreo en línea

Acuña Ureta, David Esteban January 2016 (has links)
Ingeniero Civil Eléctrico / Desde hace algunos años que la disciplina especializada en el diagnóstico de fallas en sistemas y el pronóstico de eventos que pudieran afectar la salud de éstos, denominada Prognostics and Health Management (PHM), ha ido tomando cada vez más fuerza y ha empezado a consolidarse como una nueva área de la ingeniería. Esta disciplina tiene como eje principal la caracterización del estado de salud de los sistemas dinámicos, ya sea a través de enfoques probabilísticos, posibilísticos, o epistémicos, por nombrar algunos; siendo el enfoque probabilístico el adoptado en la presente Tesis. Dado que la mayoría de los sistemas se conciben mediante complejas relaciones que suelen establecerse en base a no linealidades e incertidumbre no necesariamente Gaussiana, el empleo de métodos secuenciales de Monte Carlo -también llamados filtros de partículas- ha tomado gran relevancia para el diagnóstico de la salud de los sistemas. Los filtros de partículas proveen una distribución empírica de probabilidad para los estados del sistema siguiendo un enfoque Bayesiano. Es muy frecuente que en rutinas de estimación, y en especial al usar filtro de partículas, algunas de las mediciones que debiesen proporcionar los sensores se pierdan de manera parcial o total. En el caso de una pérdida parcial, se propone una estrategia basada en la Teoría de Imputaciones Múltiples desarrollada en los años 60' que permite incorporar la incertidumbre que hay al perder solo parte de la información. Por otra parte, cuando se pierde acceso a la totalidad de las mediciones se puede hablar de un problema análogo al de pronóstico. Se propone un algoritmo que recibe como entrada una distribución empírica producto del final de una etapa de estimación basada en filtro de partículas, en la cual se propaga incertidumbre haciendo uso de sigma-points y del ajuste paramétrico de mezclas de Gaussianas para la aproximación de distribuciones de probabilidad. Además de los algoritmos anteriormente mencionados, en esta Tesis se presenta la deducción y demostración de una nueva medida de probabilidad de falla de sistemas en el contexto de monitoreo en línea, la cual modifica el estado-del-arte y abre nuevas ramas de investigación que pueden influir fuertemente en el desarrollo de nuevos sistemas de toma de decisiones. Los desarrollos presentados en esta Tesis abordan principalmente el caso del problema de estimación y pronóstico del Estado-de-Carga de baterías de ion-litio para el análisis y validación de los algoritmos que se proponen dada su relevancia en la autonomía de los dispositivos electrónicos que requieren procesamiento de información en tiempo real; tales como tablets, celulares, vehículos o micro-redes, por nombrar algunos ejemplos.
7

Detección de anomalías en molino de bolas usando modelos no-paramétricos

López Salazar, Alejandro Hernán January 2013 (has links)
Ingeniero Civil Electricista / La industria de la minería se ha visto expuesta a un mercado cada vez más exigente, factor que ha hecho necesario establecer estrategias claras de mejoramiento de sus políticas de producción con el fin de satisfacer los desafíos que se le presentan. Es por ello que una de las áreas que ha debido reforzar es la del mantenimiento, donde juegan un rol importante los sistemas que se puedan implementar para optimizar tareas tales como la detección y/o predicción de fallas/anomalías, dentro de estrategias de mantenimiento predictivo. Es en este punto donde se centra el aporte de la presente Memoria de Título, ya que su objetivo principal es el de desarrollar una herramienta para poder llevar a cabo la tarea de detección de anomalías para el caso de los molinos de bolas, los que forman parte importante en el proceso de molienda del material particulado. En este estudio se aborda el caso de un molino de bolas con potencia y velocidades nominales de 12 MW y 100 rpm respectivamente, siendo una de sus principales características su accionamiento (gearless) que opera como un motor síncrono de gran escala. Ello tiene algunas desventajas, como el presentar fallas que otros molinos no tienen; considérese por ejemplo un mayor riesgo de que sus polos magnéticos resulten quemados. Precisamente este modo de falla motiva el trabajo desarrollado en esta Memoria de Título, que se centra en la detección de la mencionada anomalía a través de la generación de modelos del proceso y análisis de residuos. Para la generación de residuos se utilizaron Modelos Basados en Similitud (SBM de sus siglas en inglés). Fue implementado un procedimiento para llevar a cabo esta tarea utilizando herramientas estadísticas multivariables, como es el caso del análisis en componentes principales (PCA por sus siglas en inglés) obteniéndose errores relativos (en sus estimaciones) con respecto al conjunto de datos medidos del 0,88% en promedio, lo que resulta menor en comparación con un modelo de regresión lineal, que tuvo un 3,69% mayor error relativo medio. En cuanto al método de detección de anomalías, se hizo uso de un sistema basado en histogramas del error, que compara el vector residual obtenido de un conjunto de datos etiquetado como normal con posibles anomalías. Utiliza como pilar el estudio de funciones de distribución (Chi-Cuadrado), para una significancia del 95%, obteniendo una efectividad del 100%, puesto que cada uno de los datos etiquetados como anómalos fueron detectados. El presente documento pretende ser una base para estudios futuros, asociados a la búsqueda de anomalías en otras maquinarias y análisis de otros modos de fallas.

Page generated in 0.1162 seconds