• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 110
  • 7
  • 2
  • Tagged with
  • 120
  • 47
  • 35
  • 32
  • 29
  • 29
  • 29
  • 29
  • 29
  • 27
  • 17
  • 16
  • 15
  • 14
  • 13
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Análisis de integridad estructural (IE) de estanques verticales empleando el procedimiento API 579 (fitness for service, FFS)

Falconi Retamales, Álvaro Enrique January 2018 (has links)
Ingeniero Civil Mecánico / En Chile existe un gran inventario de estanques verticales de acero que se utilizan para el almacenamiento temporal o prolongado de líquidos, principalmente agua y combustibles. Como cualquier otro equipo o estructura los estanques envejecen y presentan defectos que influyen en su comportamiento mecánico estructural. Con tal de evitar que los defectos induzcan fallas estructurales se debe asegurar la integridad estructural (IE) del equipo. Esto se realiza a través del análisis de aptitud para el servicio o fitness-for-service (FFS), el cual se define como un análisis cuantitativo y estandarizado para determinar si un equipo es confiable y seguro para operar bajo condiciones específicas en un periodo de tiempo determinado. El objetivo general de este trabajo es desarrollar un procedimiento de análisis de IE de estanques verticales mediante análisis con elementos finitos (AEF), mientras que los objetivos específicos son: i) estudiar la tipología y defectología de estanques verticales de uso habitual en Chile, ii) preparar y adaptar una rutina para el análisis de integridad estructural (AIE) basada en el API 579, iii) analizar casos representativos aplicando la rutina para AIE, y iv) categorizar los resultados según la IE de los estanques verticales analizados. Para lograr los objetivos se realiza un AEF de un estanque vertical de acero de 11,5 𝑚���� de diámetro y 11,2 𝑚���� de altura que presenta cuatro defectos geométricos inducidos por la fabricación. Luego se analiza la estructura as-built, pero se incorporan defectos planos arbitrarios con diferentes dimensiones en cada análisis. Los parámetros utilizados para controlar la geometría y dimensión de los defectos son el radio hidráulico y la profundidad. De esta manera se relaciona la respuesta estructural de los modelos con los parámetros del defecto. En base a los análisis y estudios desarrollados se concluye que el análisis AEF permite una revisión muy detallada de los mecanismos de falla susceptibles de activarse, por lo que en general esta mirada es acertada para la revisión de estanques en uso que no están depreciados. La modelación de un estanque imperfecto conviene realizarla de forma directa al interpolar puntos de control con splines. Se reconoce que los defectos, destacando los altos y pequeños de gran profundidad, inducen esfuerzos secundarios que promueven plasticidad local, la cual no necesariamente induce inestabilidad o colapso de la estructura. Finalmente, las cargas que desarrollan mayor peligro de colapso son, para defectos en los anillos superiores del estanque, viento y presión interna; y, para los anillos inferiores, la presión interna y las cargas sísmicas.
22

Troubleshooting para tecnologías de acceso tradicionales

Rojas Prado, Daniel Andrés January 2006 (has links)
No description available.
23

Estudio de la morfología de las superficies de falla de materiales poliméricos

Ulloa Lamas, Mónica del Carmen January 2007 (has links)
No description available.
24

Localización óptima de sensores para diagnóstico de fallas en procesos industriales

Rodriguez Aguilar, Leandro Pedro Faustino 17 March 2015 (has links)
En una planta química ocurren situaciones anormales cuando el proceso se desvía del régimen normal de manera significativa durante su operación. La Detección (D) temprana y el diagnóstico de fallas, mientras la planta se encuentra todavía operando en una región controlable, ayuda a evitar que la situación anormal progrese y reduce el impacto de la posible ocurrencia de accidentes industriales mayores y menores. Todos los enfoques propuestos para resolver el problema de D y Aislamiento de Fallas (AFs), de alguna manera, comparan el comportamiento observado del proceso con un modelo de referencia. Dicho comportamiento se infiere en función de las mediciones proporcionadas por los sensores instalados en el proceso. Si bien, el desempeño de la estrategia de monitoreo depende fuertemente de la selección de las variables observadas, se ha puesto mucho énfasis en el desarrollo de metodologías de diagnóstico dado un conjunto predefinido de sensores, y se ha prestado escasa atención al Diseño de Redes de Sensores (DRS) que permitan una eficiente D y AFs. Por tal motivo, el objetivo de esta tesis es abordar el desarrollo e implementación de nuevas metodologías para DRS con propósitos de Diagnóstico de Fallas. En primer término se presenta una estrategia de diseño, formulada como un problema de optimización, que permite obtener una Red de Sensores (RS) que satisface la Observabilidad (O) y la Resolución (R) de todas las fallas del proceso, con el menor costo, si todos los sensores funcionan correctamente, y además verifica la O y R de un conjunto de fallas claves, si algunos instrumentos, afectados por la ocurrencia de dichas fallas, no están disponibles. Para ello se define el Grado de Resolución de una falla clave y se lo incorpora utilizando desigualdades lineales. El diseño se resuelve empleando códigos de Programación Mezcla Entera Lineal. A continuación se aborda el problema de DRS utilizadas para monitorear procesos con la técnica Análisis de Componentes Principales (PCA), uno de los métodos de Control Estadístico Multivariable más usados en la industria. En relación con la capacidad de la RS para detectar todas las fallas, se propone un nuevo enfoque para evaluar las restricciones de D, basado en el cálculo de los estadísticos de Hotelling y el Error Cuadrático de Predicción, y se formulan diseños robustos. A fin que el sistema de control sea capaz de diagnosticar la causa de una falla detectada usando PCA, primero es necesario que todas las mediciones afectadas por su ocurrencia sean identificadas como variables sospechosas. Esta condición se verifica examinando las restricciones de Identificación de Variables Sospechosas (IVS), que se formulan en términos de las contribuciones de las variables a los estadísticos empleados por el método PCA. Las restricciones de AFs se definen en función de los vectores de identificación de las fallas, los cuales deben ser diferentes para que éstas sean distinguibles. Se proponen nuevas formulaciones para el DRS que satisfacen restricciones de O y R (lineales), y condiciones de D, IVS y AFs (no lineales). Dado que la R es una condición necesaria para el AFs, inicialmente se obtiene la RS de mínimo costo que verifica las restricciones lineales de O y R. La cantidad de sensores que forman parte de la solución de este problema da el nivel inicial a partir del cual se inicia la búsqueda transversal, utilizada para resolver el diseño que cumple con todas las restricciones. Durante la ejecución de la búsqueda transversal, para cada nodo se evalúan primero las restricciones lineales, ya que consumen un tiempo de cómputo significativamente menor que las no lineales. Se han obtenidos muy buenos resultados al aplicar las nuevas estrategias para el DRS del conocido proceso Tennesse Eastman.
25

Localización de fallas en líneas de alta tensión con compensación serie

Montoya Soto, Esteban Andrés January 2016 (has links)
Ingeniero Civil Eléctrico / En el marco de una creciente demanda eléctrica global, es inminente la búsqueda de soluciones tecnológicas eficientes para reducir costos y mantener una operación del sistema eléctrico segura y confiable, y de esta forma, satisfacer este aumento de requerimiento energético. Ante esto, el uso de equipos de compensación serie en líneas de transmisión, es una medida óptima, la cual incrementa la capacidad de transferencia de potencia por las líneas a un costo mínimo en comparación con la construcción de nuevas líneas. Pero esta instalación, conlleva ciertos fenómenos transitorios como el alto contenido de frecuencia subsincrónica y elevado contenido de componente de decaimiento DC, afectando directamente a la localización de fallas. Sabida es la importancia de la ubicación de fallas en líneas de transmisión, ya que para fallas con tiempos de retardo mayores en su despeje, disminuye el tiempo de restauración del suministro eléctrico. Adicionalmente, tal como lo establece la ley, para toda falla se deben determinar sus causas, por lo que la localización de fallas aporta en reducir el rango de búsqueda de las brigadas de operación, ahorrando tiempo y recursos. Por lo tanto, este trabajo se enfocará en atenuar la influencia de estos problemas, y así, obtener la localización de falla con un mínimo error. Expuesto lo anterior, la presente memoria se centra en la localización de fallas en líneas de alta tensión con compensación serie, empleando información de las líneas de 500 [kV] de Transelec, las cuales comprenden gran parte del sistema de transmisión troncal chileno debido a sus grandes longitudes (incluso mayores a 200 kilómetros). Primero, se desarrolla un algoritmo que determine la ubicación de falla, que aplicado a ciertos parámetros variables, como la frecuencia de corte de los filtros y el método de resolución, entregará la localización con menor error. Aun así, la búsqueda de un error mínimo, lleva a realizar un problema de optimización estadístico que minimice la distancia a la ubicación real de las fallas. Luego, este algoritmo resolutivo es validado mediante el procesamiento de fallas simuladas en Digsilent, donde los escenarios de simulaciones dinámicas corresponden al tipo de falla y la ubicación de la falla con respecto a la compensación serie, con tal de abarcar la totalidad del largo de la línea. En general, los resultados obtenidos demuestran bajos errores promedio en la ubicación de fallas. Para fallas reales, se obtiene un 8.98% de error promedio para el algoritmo sin optimización, pero una vez minimizado el error, este desciende a 3.74%. En cuanto a las fallas simuladas en Digsilent, los errores corresponden a 8.01% y 3.95% respectivamente, lo que verifica los resultados alcanzados y permite ampliar la estadística para la corrección del error de la localización.
26

Tectónica activa del margen costero en la laguna sísmica del norte de Chile

Valenzuela Soto, María Víctoria January 2015 (has links)
Geóloga / Este trabajo consiste en el estudio de la tectónica activa en el margen costero de la localidad de Pisagua, en el norte de Chile. Este sector corresponde a la parte central de la brecha sísmica del norte del país. A través de este estudio, se intenta develar de la naturaleza de la deformación activa en el bloque costero y su interrelación con la mecánica de acoplamiento de placas. Para esto se realizaron análisis morfotectónicos, en torno a características como pedimentos, drenajes y escarpes, así como también se utilizaron datos de sismicidad y modelos tomográficos de velocidades de onda, que se correlacionaron con los análisis anteriores. Además, se realizó una estimación de la capacidad sísmica de las fallas estudiadas. Se definieron y agruparon 4 pedimentos separados por los frentes topográficos principales (sierras), quebradas mayores y las estructuras presentes, evidenciando así la zona de estudio una morfología escalonada con un rejuvenecimiento de la superficie hacia el margen Oeste, a través de los escarpes mayores. Los escarpes principales fueron interpretados como fallas, y atribuidas a un sistema de fallas mayor, el cual es asociado a una estructura de orden orogénico responsable del Sistema de Fallas Acantilado, que comprende fallas normales con descenso de los bloques oeste, y sería el factor de primer orden responsable de la génesis del Acantilado Costero en el norte de Chile, teniendo a la vez como consecuencia el alzamiento del bloque costero. También, a partir de la información de sismicidad y modelos tomográficos proporcionados por el proyecto FONDECYT 1130071 es posible relacionar los patrones alineados de la sismicidad cortical a las fallas principales en la zona de estudio; así como también a partir de la tomografía sísmica 3D. Se definieron relaciones temporales entre las distintas estructuras, definiendo que las fallas Tiliviche y Pisagua presentan actividades más recientes, mientras que la falla Junín se encuentra inactiva, con un escarpe con bastante retroceso e incisiones de drenajes inactivas. Las fallas en la zona de estudio muestran antecedentes de actividad neotectónica de largo plazo, deformando superficies y depósitos de edad neógena. Se obtuvo a la vez, velocidades mínimas de deslizamiento, estimadas sobre la base de indicadores estratigráficos y cronológicos indirectos, mostrando valores que varían entre 0,18 0.03 mm/año. Así, la edad de la deformación fue acotada a partir de datos de los pedimentos desplazados, las incisiones mayores, el alzamiento del margen costero, y dataciones directas del escarpe Pisagua, obteniendo una edad para la deformación en la zona de estudio entre el Mioceno superior- Pleistoceno. De acuerdo a las edades de los pedimentos (siendo más jóvenes hacia el Oeste) y la edad de la deformación, se propuso la evolución tectónica de la zona, asociando las fallas NS al rejuvenecimiento de los pedimentos, mientras que las fallas E-O corresponderían a un gradiente de acomodo paralelo a la fosa. Finalmente se determinó la capacidad sísmica de las fallas, pudiendo estas generar terremotos superficiales, con epicentros someros <20-15 km, y magnitudes cercanas a Mw=7.
27

Detección e identificación de fallas en sistemas lineales y no lineales estocásticos por medio del diseño de un vector de características basado en la varianza de la transformada Wavelet continua

Ceballos Benavides, Gustavo Eduardo January 2018 (has links)
Magíster en Ciencias de la Ingeniería, Mención Eléctrica / El presente trabajo de investigación presenta una manera novedosa de detectar fallas de un proceso, usando la Transformada Wavelet Continua (TWC) sin necesidad de contar con un modelo explícito de la planta. El método desarrollado en esta Tesis, es más robusto en la detección de variaciones pequeñas en las señales de prueba producidas por alguna condición de falla, en comparación a otros métodos que utilizan la Transformada Wavelet para la extracción características de una señal. Se analizan dos tipos de fallas para una planta simple de primer orden con buenos resultados, a saber; falla por variación paramétrica y falla de sensor. La falla de sensor es más simple de identificar debido a que, por lo general, esta se manifiesta como un cambio brusco de referencia, y bastaría con tener conocimiento del valor medio de la señal para saber si ha ocurrido una falla de este tipo. La falla debido a variaciones paramétricas de un modelo, es más difícil de detectar y diagnosticar. También, el método de detección e identificación de fallas (DIF) presentado en esta Tesis fue aplicado a una planta de segundo orden con dos tipos de fallas debido a variaciones paramétricas así como también, se aplicó a un modelo de molienda y flotación (sistema MIMO), el cual presenta comportamientos no lineales, entregando buenos resultados. Sin embargo, cabe mencionar que una limitación importante del método propuesto, es que las señales de salida del sistema, deben cumplir a lo menos, la condición de ser estacionarias en sentido amplio, de lo contrario, no se garantiza que los vectores de características patrón o plantillas, pueda ser representativos de cada condición de operación. El método desarrollado en esta Tesis, para llevar a cabo el proceso de detección de una falla en una planta, consiste en la generación de un vector de características patrón, usando la promediación en el desplazamiento (o tiempo) de las varianzas de las TWC de varias realizaciones de las diversas señales de salida, para cada condición de operación de la planta o sistema, para luego compararlas con las varianza de la TWC de las señales de prueba que entrega el sistema y de esta manera, decidir bajo qué condiciones de operación está funcionando la planta. Esta decisión, se puede basar en cualquier método de comparación o clasificación existente tales como análisis discriminante lineal de Fisher (LDA), vecinos más cercanos (k-NN) o máquinas de soporte vectorial (SVM) por nombrar algunos. Finalmente, el método de comparación o clasificación que se decida utilizar, queda a criterio del usuario.
28

Desarrollo de un sistema de diagnóstico de fallas basado en relaciones de redundancia analítica para el circuito de molienda de un proceso minero

Pacheco Mendoza, Jean Carlo 30 May 2016 (has links)
Todos los procesos en la industria son susceptibles a fallas, debido a varios factores como, tiempo de vida de cada elemento del proceso, mala fabricación, etc. Estas fallas afectan el buen funcionamiento del sistema, produciendo ineficiencia en su desempeño, pérdidas económicas y en el peor de los casos desastres ambientales y humanos. La detección oportuna de la presencia de fallas evita paradas no planeadas, ayuda a tomar acciones correctivas y de mantenimiento y, como consecuencia de ello, reduce el daño potencial que estas ocasionan. El diseño de sistemas de diagnóstico es, por lo tanto, un paso importante y necesario en el proceso de desarrollo de estos sistemas para una infinidad de aplicaciones industriales. Los circuitos de molienda de procesos mineros (CMPM), tienen la función principal de reducir el tamaño de las partículas que vienen de la etapa de chancado, los CMPM dependen del buen funcionamiento de todos los sensores y actuadores para mantener el sistema estable y operando en condiciones óptimas. Esta tesis presenta el diseñó de un sistema de diagnóstico de fallas (SDF) basado en modelos que sigue la metodología Fault Detection and Isolation (FDI) de la teoría de control, que tiene la capacidad de detectar fallas en los sensores y actuadores del CMPM, haciendo uso de la redundancia analítica de los componentes del proceso que redundan físicamente, para beneficio económico y ahorro de espacio. Se utiliza la herramienta de Análisis Estructural (AE), que permite analizar la monitoreabilidad, detectabilidad y aislabilidad del proceso y hallar las relaciones de redundancia analítica. Para el diseño del sistema de diagnóstico de fallas, primero se desarrolló la emulación del circuito de molienda, utilizando valores reales de operación de uno de los circuitos de molienda húmeda de la concentradora de cobre Toquepala, Perú, operada por la compañía Southern Copper; el mencionado circuito de molienda cuenta con un molino de bolas, un cajón de pulpa (depósito de la mezcla de masa mineral y agua), una bomba de pulpa y un nido de Hidrociclones (clasificadores de partículas). Se halla los residuos a partir de las relaciones de redundancia analítica y luego se determina las fallas más representativas del CMPM. Se realizan pruebas y analizan resultados que da el SDF y se desarrolla una interfaz gráfica para facilitar la visualización de la presencia de fallas. / Tesis
29

Sistema de control para mejorar la confiabilidad operacional de un motor de inducción de 300Hp en la Compañía Minera Casapalca

De La Cruz Meza, Alver 02 February 2019 (has links)
La investigación responde al problema ¿Qué sistema de control existente, no permite mejorar la confiabilidad operacional del motor de inducción de 300hp en la compañía minera casapalca?, como objetivo principal pretendemos, desarrollar una metodología tecnológica basado en un sistema de control, de aplicación tecnológica, a través de un Análisis de Modos de Falla, Efectos y Criticidad que permitirá evaluar y mejorar la confiabilidad operacional del motor de inducción de 300hp en estudio. Y como hipótesis se asume que el diseño del sistema de control, mediante la aplicación del Análisis de Modos de Falla, Efectos y Criticidad, mejorara el grado de nivel de confiabilidad operacional del motor de inducción de 300hp de la compañía minera Casapalca. El diseño en éste caso no se aplica la correlación porque, la teoría de metodología demuestra tecnológicamente y matemáticamente esa relación mediante las fórmulas de cálculo del porcentaje total y los indicadores
30

Detección de Anomalías en Procesos Industriales Usando Modelos Basados en Similitud

León Olivares, Alejandro Samir January 2012 (has links)
La detección de anomalías en procesos industriales es un tema de alto impacto que ha sido analizado y estudiado en diversas áreas de la ingeniería e investigación. La mayor parte de los métodos de detección actualmente disponibles posibilitan el estudio de las irregularidades encontradas en el historial de un proceso, ayudando a extraer información significativa (y a veces crítica) en una amplia variedad de aplicaciones, y convirtiéndose de este modo en parta fundamental e integral de esquemas de reducción de costos tanto humanos como económicos en la industria contemporánea. El objetivo general de este trabajo es desarrollar e implementar un enfoque modular de detección de anomalías, aplicable a procesos industriales multivariados y fundado en el análisis de residuos generados a partir de modelos no paramétricos basados en similitud (similarity-based modeling, SBM). La herramienta consiste principalmente de un sistema de generación automática de modelos SBM, una metodología de estudio de eventos y un algoritmo estadístico de detección. El trabajo realizado se enmarca en un proyecto de colaboración conjunta entre las empresas CONTAC, INGENIEROS LTDA. y ENDESA-CHILE. Gracias a esto, ha sido posible evaluar el sistema propuesto utilizando datos de operación correspondientes a una central termoeléctrica de ciclo combinado perteneciente a la segunda empresa ya mencionada. Las comparaciones en cuanto al desempeño del sistema de modelación implementado permiten concluir que el algoritmo es capaz de generar una representación más apropiada del proceso, basado en el error obtenido con la técnica de modelación SBM, la cual es cercana al 25% del error obtenido con la técnica de modelación lineal en los parámetros. Además, la metodología de estudio de eventos permite detectar correctamente las variables que no aportan al objetivo de detección de un evento en particular, así como también identifica las variables más significativas para lograr tal propósito, reduciendo el número de variables analizadas y con esto, los requerimientos de cómputo de operación en línea. La validación de los resultados entregados por el método de detección de anomalías desarrollado, permite aseverar que la utilización de modelos no-paramétricos tipo SBM, en combinación con la metodología de estudio de eventos y el algoritmo estadístico de detección, resultan eficaces a la hora de generar alarmas y detectar las anomalías estudiadas.

Page generated in 0.029 seconds