• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 113
  • 7
  • 2
  • Tagged with
  • 123
  • 48
  • 35
  • 32
  • 32
  • 32
  • 32
  • 32
  • 32
  • 29
  • 17
  • 16
  • 16
  • 14
  • 13
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Estudio de resistividad eléctrica mediante magnetotelúrica, en la zona de falla Liquiñe-Ofqui entorno volcán Villarrica

Pavez Moreno, Maximiliano January 2015 (has links)
Magíster en Ciencias, Mención Geofísica / La subducción entre la placa de Nazca y la placa Sudamericana ha presentado diversos cambios en la dirección de convergencia a lo largo de los años, generado diversas estructuras geológicas en la zona sur del país (33ºS - 46ºS), como por ejemplo, la extensa Zona de Falla Liquiñe-Ofqui (ZFLO) que corresponde a una zona de cizalle dextral activa que a lo largo de toda su extensión presenta diferentes estilos de deformación, además de la abundante presencia de edificios volcánicos que en su mayoría se encuentran activos. Uno de los volcanes más activos del país es el volcán Villarrica, centro eruptivo del Pleistoceno Medio a Holoceno, que en los últimos años ha presentado episodios de baja explosividad (hawaiiano a estromboliano), con un pequeño lago de lava casi permanente en el interior del cráter y actividad fumarólica continua. Para caracterizar el sistema de falla existente en zonas aledañas al volcán Villarrica, se realizó un estudio mediante Magnetotelúrica, método geofísico pasivo que utiliza como fuente un amplio espectro de variaciones geomagnéticas que ocurren de forma natural generando inducción electromagnética en la Tierra. La adquisición de los datos se efectuó en dos campañas, la primera en Noviembre-Diciembre de 2013 y la segunda en abril de 2014. Estos datos fueron analizados mediante un programa basado en el proceso robusto mostrado por Egbert y Booker (1986), calculándose resistividad aparente y fase, más análisis de dimensionalidad, junto con modelos de resistividad obtenidos por inversiones 2D, permitiendo un análisis de las principales estructuras existentes en profundidad. Los parámetros básicos como resistividad aparente y fase muestran una zona con estructuras resistivas (~1000 Ω m) en los primeros kilómetros y algo más conductoras en profundidad (~50 Ω m). Se calcularon flechas de inducción, strike geoeléctrico y tensor de fase, mostrando un comportamiento 3-D para los periodos asociados a menor profundidad. A mayores periodos, estos parámetros se ven influenciados por la presencia de sistemas magmáticos sobre todo cerca de la cadena volcánica Villarrica-Lanín. Mediante inversiones 2D, una correspondiente a un perfil orientado E-O, fue posible caracterizar parte de la Zona de Falla Liquiñe-Ofqui que pasa por los costados del lago Caburgua. Otra inversión 2D para un perfil norte-sur, apreciando varias estructuras en superficie alineadas en sentido E-O y un cuerpo conductor a una profundidad de 20 km que se extiende en superficie hasta los 4 km, situado en la parte sur del perfil.
52

Estimación estocástica de huecos de tensión en las barras del SIC, mediante paquete computacional

Tapia Henríquez, Sebastián Eduardo January 2013 (has links)
Ingeniero Civil Electricista / Para el sector industrial resulta de suma importancia la calidad y continuidad del suministro eléctrico. Principalmente debido a la alta sensibilidad de diferentes equipos a las variaciones rápidas de voltaje, ocasionando cuantiosas pérdidas monetarias por paradas intempestivas del proceso productivo. Una depresión rápida de la tensión o hueco de tensión se define como una caída momentánea del valor rms de voltaje, que puede producir la operación errónea o desconexión total de un equipo o sistema. Estimar la magnitud y frecuencia de estos fenómenos en las instalaciones del sistema interconectado central chileno se vuelve de gran utilidad a la hora de decidir invertir en nuevas instalaciones o seleccionar puntos de conexión para éstas. El objetivo de este trabajo es estimar estocásticamente la ocurrencia de huecos de tensión en las barras del sistema troncal del SIC. La estimación estocástica emplea datos de falla de las instalaciones y pronostica la ocurrencia de los huecos a través de simulaciones de falla en el sistema, esto último requiere mucho menos tiempo que estimar los huecos de tensión mediante el monitoreo del sistema. Para realizar esta estimación estocástica se calculan las magnitudes del voltaje durante fallas en diversos puntos del sistema y se combina esta información con la tasa de falla de las posiciones de falla consideradas. Los resultados permiten caracterizar el sistema en términos frecuencia y magnitud de huecos de tensión en las distintas barras. De igual manera se encontraron las áreas donde al ocurrir una falla se afecta a barras sensibles del sistema, conocidas como áreas de vulnerabilidad, se contempló una para cada zona norte, centro y sur del sistema. Los resultados muestran que la zona norte del sistema interconectado es la que experimenta más huecos de tensión de severidad media a profunda durante un año, y que la zona sur es la que menos se ve afectada por huecos severos. Lo anterior justificado por la topología del sistema en la zona norte, líneas largas de un circuito y poca generación. Las áreas de vulnerabilidad encontradas son extensas para las tres barras estudiadas, siendo las fallas en el sistema de transmisión de 500 kV las que afectan a mayores zonas geográficas en términos de huecos de tensión. Con esta información la planificación del sistema tiene otra herramienta para tomar decisiones técnico-económicas que ayuden al correcto desarrollo del sistema eléctrico.
53

Utilización de modelos empíricos y filtros de partículas sensibles al riesgo para detección temprana de anomalías

Ossa Gómez, Gabriel Felipe January 2013 (has links)
Ingeniero Civil Electricista / El presente trabajo de memoria postula como objetivo el estudio del desempeño de filtros de partículas en el área del pronóstico y diagnóstico de fallas, modelando sistemas dinámicos no-lineales por medio de formas paramétricas. También se desarrollan diferentes estrategias de filtrado, las cuales evalúan la validez del estado estimado an base a la información pasada de la operación. Todas las estrategias se evalúan analizando el efecto de la variabilidad de los parámetros del modelo sobre el rendimiento en estimación, predicción y detección de anomalías Los filtros de partículas corresponden a técnicas basadas en representaciones empíricas de la dis- tribución de probabilidad del estado en modelos Bayesianos. En el contexto de un modelo dinámico, tales técnicas sirven para estimar los estados y parámetros variantes en el tiempo de dicho modelo. El uso de curvas de ajuste parámetricas permite expandir el uso previamente mencionado a modelos que además de incluir las componentes mencionadas poseen parámetros fijos en su definición. El rendimiento de los métodos estudiados fue evaluado mediante el uso de datos empíricos pro- venientes de pruebas experimentales. En particular, los datos usados corresponden a una estimación directa del crecimiento de una fractura axial en una placa del engranaje planetario de un helicóptero. Para abordar el problema, se determinó usar la función arcotangente hiperbólica como curva de ajuste, con el fin de modelar la propagación de la fractura del componente mecánico en el tiempo. Además, se establecieron mecanismos novedosos basados en la generación de proyecciones de trayectorias en el pasado de la curva de ajuste a partir del vector de estados del modelo para un instante determinado, mediante la cual se evalúa el verosimilitud histórica de la estimación proporcionada por el algoritmo haciendo uso de la distribución chi-cuadrado y su distribución acumulada complementaria. De esta forma, se analizó el desempeño de cinco filtros: uno que sólo incluye la curva de ajuste en su operación, y otros cuatro que generan proyecciones de trayectorias en el pasado, para distintas ventanas de tiempo histórico y distribuciones de evaluación. El análisis de los filtros entregó resultados regulares. El filtro sin proyección pasada tuvo un mejor desempeño a la hora de filtrar, y la predicción ofrecida por el mismo se mantuvo estable. Por otra parte, los filtros basados en el uso de proyecciones de trayectorias en el pasado y que evaluaban con la distribución chi-cuadrado presentaron signos de degeneración muestral para variabilidades muy altas en los parámatros de la curva de ajuste, pero ofrecieron capacidades de detección importantes. Por último se observó un alto nivel de degeneración muestral en los filtros que hacían uso de las proyecciones en el pasado pero que evaluaban con la distribución acumulada complementaria de la distribución chi-cuadrado, bajo todas las condiciones experimentales estudiados. Se concluye a partir del trabajo realizado que la variabilidad de los ruidos involucrados al usar formas paramétricas en el modelo de sistema influye fuertemente en los desempeños de los filtros, y que, en términos de desempeño, el filtro de partículas sólo con curva de ajuste tiene mejor desempeño que aquellos que hacen uso de proyecciones de trayectorias en el pasado.
54

Caracterización somera de la falla San Ramón mediante tomografía de resistividad eléctrica

Leiva Sotomayor, Maximiliano Joaquín January 2015 (has links)
Magíster en Ciencias, Mención Geofísica / La Falla San Ramón identicada en el frente cordillerano al Este de la ciudad de Santiago, juega un papel importante en la evolución tectónica de Chile central. Más aún, su sola presencia es un elemento importante para los estudios de riesgo sísmico, planificación territorial, flujo de agua subterránea, entre otras instancias que involucren a la falla entre sus factores críticos. Dado el avance de la urbanización y la acumulación de depósitos fluvioaluviales en el piedemonte, gran parte de su traza se encuentra cubierta. Esto hace necesario el uso de metodologías indirectas para el reconocimiento de la falla. Con el fin de conocer la estructura de resistividad en torno a la Falla San Ramón y las perturbaciones que su cercanía a la superficie pudiese generar, se realiza un estudio de la resistividad en cuatro perfiles. Dos de los perfiles cruzan la traza observada de la falla, mientras que los dos restantes se ubican en zonas cubiertas por depósitos aluviales que no muestran perturbación superficial atribuible a la falla y donde su traza sólo ha sido inferida. El análisis e interpretación de los perfiles que cruzan la traza observada de la falla permite reconocer los contrastes de resistividad atribuidos a la actividad ésta, así como rangos de resistividad característicos de los tipos de depósitos reconocidos en el piedemonte. En base a las características observadas en estos perfiles, se interpreta la ubicación de la falla en las zonas cubiertas y sin expresión superficial de ésta. La interpretación de los modelos de resistividad permite dar mayor precisión en la ubicación de la traza en zonas donde previamente había sido localizada en base a estudios geológicos, además de precisar su ubicación en las zonas donde ha sido inferida.
55

Distribución de la alteración hidrotermal y su relación con mineralización de cobre en el Área de Chivato, Región de Atacama, Norte de Chile

Oberreuter Gallardo, Benjamín January 2017 (has links)
Geólogo / El sector Chivato es un blanco de exploración de cobre, ubicado en la cordillera de la Costa, región de Atacama. El área de estudio cuenta con escasos antecedentes geológicos: no hay información publicada sobre unidades intrusivas aflorantes, rocas metamórficas, o de alteración hidrotermal presente. Se verifica la presencia de mineralización de cobre al encontrar al menos 10 lugares con labores de pequeña minería y trabajo de pirquineros. El objetivo principal del presente trabajo consiste en delimitar en superficie la distribución de sistemas de alteración hidrotermal en el sector de Chivato y establecer sus relaciones espaciales y temporales con mineralización de cobre de los tipos IOCG y PCD. Se elaboró un mapa geológico y de alteración a escala 1:25.000 de la zona de estudio, entre las coordenadas UTM 7.060.000 7.052.000N y 388.000 400.000E y se confeccionaron 2 secciones geológicas W-E. Se realizaron descripciones petrográficas para caracterizar las distintas formaciones y unidades litológicas reconocidas. Se colectaron muestras para realizar análisis geoquímico y caracterizar químicamente las unidades intrusivas y alteración hidrotermal. En el sector de Chivato se determinó la existencia de cuatro fases intrusivas principales: Diorita, Monzonita, Tonalita y Granodiorita, las cuales no habían sido documentadas. Se describe un basamento metamórfico el cual presenta texturas que indican una profundidad de formación de al menos 8km. Se reconocieron dos estructuras principales: La Falla Chivato y un anticlinal que afecta a un miembro de rocas epiclásticas de la Fm. Punta del Cobre. La falla Chivato es interpretada como una escama gruesa con orientación N30°E, que es la estructura más relevante del sector, presentando evidencias de deformación normal e inversa desde antes del Triásico. Se interpreta que el ascenso de los magmas, que constituyen los intrusivos del área de estudio, fue controlado por esta falla, al igual que los fluidos de alteración hidrotermal. El anticlinal se interpreta asociado al acortamiento producido por la inversión tectónica en el Cretácico Inferior. Las principales alteraciones hidrotermales identificadas en la zona corresponden a silicificación y alteración a Clorita-Epidota. La primera muestra un fuerte control estructural, asociado a la falla Chivato, mientras la segunda está presente en gran parte del área de estudio. Con datos obtenidos de análisis geoquímicos, se determinó que una zona de silicificación intensa no corresponde a una litocapa de un pórfido cuprífero, sino más bien a una zona de hidrolisis típica de los sistemas IOCG. Datos obtenidos sobre los tipo de intrusivos y tipos de alteración hidrotermal permiten interpretar la presencia de un sistema tipo IOCG para el área de Chivato. / Estudio financiado por Quantum Pacific Exploration / 18/01/2020
56

Tolerancia a fallas y gestión de carga en entornos federados

Echaiz, Javier 00 December 2012 (has links)
Existe una creciente demanda de sistemas online, especial-mente de aquellos que requieren procesamiento de informa-ción. Esta demanda sumada a las nuevas tecnologías de monitoreo (como por ejemplo las redes de sensores) impulsaron un nuevo tipo de aplicación que requiere bajas latencias y procesamiento continuo de grandes volúmenes de datos (los cuales arriban en forma de streams). El proce-samiento de streams constituye un paradigma de cómputo relacionado con SIMD que permite que algunos tipos de apli-caciones puedan explotar una forma de procesamiento para-lelo y puede emplearse en diferentes dominios, como por e-jemplo para la implementación de sistemas financieros, moni-toreo basado en sensores, sistemas militares, monitoreo de red, etc. Si bien los sistemas de gestión de bases de datos (DBMS) pueden utilizarse para implementar este tipo de apli-caciones, las restricciones de bajas latencias de procesa-miento y grandes volúmenes de datos a procesar los vuelve inadecuados. Una mejor alternativa son los sistemas de ges-tión de streams de datos, usualmente sistemas distribuidos de gestión de streams de datos (DSMS por su sigla en inglés) de-bido a que estas aplicaciones son inherentemente distribuidas y por lo tanto las soluciones distribuidas son naturales y proveen mejoras en cuanto a escalabilidad y performance. Esta tesis se enfoca en dos aspectos desafiantes pertenecien-tes al campo de los sistemas distribuidos en general y al de los DSMS en particular: (1) tolerancia a fallas capaz de re-sistir fallas a nivel de nodos y de red y (2) gestión de carga en sistemas federados. Nuestro enfoque al problema de la to-lerancia a fallas se basa en replicación capaz de enmascarar tanto las fallas a nivel de los nodos como a nivel de las redes. Nuestroprotocolo, denominado Disponibilidad y Consistencia Ajustable a las Aplicaciones (DCAA) puede manejar adecua-damente la relación entre disponibilidad y consistencia, man-teniendo (si es posible) la disponibilidad especificada por el usuario o la aplicación, pero produciendo (eventualmente) los resultados correctos. Al mismo tiempo, DCAA también trata de producir el menor número de resultados incorrectos (impre-cisos) que luego deberían requerir corrección. La principal diferencia entre DCAA y enfoques previos sobre tolerancia a fallas en el campo de los DSMS es que DCAA soporta al mismo tiempo diferentes restricciones en las aplicaciones, esto quiere decir que cada aplicación puede potencialmente tener distintas preferencias de disponibilidad y consistencia. Por otro lado presentaremos un nuevo protocolo de gestion de carga denominado Mecanismo de Precio Acotado (MPA), el cual permite que nodos autonomos (participantes colabora-tivos) compartan su carga sin la necesidad de contar con recursos suficientes para la operación durante picos de carga. MPA es un protocolo basado en contratos donde cada nodo practica una negociación offline y los participantes migran carga en tiempo de ejecución únicamente a nodos (pares) con los cuales mantienen un contrato (y pagan mutuamente de acuerdo al precio contratado). Este protocolo de gestión de carga ofrece incentivos que promueven la participación de los nodos y produce una buena distribución de carga (a nivel global del sistema). Los aportes mas importantes de nuestro enfoque por sobre trabajos previos basados en economías de cómputo son su estabilidad, predecibilidad, baja carga de procesamiento, privacidad y promoción de relaciones entre participantes, posibilitando que los mismos pueden crear y explotar estas relaciones privilegiadas. El protocolo MPA es general y por lo tanto puede utilizarse para la gestión de carga de cualquier entorno federado y no sólo bajo DSMS. Más aún, este nuevo protocolo de gestión de carga debe no sólo traba-jar en los típicos entornos colaborativos sino que también debe ser capaz de solucionar escenarios más reales, donde cada nodo (probablemente parte de diferentes organizaciones autónomas) juega bajo distintas reglas, tratando de maximi-zar su propia ganancia sin cooperar necesariamente con sus pares. Además de los modelos económicos existen varios tra-bjos basados en SLA (Service Level Agreements) para solucio-nar el problema de la gestión de carga cuando el entorno no es colaborativo. Mostraremos que los modelos SLA no proveen una solucion completa y que los acuerdos entre pares usual-mente proveen mejores resultados. Si bien esta tesis parece tener dos focos en lugar de uno, es importante notar que ata-caremos especialmente el problema de la gestión de carga en sistemas distribuidos federados. La relación entre este enfo-que y la tolerancia a fallas radica en los contratos negocia-dos: además de precio y tareas (carga), los contratos pueden incluir disponibilidad, característica que vuelve especialmente importante la tolerancia a fallas. / There is an increased demand for online systems,especially those requiring information processing. This demand added to new monitoring technologies (like sensors networks) have motivated a new type of application that requires low latency and continuous processing of large volumes of data (arriving as streams). Stream processing is a computer programming paradigm, related to SIMD, that allows some applications to more easily exploit a form of parallel pro-cessing and it can be employed in many different domains, such as financial systems, sensor based monitoring, milita-ry systems, network monitoring, etc. Even when traditional database management systems (DBMS) can be used to handle these applications, the low latency and high volume pro-cessing constrains make them not suitable. A much better alternative are the data stream management systems, usually distributed data stream management systems (DSMS) because these are inherently distributed applications so distributed solutions are natural and providers of scalabi-lity and performance improvements. This thesis focuses on two challenges faced by distributed systems in general and DSMS in particular: (1) fault tolerance able to resist node and network failures and (2) load management in fede-rated systems. The fault tolerance approach is based on re-plication and our protocol can resist most node and net-work failures. It is called Disponibilidad y Consistencia Ajustable a las Aplicaciones (DCAA) and addresses the availability/consistency relation by maintaining (if possi-ble), the availability specified by the user or the appli-cation but (eventually) producing correct results. At the same time, DCAA also attempts to produce the minimum number of incorrect (inaccurate) results that will need correction. The main difference of DCAA over previous approaches for fault tolerance in DSMS is that DCAA supports at the same time different application constrains, this means that each application can potentially choose a different preference of availability and consistency. Our load management protocol, called Mecanismo de Precio Acota-do (MPA) enable autonomous nodes (collaborative participa-nts) to share their load without having the required re-sources for peak load work. MPA is a contract based proto-col where nodes practice an offline negotiation and parti-cipants migrate load at execution time only to peers with whom they hold a contract (and pay each other according to the contracted price). This load management protocol offers incentives that promote participation and produces a good (system wide level) load distribution. The key differences of our approach over previous works based on computational economies are its stability, predictability, lightweight, privacy, and promotion of the relationships among participants, enabling them to create and exploit these privileged relationships. The MPA protocol is gene-ral, so it can be used to manage load in any federated en-vironment, and not only DSMS. Moreover, this new load ma-nagement protocol should not only work under the typical collaborative environment, but also should be able to address the more realistic scenery where each node (proba-bly part of different and autonomous organizations) plays under different rules trying to maximize their own gain, without necessarily cooperating with their partners. Besi-des economic models there are various works based on SLA (service level agreements) to solve the load management problem when the environment is not a collaborative one. We will show that SLA models do not provide a complete solution and that peer agreements usually provide better results. Although this thesis seems to have two focuses instead of one, it is important to notice that we espe-cially address the load management problem under federated distributed systems. The relation among this focus and fault tolerance is in the negotiated contracts: besides price and tasks (load), contracts can include availability, which raises the importance of fault tolerance.
57

Fallas de Coordinación en el Proceso de Traspaso del Programa de Complementación Alimentaria en el Perú

Ruiz Vásquez, Ursula Patricia January 2007 (has links)
No description available.
58

Desarrollo de un sistema de diagnóstico de fallas basado en relaciones de redundancia analítica para el circuito de molienda de un proceso minero

Pacheco Mendoza, Jean Carlo 30 May 2016 (has links)
Todos los procesos en la industria son susceptibles a fallas, debido a varios factores como, tiempo de vida de cada elemento del proceso, mala fabricación, etc. Estas fallas afectan el buen funcionamiento del sistema, produciendo ineficiencia en su desempeño, pérdidas económicas y en el peor de los casos desastres ambientales y humanos. La detección oportuna de la presencia de fallas evita paradas no planeadas, ayuda a tomar acciones correctivas y de mantenimiento y, como consecuencia de ello, reduce el daño potencial que estas ocasionan. El diseño de sistemas de diagnóstico es, por lo tanto, un paso importante y necesario en el proceso de desarrollo de estos sistemas para una infinidad de aplicaciones industriales. Los circuitos de molienda de procesos mineros (CMPM), tienen la función principal de reducir el tamaño de las partículas que vienen de la etapa de chancado, los CMPM dependen del buen funcionamiento de todos los sensores y actuadores para mantener el sistema estable y operando en condiciones óptimas. Esta tesis presenta el diseñó de un sistema de diagnóstico de fallas (SDF) basado en modelos que sigue la metodología Fault Detection and Isolation (FDI) de la teoría de control, que tiene la capacidad de detectar fallas en los sensores y actuadores del CMPM, haciendo uso de la redundancia analítica de los componentes del proceso que redundan físicamente, para beneficio económico y ahorro de espacio. Se utiliza la herramienta de Análisis Estructural (AE), que permite analizar la monitoreabilidad, detectabilidad y aislabilidad del proceso y hallar las relaciones de redundancia analítica. Para el diseño del sistema de diagnóstico de fallas, primero se desarrolló la emulación del circuito de molienda, utilizando valores reales de operación de uno de los circuitos de molienda húmeda de la concentradora de cobre Toquepala, Perú, operada por la compañía Southern Copper; el mencionado circuito de molienda cuenta con un molino de bolas, un cajón de pulpa (depósito de la mezcla de masa mineral y agua), una bomba de pulpa y un nido de Hidrociclones (clasificadores de partículas). Se halla los residuos a partir de las relaciones de redundancia analítica y luego se determina las fallas más representativas del CMPM. Se realizan pruebas y analizan resultados que da el SDF y se desarrolla una interfaz gráfica para facilitar la visualización de la presencia de fallas. / Tesis
59

Análisis de la densidad de las fallas mayores (P21) en la mina el Teniente

González Negrete, Sebastián Ignacio January 2015 (has links)
Geólogo / El desarrollo de la tecnología minera subterránea en los últimos años ha permitido un rápido avance en la construcción de túneles y labores, lo que ha llevado a tener una menor cantidad de tiempo para levantar información geológica relevante. Esto último ha producido la existencia de zonas sin información de estructuras, lo que constituye potencialmente un riesgo no solo a la infraestructura sino también a la vida de las personas. En este contexto se enmarca la presente memoria de título, en la cual se busca, a partir de estructuras mayores mapeadas en zonas con alta resolución de información, calcular la densidad de estructuras (P21) para así poder complementar la información de aquellas zonas con baja resolución en la mina El Teniente. Los parámetros utilizados para los cálculos de P21 fueron: densidad de mapeo, largo de estructuras, espesor típico, amplitud, ondulación y efecto de la litología. La información fue obtenida de los mapeos históricos de las minas Reservas Norte (ReNo) y Esmeralda, en sus respectivos niveles de producción y hundimiento. Para analizar los resultados de P21 obtenidos, se dividió el problema en 3 casos comparativos: entre nivel de producción y hundimiento de una misma mina, entre dos zonas de una misma mina en un mismo nivel y entre dos minas distintas del yacimiento. Los resultados muestran que entre los niveles de producción y hundimiento ubicados a una diferencia de cota de 17 metros, se encuentran las mismas familias, orientaciones y espesores de estructuras. Sin embargo, lo anterior no se traduce en que los valores de P21 sean similares, lo que sugiere que estos dependen de variables estadísticas como número de mapeos y/o densidad de mapeos y no de variables geológicas. Por otra parte, las variaciones de P21 dentro de un nivel, estarían controladas por la cercanía a los sistemas de fallas y/o a los contactos litológicos, donde aquellos en que se involucra el Complejo Máfico El Teniente (CMET) suelen poseer valores más altos. Además, las dos minas a pesar de presentar litologías y características geométricas similares poseen densidades distintas (0,08 m/m2 y 0,15 m/m2 promedio). Si a lo anterior se le suma que la mina con mayor número de estructuras mapeadas (Esmeralda) posee un menor largo interpretado, indicaría que las diferencias se deben a una interpretación que subestima o sobrestima la información existente. En cuanto a relaciones geométricas, se obtuvo una relación lineal entre espesor y largo de fallas, que mejoró aquella creada anteriormente en El Teniente y que se acerca más a la existente en la literatura. Utilizando dicha curva y ocupando la información de diferencias de P21 en distintas minas es posible concluir que mina Esmeralda subestima la información, por lo que se recomienda realizar nuevos estudios que permitan mejorar dichas interpretaciones.
60

Diseño de un sistema de detección y compensación de fallas eléctricas tipo islanding en smargrids

Paucará Prado, Jhonatan David 04 October 2017 (has links)
Este trabajo de tesis presenta la estructura de control de un sistema detector y compensador de fallas eléctricas de tipo corte abrupto de energía en una SmartGrid. Para la detección de la falla se ha implementado un algoritmo basado en la inyección y detección de una perturbación en la tensión de la carga. Para la compensación de la falla, el control realiza un cambio en la señal de referencia y pasa al modo desconectado de la red. Asimismo, se ha mejorado el control de frecuencia para el proceso de resincronización con la red eléctrica, una vez que ésta ha sido reestablecida. Finalmente, el inversor es reconectado a la red eléctrica y se pasa al modo conectado a la red, donde la referencia pasa a ser nuevamente la señal con perturbación. Como parte de este trabajo se han desarrollado artículos científicos, de los cuales 2 han sido aceptados en congresos internaciones (PEPQA, Colombia 2017 y CCE, México 2017) y se encuentran publicados en el IEEE Explorer. / Tesis

Page generated in 0.0384 seconds