Return to search

Algoritmo de detección de ondas P invariante de escala: Caso de réplicas del sismo del 11 de marzo de 2010

Doctor en Ciencias, Mención Geología / Bajo la presión del megaterremoto del Maule en febrero de 2010, los centros de estudio
chilenos debieron enfrentar una emergencia adicional, consistente en el
procesamiento de terabits de datos tomados con posterioridad al gran evento.
Esta masa de información proviene principalmente de las campañas de
intervención. Sin embargo, la razón de fondo del número de datos que se logra,
son las leyes de escalamiento que dominan la dinámica de la corteza y es que
estas dictan qué sucede antes y después de cada evento. Más aún, estas leyes
imponen cotas bastante estrictas al volumen de datos que es necesario registrar
para identificar los procesos en sí. A pesar de que una teoría completa de la
generación de sismicidad es desconocida en la actualidad, es posible comprender
sus rasgos principales con una multiplicidad de técnicas, dos de ellas son la
similitud y las observaciones directas. El uso de estos métodos, permite
identificar algunas simetrías presentes en los fenómenos corticales. Estas
simetrías son invarianzas de escala, es decir, la posibilidad de expresar los
observables de interés como leyes de potencia del espacio, del tiempo y del
tamaño de lo estudiado. Esta invarianza es el motivo tras la geometría fractal
de las fallas, la ley de Gutenberg-Richter para los tamaños de los eventos
sísmicos, la ley de Omori para los tiempos entre réplicas y otros. Estos
elementos, permiten identificar un rasgo combinatorial presente en el proceso
de generación de sismicidad, que posibilita la introducción de la entropía de
Shannon como uno de los observables relevantes, que en la actualidad, no ha
sido explotado exhaustivamente por los geocientistas. La entropía está ligada a
la idea de información que es posible conocer y transmitir. La interpretación
de la fuente sísmica como una de carácter estocástico cuyas señales viajan a
través de un medio ruidoso (la corteza) finalmente registradas en receptores
(sismómetros) permite hacer la analogía con un telégrafo y con ello conocer la
información que proviene de los terremotos. La noción de entropía se fundamenta
sobre unas probabilidades que se han identificado con ayuda del fenómeno
conocido como la anomalía del primer dígito, que se reporta presente en la
fuente sísmica, hecho debidamente establecido en la primera de las
publicaciones que se adjuntan por medio de observaciones y simulación de
autómatas celulares. Esta anomalía, se muestra está asociada a una familia de
sistemas disipativos de los cuales la corteza es uno. Con ayuda de la teoría
de la información se han encontrado criterios básicos de índole geométrico, que
han permitido desarrollar los algoritmos de reconocimiento de sismicidad
propuestos, que se han probado empíricamente en el caso de una serie de
réplicas pertenecientes al sismo de Pichilemu del 11 de marzo del 2010,
presentados en detalle en el segundo trabajo adjunto. Se ha probado que estos
algoritmos se muestran competitivos y complementarios a los ya usados
popularmente, lo que aumenta la capacidad de detección y abre posibilidades de
estudio en el problema de alerta temprana. Finalmente se discute la
posibilidad de interpretar el proceso de disipación de energía a través de una
representación simple, que ligaría información, entropía y geometría.

Identiferoai:union.ndltd.org:UCHILE/oai:repositorio.uchile.cl:2250/131361
Date January 2014
CreatorsToledo Peña, Patricio Antonio
ContributorsCampos Muñoz, Jaime, Facultad de Ciencias Físicas y Matemáticas, Departamento de Geología, Vargas Easton, Víctor, Cisternas Silva, Armando, Acuña Leiva, Gonzalo, Delouis, Bertrand
PublisherUniversidad de Chile
Source SetsUniversidad de Chile
LanguageSpanish
Detected LanguageSpanish
TypeTesis
RightsAtribución-NoComercial-SinDerivadas 3.0 Chile, http://creativecommons.org/licenses/by-nc-nd/3.0/cl/

Page generated in 0.0024 seconds