Spelling suggestions: "subject:"inversa""
61 |
Soluções multidimensionais das equações de Einstein / Multidimensional solutions of the Einstein equationsAyala Molina, Jairo Alonso 18 August 2018 (has links)
Orientador: Patricio Anibal Letelier Sotomayor / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Matemática, Estatística e Computação Científica / Made available in DSpace on 2018-08-18T10:00:29Z (GMT). No. of bitstreams: 1
AyalaMolina_JairoAlonso_D.pdf: 1244165 bytes, checksum: 30d706ffeeaefdce6a15f3a200327b18 (MD5)
Previous issue date: 2011 / Resumo: Na atualidade, o estudo de objetos como lentes gravitacionais ou buracos negros em dimensões superiores, bem como a formulação de cosmologias de Kaluza-Klein, têm recebido cada vez maior atenção. Na tentativa de compreender melhor estes e outros temas semelhantes, o estudo das soluções exatas, assim como de algoritmos para sua geração, desempenha um papel muito importante. Neste trabalho, apresentamos as equações de Einstein no vácuo para uma classe especial de espaço-tempo D-dimensional que admite D - 2 campos vetoriais de Killing, assim como sua formulação matricial. Apresentamos também a extensão de dois algoritmos apresentados no artigo do professor Patricio Letelier, On the Inverse-Scattering Method Generation of Gravitational Waves and other New Solution-Generating Algorithms, Nuovo Cimento 97 B, 1 (1987), para depois aplicá-los na obtenção de soluções não diagonais. Igualmente estudamos a aplicação do método de Belinski-Zakharov para a obtenção de soluções solitônicas multidimensionais a partir de nossa métrica, que admite representação diagonal por blocos. Finalmente, aplicamos os algoritmos de geração apresentados às métricas de Kaluza-Klein para obter novas soluções das correspondentes teorias efetivas em quatro dimensões, assim como seus tensores de energia-momento. Exemplos de possíveis interpretações destes tensores na teoria clássica de campos (ClFT) e na mecânica de fluidos, são apresentados também / Abstract: Nowadays, the study of objects such as black holes or gravitational lenses in higher dimensions, as well as the formulation of Kaluza-Klein cosmologies, have received increasing attention. In an attempt to better understand these and other similar topics, the study of exact solutions and the algorithms for their generation, plays a very important role. In the present work we present the Einstein equations in vacuum for a special class of D-dimensional space-time which admits D - 2 Killing vector fields, as well as its matrix formulation. We also present the extension of two algorithms studied in the Patricio Letelier's paper On the Inverse-Scattering Method Generation of Gravitational Waves and other New Solution-Generating Algorithms, Nuovo Cimento 97 B, 1 (1987), to later apply them in obtaining non-diagonal solutions. We also studied the method of Belinski-Zakharov to obtain multi-dimensional soliton solutions from our metric, which admits representation diagonal by blocks. Finally, we apply the presented generation algorithms to Kaluza-Klein metrics to obtain new solutions of the corresponding effective theories in four dimensions, as well as its energy-momentum tensors. Examples of possible interpretations of these tensors in classical field theory (ClFT) and fluid mechanics, are also presented / Doutorado / Fisica-Matematica / Doutor em Matemática Aplicada
|
62 |
Calibração de redes de distribuição de água pelo método inverso aplicado a escoamento transiente / not availableJohn Kenedy de Araújo 24 January 2003 (has links)
Desenvolve-se um método para estimar os parâmetros de uma rede hidráulica a partir de dados observados de cargas hidráulicas transientes. Os parâmetros físicos da rede como fatores de atrito, rugosidades absolutas, diâmetros e a identificação e quantificação de vazamentos são as grandezas desconhecidas. O problema transiente inverso é resolvido utilizando uma abordagem indireta que compara os dados disponíveis de carga hidráulica transiente observados com os calculados através de um método matemático. O Método Transiente Inverso (MTI) com um Algoritmo Genético (AG) emprega o Método das Características (MOC) na solução das equações do movimento para escoamento transiente em redes de tubos. As condições de regime permanente são desconhecidas. Para avaliar a confiabilidade do MTI-AG desenvolvido aqui, uma rede-exemplo é usada para os vários problemas de calibração propostos. O comportamento transiente é imposto por duas manobras distintas de uma válvula de controle localizada em um dos nós da rede. Analisam-se, ainda, o desempenho do método proposto mediante a variabilidade do tamanho do registro transiente e de possíveis erros de leitura nas cargas hidráulicas. Ensaios numéricos realizados mostram que o método é viável e aplicável à solução de problema inverso em redes hidráulicas, sobretudo recorrendo-se a poucos dados observados e ao desconhecimento das condições iniciais de estado permanente. Nos diversos problemas de identificação, as informações transientes obtidas da manobra mais brusca produziu estimações mais eficientes. / A method for estimation of parameters of existing hydraulic networks on the basis of observed transients pressures. Such parameters include pipe friction factors or absolute roughness, their diameters and the leakage locations and discharges. The inverse transient problem in terms of unknown parameters is solved through an indirect calibration procedure, which compares the calculated and observed hydraulic heads. The search method for optimal parameters employs the Method of Characteristics for the solution equations of transient motions in pipes and Genetic Algorithms. The initial conditions in the state of equilibrium are supposed unknown and the observed transient behavior of the network is in response to a valve maneuver composed of partial closure and reestablishment of flow in a pipe. In order to validate the transient calibration method, an example network is used to test various proposed calibration problems. The results show that the proposed method can be used with confidence for determination of various kinds of parameters. The transient inverse method is capable of network calibration using transient data collected at few locations in response to a quick valve maneuver.
|
63 |
Determinación de la Resistencia de Puesta a Tierra en Torres de AT en Función del Arco InversoSalinas Gatica, Carlos Felipe January 2012 (has links)
Un alto porcentaje de fallas en las líneas en transmisión es producido por impactos de rayos. A su vez, en líneas con cables de guardia, las fallas más comunes producidas por descargas atmosféricas son las causadas por arco inverso, las cuales se deben a una elevación de potencial en la torre provocada principalmente por la corriente de rayo circulante por la estructura o que se drena vía la resistencia de puesta a tierra.
En función de lo anterior, el objetivo principal de esta memoria es determinar el valor de diseño de la resistencia de puesta a tierra a pie de torre en líneas de transmisión de alta tensión con el fin de reducir la tasa de fallas producidas por arco inverso, como parte de la coordinación de aislamiento.
La metodología llevada a cabo en este trabajo consistió en realizar una búsqueda bibliográfica especializada, para luego implementar un método de cálculo de la tasa de fallas producida por arco inverso en función del valor de la resistencia de puesta a tierra. El método fue desarrollado en VBA (Visual Basic for Applications), lenguaje de macros de Microsoft Excel.
Los resultados que se obtuvieron con el programa fueron comparados con datos de operación reales de líneas de transmisión, donde se obtuvieron resultados aceptables. Además, se revisaron otros métodos para mejorar el desempeño de una línea de transmisión con respecto al impacto de rayos y se realizó un caso de estudio para una línea de transmisión de 345 kV ubicada en zonas cordilleranas altiplánicas del norte de Chile.
Como conclusión, se logró comprobar que el programa de cálculo de la tasa de fallas producidas por arco inverso es adecuado para dar una estimación del valor de la resistencia de puesta a tierra, con el fin de obtener un desempeño aceptable para la aislación de una línea en relación al fenómeno de arco inverso.
Como trabajo futuro se podrían realizar mejoras al programa, ya sea incluyendo más variables, o agregando la tasa de fallas de blindaje de las líneas.
|
64 |
The inverse problem of obstacle detection via optimization methodsGodoy Campbell, Matías Maximiliano January 2016 (has links)
Doctor en Ciencias de la Ingeniería, Mención Modelación Matemática / Esta tesis está dedicada al estudio del problema inverso de detección de obstáculos/objetos utilizando métodos de optimización. Este problema consiste en localizar un objeto desconocido $\omega$ dentro de un dominio acotado conocido $\Omega$ por medio de mediciones en el borde, más precisamente dadas por un dato de tipo Cauchy en una parte $\Gammaobs$ de $\partial \Omega$. Estudiamos los casos escalares y vectoriales para este problema, considerando las ecuaciones de Laplace y de Stokes. En ambos casos nos apoyamos en resultados de identificabilidad, los cuales aseguran la existencia de un único obstáculo/objeto asociado a la medición de borde considerada.
La estrategia utilizada en este trabajo se basa en reducir el problema inverso a la minimización de un funcional de costo: el funcional de Kohn-Vogelius. Esta estrategia es utilizada frecuentemente y permite el uso de métodos de optimización para las implementaciones numéricas. Sin embargo, en virtud de poder definir el funcional, este método requiere conocer una medida sobre toda la frontera exterior $\partial \Omega$.
Este último punto nos lleva a estudiar el problema de completación de datos que consiste en recuperar las condiciones de borde sobre una región inaccesible, i.e. sobre $\partial \Omega \setminus \Gammaobs$, a partir del conocimiento de los datos de Cauchy sobre la región accesible $\Gammaobs$. Este problema inverso es igualmente estudiado vía la minimización de un funcional de tipo Kohn-Vogelius. Dado que este problema está mal puesto, debemos regularizar el funcional por medio de una regularización de Tikhonov. Obtenemos numerosas propiedades teóricas, como propiedades de convergencia, en particular cuando los datos poseen ruido.
Teniendo en cuenta los resultados teóricos, reconstruímos numéricamente los datos de borde por medio de la implementación de un algoritmo de tipo gradiente para minimizar el funcional regularizado. Luego estudiamos el problema de detección de obstáculos cuando solo se poseen mediciones parciales. Consideramos las condiciones en el borde inaccesible y el objeto desconocido como variables del funcional y entonces, usando herramientas de optimización geométrica, en particular el gradiente de forma del funcional de Kohn-Vogelius, realizamos la reconstrucción numérica del objeto desconocido.
Finalmente, consideramos, en el caso vectorial bidimensional, un nuevo grado de libertad, al estudiar el caso en que el número de objetos es desconocido. Así, utilizamos la optimización de forma topológica con el fin de minimizar el funcional de Kohn-Vogelius. Obtenemos el desarrollo asintótico topológico de la solución de las ecuaciones de Stokes 2D y caracterizamos el gradiente topológico de este funcional. Determinamos entonces numéricamente el número de obstáculos como su posición. Además, proponemos un algoritmo que combina los métodos de optimización de forma topológica y geométrica, con el fin de determinar numéricamente el número de obstáculos, su posición y su forma. / Este trabajo ha sido parcialmente financiado por Conicyt-Beca Doctorado Nacional 2012 y el programa Ecos-Conicyt proyecto C13E05
|
65 |
[es] ESTUDIO NUMÉRICO DE LA ESTIMACIÓN DE PARÁMETROS HIDRÁULICOS EN SUELOS PARCIALMENTE SATURADOS / [pt] ESTUDO NUMÉRICO DA ESTIMATIVA DE PARÂMETROS HIDRÁULICOS EM SOLOS PARCIALMENTE SATURADOS / [en] NUMERICAL ESTIMATION OF HYDRAULIC PARAMETERS IN PARTIALLY SATURATED SOILSRAQUEL QUADROS VELLOSO 30 July 2001 (has links)
[pt] A análise de fluxo em solos parcialmente saturados exige o
conhecimento das propriedades hidráulicas do solo: a curva
característica, q(y), e a curva de permeabilidade, k(y).
Entre os problemas geotécnicos que envolvem fluxo em meios
parcialmente saturados pode-se citar a instabilização de
encostas, muitas vezes associada a variações de sucção, e o
transporte de contaminantes, pois, freqüentemente, a fonte
contaminante está acima do nível d`água.
O principal objetivo deste trabalho é a implementação
numérica de um programa, baseado num código de elementos
finitos, para a realização da retroanálise de parâmetros de
fluxo em solos parcialmente saturados a partir de ensaios
de campo, e que forneça também informações sobre a
qualidade da estimativa obtida. O método de retroanálise
utilizado permite a determinação simultânea da curva
característica e da curva de permeabilidade a partir de
dados de fluxo transiente.
O programa desenvolvido foi utilizado para determinar os
parâmetros de fluxo de um ensaio realizado no campo
experimental II da PUC - Rio. Com base na análise dos
resultados obtidos neste ensaio e na análise de
sensibilidade foi proposto um ensaio de configuração mais
simples que pode fornecer resultados satisfatórios na
determinação das propriedades hidráulicas de solos
parcialmente saturados. / [en] Flow analysis in partially saturated soils requires the
determination of soil hydraulic properties: its
characteristic curve, q(y), and its permeability curve k
(y). The instabilization of slopes, often associated with
suction variations, and the transport of contaminants, where
the source of contaminants is often above water leve, are
some of the geotechnical problems involving flows in
partially saturated media.
The main objective of this work is the numerical
implementation of a program, based on finite element
coding, for the back analysis of flow parameters in
partially saturated soils, based on field experiments,
capable of providing information on the quality of the
estimates obtained.
The back analysis method used here allows the simultaneous
determination of the characteristic and permeability curves
from transient flow data.
The program was used to determine flow parameters of a
field experiment conducted in Experimental Field II (PUC-
Rio). A simpler configuration test is proposed based on the
analysis of the results obtained in this field experiment
and on a sensitivity analysis. This test may provide
satisfactory results in the determination of hydraulic
properties of partially saturated soils. / [es] El análisis de flujo en suelos parcialmente saturados exige el conocimiento de las propiedades
hidráulicas del suelo: la curva característica, q(y), y la curva de permeabilidade, k(y). Entre los
problemas geotécnicos que consideran flujos en medios parcialmente saturados se puede citar la
inestabilidad de pendientes, muchas veces asociada a la variaciones de succión; y el transporte de
contaminantes, ya que frecuentemente la fuente contaminante está encima del nível de agua. El
principal objetivo de este trabajo es la implementación numérica de un programa, basado en un
código de elementos finitos, para la realización del retroanálisis de parámetros de flujo en suelos
parcialmente saturados a partir de ensayos de campo, y que brinde también informaciones sobre la
calidad de la estimatición obtenida. El método de retroanálisis utilizado permite la determinación
simultánea de la curva característica y de la curva de permeabilidad a partir de datos de flujo
transitorio. El programa desarrollado fue utilizado para determinar los parámetros de flujo de un
ensayo realizado en el campo experimental II de la PUC - Rio. Analizando los resultados obtenidos
en este ensayo y el análisis de sensibilidad, se propone un ensayo de configuración más simple que
puede dar resultados satisfactorios en la determinación de las propiedades hidráulicas de suelos
parcialmente saturados.
|
66 |
Metodología para la identificación de parámetros en excavaciones profundas al abrigo de muros pantalla mediante métodos espectrales estocásticosCañavate Grimal, Antonio 01 September 2014 (has links)
Cañavate Grimal, A. (2014). Metodología para la identificación de parámetros en excavaciones profundas al abrigo de muros pantalla mediante métodos espectrales estocásticos [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/39311
|
67 |
Aplicación del Análisis Envolvente de Datos y Análisis Factorial Múltiple en el estudio del desempeño en las instituciones de educación superior públicas en Colombia y su implicación en la distribución de los recursosVisbal Cadavid, Delimiro Alberto 03 April 2020 (has links)
[ES] El establecimiento de estrategias y planes de mejora de todo sistema debe abordar como primera instancia el conocimiento del estado actual del mismo, lo cual se logra mediante la formulación, estudio y análisis de los indicadores de gestión de las dimensiones consideradas importantes para el logro de los objetivos, y ello se hace extensivo al Sistema Universitario Estatal (SUE) colombiano. En este contexto, los resultados de las Instituciones de Educación Superior (IES) están entre los desafíos y retos que tiene el sistema educativo en Colombia.
Con el presente trabajo se pretende realizar un análisis comparativo del estado actual de las IES públicas colombianas. Para ello, en primer lugar se realizó un estudio de eficiencia mediante el Análisis Envolvente de Datos (DEA), para posteriormente hacer una propuesta de reestructuración del sector educativo superior público colombiano mediante la implementación del Análisis Envolvente de Datos Inverso en combinación con Algoritmos Genéticos (InvDEA - AG) a través de la identificación de posibles fusiones entre IES ineficientes en una única nueva IES resultante, de manera que esta última posea un cierto nivel de eficiencia técnica preestablecido. En una tercera etapa se realiza una caracterización de las mismas mediante el estudio de los indicadores de resultados establecidos en el Índice de Progreso de la Educación Superior (IPES) desarrollado por el Ministerio de Educación Nacional de Colombia utilizando como herramienta el Análisis Factorial Múltiple (AFM), y finalmente se va a proponer un Índice Sintético de Desempeño basado en los resultados del AFM (IAFM), índice que considera la estructura interna de los indicadores que conforman las dimensiones del sistema de indicadores de gestión de las IES.
Los resultados indican que, en términos generales, las universidades que exhiben más debilidades son: Pacifico, Chocó, UFPS-Ocaña, Guajira, Cesar, Amazonía, Sucre, Llanos, Pamplona y Cundinamarca.
Los resultados muestran que la dimensión Acceso es la más multidimensional, seguido por Calidad y Logro, siendo el más homogéneo el grupo Recursos.
El mejor desempeño en las variables de la dimensión Logro lo tiene la Universidad Nacional de Colombia (UNAL), seguida por Universidad de Antioquia (UDEA). El mejor desempeño en la dimensión Calidad lo posee la Universidad Nacional Abierta y a Distancia (UNAD), mientras que la Universidad Pedagógica Nacional tiene el mejor desempeño en Acceso, y el segundo mejor desempeño en Calidad (compartido con la Universidad Militar). / [CA] L'establiment d'estratègies i plans de millora de tot sistema ha d'abordar com a primera instància el coneixement de l'estat actual d'aquest, la qual cosa s'aconsegueix mitjançant la formulació, estudi i anàlisi dels indicadors de gestió de les dimensions considerades importants per a l'assoliment dels objectius, això també és totalment cert en el Sistema Universitari Estatal (SUE) colombià. En aquest context, els resultats de les Institucions d'Educació Superior (IES) estan entre els desafiaments i reptes que té el sistema educatiu a Colòmbia.
Amb el present treball es pretén realitzar una anàlisi comparativa de l'estat actual de les IES públiques colombianes, per a això es duu a terme un estudi d'eficiència mitjançant l'Anàlisi Envolupant de Dades (DEA), seguidament es fa una proposta de reestructuració del sector educatiu superior públic colombià mitjançant la implementació de l'Anàlisi Envolupant de Dades Invers en combinació amb Algorismes Genètics (InvDEA - AG) a través de la identificació de possibles fusions entre IES ineficients en una única nova IES resultant, de manera que aquesta última posseïsca un cert nivell d'eficiència tècnica preestablit, també es realitza una caracterització de les mateixes mitjançant l'estudi dels indicadors de resultats establits en l'Índex de Progrés de l'Educació Superior (IPES) desenvolupat pel Ministeri d'Educació Nacional de Colòmbia utilitzant com a eina l'Anàlisi Factorial Múltiple (AFM), i finalment es proposa un Índex Sintètic d'Acompliment basat en els resultats del AFM (IAFM), índex que considera l'estructura interna dels indicadors que conformen les dimensions del sistema d'indicadors de gestió de les IES.
Els resultats indiquen que, en termes generals, les universitats que exhibeixen més debilitats són: Pacífico, Chocó, UFPS-Ocaña, Guajira, Cesar, Amazonía, Sucre, Llanos, Pamplona i Cundinamarca.
Els resultats mostren que la dimensió Accés és la més multidimensional, seguit per Qualitat i Assoliment, i el més homogeni és Recursos.
El millor acompliment en les variables de la dimensió Assoliment ho té la Universitat Nacional de Colòmbia (UNAL), seguida per Universitat de Antioquia (UDEA). El millor acompliment en la dimensió Qualitat el posseeix la Universitat Nacional Oberta i a Distància (UNAD), mentre que la Universitat Pedagògica Nacional té el millor acompliment en Accés, i el segon millor acompliment en Qualitat (compartit amb la Universitat Militar). / [EN] The establishment of strategies and plans for the improvement of any system should address as a first instance the knowledge of the current state of the same, which is achieved through the formulation, study and analysis of performance indicators of the dimensions considered important for the achievement of objectives, this is also totally true in the Colombian State University System (SUE). In this context, the results of the Higher Education Institutions (HEIs) are among the challenges that the education system has in Colombia.
This work intends to carry out a comparative analysis of the current state of Colombian public HEIs. To do this, an efficiency study was first carried out using the Data Envelope Analysis (DEA), then a proposal is made to restructure Higher Public Education Sector in Colombia through the implementation of the Inverse Data Envelopment Analysis in combination with Genetic Algorithms (InvDEA -GA) by identifying possible mergers between inefficient HEI in a single resulting new HEI so that the latter fulfill a global predefined efficiency. In a third stage, a characterization of them is carried out by studying the outcome indicators established in the Progress Index of Higher Education (IPES) developed by the Ministry of National Education of Colombia through Multiple Factor Analysis (MFA) as tool, and finally, a Synthetic Performance Index based on the results of the MFA (IMFA) is proposed, index that considers the internal structure of the indicators that compose the dimensions of the system of indicators of HEIs in Colombia.
The results indicate that, in general terms, the universities that exhibit the most weaknesses are: Pacifico, Chocó, UFPS-Ocaña, Guajira, Cesar, Amazonía, Sucre, Llanos, Pamplona y Cundinamarca.
The results show that the Access dimension is the most multidimensional, followed by Quality and Achievement, and the most homogeneous is Resources.
The best performance in the variables of the Achievement dimension is the Universidad Nacional de Colombia (UNAL), followed by the Universidad de Antioquia (UDEA). The best performance in the Quality dimension is held by the Universidad Nacional Abierta y a Distancia (UNAD), while the Universidad Pedagógica Nacional has the best performance in Access, and the second best performance in Quality (shared with the Universidad Militar Nueva Granada). / Visbal Cadavid, DA. (2020). Aplicación del Análisis Envolvente de Datos y Análisis Factorial Múltiple en el estudio del desempeño en las instituciones de educación superior públicas en Colombia y su implicación en la distribución de los recursos [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/140089
|
68 |
Estimation of Atrial Electrical Complexity during Atrial Fibrillation by Solving the Inverse Problem of ElectrocardiographyMolero Alabau, Rubén 30 October 2023 (has links)
Tesis por compendio / [ES] La fibrilación auricular (FA) es la arritmia más prevalente en el mundo y está asociada con una
elevada morbilidad, mortalidad y costes sanitarios. A pesar de los avances en opciones de
tratamiento farmacológico y terapia de ablación, el manejo de la FA todavía tiene margen de
mejora. La imagen electrocardiográfica (ECGI) se ha destacado como un prometedor método no
invasivo para evaluar la electrofisiología cardíaca y guiar las decisiones terapéuticas en casos de
fibrilación auricular. No obstante, el ECGI se enfrenta a desafíos como la necesidad de resolver
de manera precisa el denominado problema inverso de la electrocardiografía y de optimizar la
calidad de las reconstrucciones de ECGI. Además, la integración del ECGI en los procesos
clínicos rutinarios sigue siendo un reto, en gran medida debido a los costos que supone la
necesidad de imágenes cardíacas.
Por ello, los objetivos principales de esta tesis doctoral son impulsar la tecnología ECGI
mediante la determinación de sus requisitos técnicos mínimos y la mejora de las metodologías
existentes para obtener señales de ECGI precisas. Asimismo, buscamos evaluar la capacidad de
ECGI para cuantificar de forma no invasiva la complejidad de la FA. Para lograr estos objetivos,
se han llevado a cabo diversos estudios a lo largo de la tesis, desde el perfeccionamiento del ECGI
hasta la evaluación de la FA utilizando esta tecnología.
En primer lugar, se han estudiado los requisitos geométricos y de señal del problema inverso
mediante el estudio de los efectos de la densidad de la malla del torso y la distribución de
electrodos en la precisión del ECGI, lo que ha conducido a la identificación del número mínimo
de nodos y su distribución en la malla del torso. Además, hemos identificado que para obtener
señales de ECGI de alta calidad, es crucial la correcta disposición de los electrodos en la malla
del torso reconstruido. Asimismo, se ha definido y evaluado una nueva metodología de ECGI sin
necesidad de usar técnicas de imagen cardiaca. Para ello, hemos comparado métricas derivadas
del ECGI calculadas con la geometría original del corazón de los pacientes con las métricas
medidas en diferentes geometrías cardíacas. Nuestros resultados han mostrado que el ECGI sin
necesidad de imágenes cardíacas es efectivo para la correcta cuantificación y localización de los
patrones y zonas que mantienen la FA. En paralelo, hemos optimizado la regularización de
Tikhonov de orden cero actual y la optimización de la curva L para el cálculo de las señales ECGI,
investigando cómo el ruido eléctrico y las incertidumbres geométricas influyen en la
regularización. A partir de ello, propusimos un nuevo criterio que realza la precisión de las
soluciones de ECGI en escenarios con incertidumbre debido a condiciones de señal no ideales.
En segundo lugar, en esta tesis doctoral, se han llevado a cabo múltiples análisis relativos a
diferentes metodologías de procesado de señales y obtención métricas derivadas del ECGI con el
fin de caracterizar mejor el sustrato cardíaco y la actividad reentrante en las señales de ECGI de
pacientes con FA. Con el objetivo de obtener una comprensión más profunda de los mecanismos
electrofisiológicos subyacentes a la FA, hemos establecido la estrategia de filtrado óptima para
extraer patrones reentrantes específicos del paciente y métricas derivadas de señales ECGI.
Además, hemos investigado la reproducibilidad de los mapas de reentradas derivados de las
señales de ECGI y hemos encontrado su relación con el éxito de la ablación de venas pulmonares
(PVI). Nuestros resultados han mostrado que una mayor reproducibilidad en los patrones
reentrantes de FA detectados con ECGI está relacionada con el éxito de la PVI, creando una
metodología para estratificar a los pacientes con FA antes de los procedimientos de ablación. / [CA] La fibril·lació auricular (FA) és l'arrítmia més prevalent al món i està associada amb una elevada
morbiditat, mortalitat i costos sanitaris. Malgrat els avanços en opcions de tractament
farmacològic i teràpies d'ablació, el maneig de la FA encara té marge de millora. La imatge
electrocardiogràfica (ECGI) s'ha destacat com un prometedor mètode no invasiu per a avaluar
l'electrofisiologia cardíaca i guiar les decisions terapèutiques en casos de fibril·lació auricular. No
obstant això, l'ECGI s'enfronta a desafiaments com la necessitat de resoldre de manera precisa el
denominat problema invers de la electrocardiografia i d'optimitzar la qualitat de les
reconstruccions de ECGI. A més, la integració del ECGI en els processos clínics rutinaris continua
sent un repte, en gran manera a causa dels costos que suposa la necessitat d'imatges cardíaques.
Per això, els objectius principals d'aquesta tesi doctoral són impulsar la tecnologia de l'ECGI
mitjançant la determinació dels seus requisits tècnics mínims i la millora de les metodologies
existents per obtenir senyals d'ECGI precises. A més, busquem avaluar la capacitat de l'ECGI per
quantificar de forma no invasiva la complexitat de la FA. Per a aconseguir aquests objectius, s'han
dut a terme diversos estudis al llarg de la tesi, des del perfeccionament de l'ECGI fins a l'avaluació
de la FA utilitzant aquesta tecnologia.
En primer lloc, hem estudiat els requisits geomètrics i de senyal del problema invers mitjançant
l'estudi dels efectes de la densitat de la malla del tors i la distribució d'elèctrodes en la precisió de
l'ECGI, el que ha conduït a la identificació del nombre mínim de nodes i la seva distribució en la
malla del tors. A més, hem identificat que per obtindre senyals d'ECGI d'alta qualitat, és crucial
la correcta disposició dels elèctrodes en la malla del tors reconstruïda. També s'ha definit i avaluat
una nova metodologia d'ECGI sense necessitat d'utilitzar tècniques d'imatge cardíaca. Per a això,
hem comparat mètriques derivades de l'ECGI calculades amb la geometria original del cor dels
pacients amb les mètriques mesurades en diferents geometries cardíaques. Els nostres resultats
han mostrat que l'ECGI sense necessitat d'imatges cardíaques és efectiu per a la correcta quantificació
i localització dels patrons i zones que mantenen la FA. Paral·lelament, hem
optimitzat la regularització de Tikhonov d'ordre zero actual i l'optimització de la corba L per al
càlcul de les senyals d'ECGI, investigant com el soroll elèctric i les incerteses geomètriques
influeixen en la regularització. Addicionalment, vam proposar un nou criteri que reforça la
precisió de les solucions d'ECGI en escenaris amb incertesa degut a condicions de senyal no
ideals.
En segon lloc, en aquesta tesi doctoral, s'han dut a terme múltiples anàlisis relatius a diferents
metodologies de processament de senyals i obtenció de mètriques derivades de l'ECGI amb
l'objectiu de caracteritzar millor el substrat cardíac i l'activitat reentrant en les senyals d'ECGI de
pacients amb FA. Amb l'objectiu d'obtindre una comprensió més profunda dels mecanismes
electrofisiològics subjacents a la FA, hem establert l'estratègia de filtrat òptima per extreure
patrons reentrants específics del pacient i mètriques derivades de senyals ECGI. A més, hem
investigat la reproductibilitat dels mapes de reentrades derivats de les senyals d'ECGI i hem trobat
la seva relació amb l'èxit de l'ablació de venes pulmonars (PVI). Els nostres resultats han mostrat
que una major reproductibilitat en els patrons reentrants de FA detectats amb ECGI està
relacionada amb l'èxit de la PVI, creant una metodologia per estratificar els pacients amb FA abans
dels procediments d'ablació. / [EN] Atrial fibrillation (AF) is the most prevalent arrhythmia in the world and is associated with
significant morbidity, mortality, and healthcare costs. Despite advancements in pharmaceutical
treatment alternatives and ablation therapy, AF management remains suboptimal.
Electrocardiographic Imaging (ECGI) has emerged as a promising non-invasive method for
assessing cardiac electrophysiology and guiding therapeutic decisions in atrial fibrillation.
However, ECGI faces challenges in dealing with accurately resolving the ill-posed inverse
problem of electrocardiography and optimizing the quality of ECGI reconstructions. Additionally,
the integration of ECGI into clinical workflows is still a challenge that is hindered by the
associated costs arising from the need for cardiac imaging.
For this purpose, the main objectives of this PhD thesis are to advance ECGI technology by
determining the minimal technical requirements and refining existing methodologies for
acquiring accurate ECGI signals. In addition, we aim to assess the capacity of ECGI for noninvasively
quantifying AF complexity. To fulfill these objectives, several studies were developed
throughout the thesis, advancing from ECGI enhancement to AF evaluation using ECGI.
Firstly, geometric and signal requirements of the inverse problem were addressed by studying
the effects of torso mesh density and electrode distribution on ECGI accuracy, leading to the
identification of the minimal number of nodes and their distribution on the torso mesh. Besides,
we identified that the correct location of the electrodes on the reconstructed torso mesh is critical
for the accurate ECGI signal obtention. Additionally, a new methodology of imageless ECGI was
defined and assessed by comparing ECGI-derived drivers computed with the original heart
geometry of the patients to the drivers measured in different heart geometries. Our results showed
the ability of imageless ECGI to the correct quantification and location of atrial fibrillation
drivers, validating the use of ECGI without the need for cardiac imaging. Also, the current state
of-the-art zero-order Tikhonov regularization and L-curve optimization for computing ECGI
signals were improved by investigating the impact of electrical noise and geometrical
uncertainties on the regularization. We proposed a new criterion that enhances the accuracy and
reliability of ECGI solutions in situations with uncertainty from unfavorable signal conditions.
Secondly, in this PhD thesis, several analyses, signal processing methodologies, and ECGIderived
metrics were investigated to better characterize the cardiac substrate and reentrant activity
in ECGI signals from AF patients. With the objective of obtaining a deeper understanding of the
electrophysiological mechanisms underlying AF, we established the optimal filtering strategy to
extract patient-specific reentrant patterns and derived metrics in ECGI signals. Furthermore, we
investigated the reproducibility of the obtained ECGI-reentrant maps and linked them to the
success of PVI ablation. Our results showed that higher reproducibility on AF drivers detected
with ECGI is linked with the success of PVI, creating a proof-of-concept mechanism for
stratifying AF patients prior to ablation procedures. / This work was supported by: Instituto de Salud Carlos III, and Ministerio de Ciencia e
Innovación (supported by FEDER Fondo Europeo de Desarrollo Regional DIDIMO PLEC2021-
007614, ESSENCE PID2020-119364RB-I00, and RYC2018- 024346B-750), EIT Health
(Activity code SAVE-COR 220385, EIT Health is supported by EIT, a body of the European
Union) and Generalitat Valenciana Conselleria d’Educació, Investigació, Cultura i Esport
(ACIF/2020/265 and BEFPI/2021/062). / Molero Alabau, R. (2023). Estimation of Atrial Electrical Complexity during Atrial Fibrillation by Solving the Inverse Problem of Electrocardiography [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/199029 / Compendio
|
69 |
Sedimentary provenance and low-temperature thermochronology from northwestern Colombia: a record of the Neogene transition from Panama collision to Nazca subduction controlled tectonics / not availableVasco, Santiago León 29 May 2017 (has links)
A ocorrência de uma grande reorganização de placas durante o Neógeno reflete a comlpexa interação entre as placas do Caribe, Farallon, e América do Sul, e o arco intra-oceânico de Panamá. Isto, tem influenciado o registro tectono-estratigráfico dos Andes nor-ocidentais da Colômbia, o qual tem sido escassamente estudado perto da sutura entre os domínios de Panamá o da América do Sul. Novos dados de petrografia de arenitos, análises de minerais densos, geocronologia detrítica em zircão, geoquímica de rocha total, e modelamento termal inverso de múltiplos termocronômetros, realizados em um transepto de 50 km com direção SE-NW, permitem reconstruir a história de deformação e exumação/erosão das rochas do Cretáceo Superior ao Plioceno do flanco ocidental da Cordilheira Ocidental. O início da exumação das rochas do Cretáceo Superior associadas com a margem continental Sul-americana, ocorreu entre 45 e 20 Ma, o qual é sugerido pelo resfriamento inicial desde temperaturas dentro da zona de retenção parcial do hélio em zircão (~180-200°C). Essas rochas, também sofreram um pulso de exumação considerável durante o Mioceno Médio, o qual caracteriza-se por taxas moderadamente rápidas entre 0.3 km/my e 0.7 km/my. Adicionalmente, um período de resfriamento rápido também é documentado com taxas máximas de exumação ~1.3 km/my. As rochas do Eoceno Médio do arco oceânico de Panamá, as quais estão separadas das rochas do Cretáceo Superior da Cordilheira Ocidental por uma faixa de deformação, registram um resfriamento inicial em ~15 Ma desde a zona de retenção parcial de hélio em apatita (APRZ, ~80-60°C, com taxas perto de 0.6 km/my. Termocronologia detrítica em secuências pós-colisionais e sedimentos modernos, também registram estes períodos de exumação. Os novos resultados podem ser relacionados com processos tectônicos de escala regional, que incluem: Convergência rápida e frontal no Oligoceno Superior, entre a recentemente formada placa de Nazca e a placa continental Sul-americana, depois da fragmentação da antiga placa de Farallon, a colisão do Arco de Panamá do Cretáceo Superior-Eoceneo durante o Mioceno Médio, o qual resultou exumação geral ao longo do segmento NW da placa Sul-americana, é o início da subducção da placa de Nazca é a instalação de um segmento plano ao norte durante o Mioceno Superior-Plioceno. Este é provavelmente o mecanismo responsável pelo soerguimento da superfície recente na Colômbia nor-oriental e a contínua deformação-soerguimento das serras costeiras ocidentais e das bacias orientais de foreland ao norte de 5°N. / The occurrence of major plate reorganization during the Neogene, reflects the complex interactions between the Caribbean, Farallon and South-American plates, and the Panama Arc. These, have influenceed the tectono-stratigraphic record of the northwestern Colombian Andes, which has been scarcely studied neart the suture between the Panama and South-American domains. New sandstone petrography, heavy minerals analyses, U-Pb detrital zircon geochronology, whole-rock geochemical data, and thermal inverse modeling of multiple thermochronometers, carried along a 50 km southeast-northwest transect, allow to reconstruct the deformation and exhumation/erosional history of the Late Cretaceous to Pliocene rocks from the western flank of the Western Cordillera. The onset of exhumation of Late Cretaceous sedimentary rocks, associated with the South-American margin, occurred between 45-20 Ma, as suggested by the initial cooling from temperatures within the zircon helium partial retention zone (ZPRZ, ~180-200°C). These rocks also experienced a substantial pulse of exhumation during the Middle Miocene, which is characterized by moderately rapid rates between ~0.3 km/my and 0.7 km/my. Moreover, a Pliocene period of rapid cooling is also documented with maximum exhumation rates of ~1.3 km/my. The Middle Eocene rocks from the intra-oceanic Panama Arc, which are separated by a highly-deformed zone from the Late Cretaceous rocks of the Western Cordillera, record an initial cooling at ca. 15 Ma from the apatite partial retention zone (APRZ, ~80-60°C) at rates around 0.6 km/my. Detrital thermochronology of post-collisional sequences and modern river sediments also record these exhumation events. The we results can be related to more regional-scale tectonic processes including: the Late Oligocene rapid and frontal convergence between the newly formed Nazca plate and the continental South-American plate following the fragmentation of the former Farallon plate, the Middle Miocene collision of the Cretaceous-Eocene Panama Arc that triggered generalized exhumation-deformation widespread in the upper NW South-American plate, and the Middle to Late Miocene initiation of the Nazca subduction and installation of a Late Miocene-Pliocene flat-slab to the north. The latter is likely to represent the mechanism that triggered surface uplift in eastern Colombia and ongoing uplift-deformation of western coastal ranges and eastern foreland basins north of 5°N
|
70 |
[en] ESTIMATIVE OF PARAMETERS USED IN A MULTIMEDIA ENVIRONMENTAL MODEL: APPLICATION TO GUANABARA BAY / [pt] ESTIMATIVA DE PARÂMETROS USADOS EM UM MODELO DE MULTIMEIOS: APLICAÇÃO NA BAÍA DE GUANABARAMARIELLA JANETTE B TITO 06 January 2004 (has links)
[pt] O tratamento de ambientes contaminados e a elaboração de programas de monitoramento requerem estimativas dos níveis de concentrações das substâncias,bem como um conhecimento de seu destino, taxa de transporte e tempos de residência. Na ausência de dados obtidos através de monitoramento, modelos ambientais constituem freqüentemente o único modo capaz de prever as concentrações aproximadas
dos contaminantes nos compartimentos (meios) que formam o ambiente. A aplicação do modelo ambiental de multimeios Quantitative Water Air Sediment Interaction (QWASI) a um determinado ambiente exige conhecer parâmetros relacionados à área em estudo e aos contaminantes. Para o caso da Baía de Guanabara, muitos desses parâmetros não estão disponíveis. Desse modo, eles serão aproximados com
técnicas do problema inverso a partir das concentrações de contaminantes medidas no sedimento e no mexilhão perna-perna. Entre os parâmetros estimados estão as emissões de 10 hidrocarbonetos policíclicos aromáticos (HPAs) nas águas da Baía de Guanabara. Este trabalho também apresenta simulações da evolução da concentração de alguns hidrocarbonetos em função do tempo considerando uma emissão inicial de um HPA em um ponto arbitrário da Baía de Guanabara. / [en] The treatment of polluted environments and the elaboration of monitoring programs request estimates of the levels of concentrations of the substances, as well as a knowledge of its destiny, rates of transport and times of residence. In the absence of data obtained through monitoring, environmental models often provide the only way to predict the approximate concentrations of the pollutants in the compartments (media) that form the environmental. The application of the multimedia environmental model Quantitative Water Air Sediment Interaction (QWASI) to a certain environment demands the knowledge of parameters related to the area in study and to the pollutants. For the case of the Guanabara Bay, many of those parameters are not available. Therefore, they will be approximated with inverse problem techniques starting from the measured concentrations of pollutants in the sediment and in the mussel perna-perna.
Among the estimated parameters are the emissions of 10 polycyclic aromatic hydrocarbons (PAHs) in the waters of the Guanabara Bay. This work also presents simulations of the evolution of the concentration of some hydrocarbons infunction of the time considering an initial emission of a PAH in an arbitrary point of the Guanabara Bay.
|
Page generated in 0.0785 seconds