• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 170
  • 98
  • 66
  • 16
  • 11
  • 5
  • 2
  • 2
  • Tagged with
  • 392
  • 392
  • 136
  • 55
  • 54
  • 54
  • 53
  • 45
  • 39
  • 38
  • 34
  • 32
  • 31
  • 31
  • 30
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
201

[es] ESTUDIO NUMÉRICO DE LA ESTIMACIÓN DE PARÁMETROS HIDRÁULICOS EN SUELOS PARCIALMENTE SATURADOS / [pt] ESTUDO NUMÉRICO DA ESTIMATIVA DE PARÂMETROS HIDRÁULICOS EM SOLOS PARCIALMENTE SATURADOS / [en] NUMERICAL ESTIMATION OF HYDRAULIC PARAMETERS IN PARTIALLY SATURATED SOILS

RAQUEL QUADROS VELLOSO 30 July 2001 (has links)
[pt] A análise de fluxo em solos parcialmente saturados exige o conhecimento das propriedades hidráulicas do solo: a curva característica, q(y), e a curva de permeabilidade, k(y). Entre os problemas geotécnicos que envolvem fluxo em meios parcialmente saturados pode-se citar a instabilização de encostas, muitas vezes associada a variações de sucção, e o transporte de contaminantes, pois, freqüentemente, a fonte contaminante está acima do nível d`água. O principal objetivo deste trabalho é a implementação numérica de um programa, baseado num código de elementos finitos, para a realização da retroanálise de parâmetros de fluxo em solos parcialmente saturados a partir de ensaios de campo, e que forneça também informações sobre a qualidade da estimativa obtida. O método de retroanálise utilizado permite a determinação simultânea da curva característica e da curva de permeabilidade a partir de dados de fluxo transiente. O programa desenvolvido foi utilizado para determinar os parâmetros de fluxo de um ensaio realizado no campo experimental II da PUC - Rio. Com base na análise dos resultados obtidos neste ensaio e na análise de sensibilidade foi proposto um ensaio de configuração mais simples que pode fornecer resultados satisfatórios na determinação das propriedades hidráulicas de solos parcialmente saturados. / [en] Flow analysis in partially saturated soils requires the determination of soil hydraulic properties: its characteristic curve, q(y), and its permeability curve k (y). The instabilization of slopes, often associated with suction variations, and the transport of contaminants, where the source of contaminants is often above water leve, are some of the geotechnical problems involving flows in partially saturated media. The main objective of this work is the numerical implementation of a program, based on finite element coding, for the back analysis of flow parameters in partially saturated soils, based on field experiments, capable of providing information on the quality of the estimates obtained. The back analysis method used here allows the simultaneous determination of the characteristic and permeability curves from transient flow data. The program was used to determine flow parameters of a field experiment conducted in Experimental Field II (PUC- Rio). A simpler configuration test is proposed based on the analysis of the results obtained in this field experiment and on a sensitivity analysis. This test may provide satisfactory results in the determination of hydraulic properties of partially saturated soils. / [es] El análisis de flujo en suelos parcialmente saturados exige el conocimiento de las propiedades hidráulicas del suelo: la curva característica, q(y), y la curva de permeabilidade, k(y). Entre los problemas geotécnicos que consideran flujos en medios parcialmente saturados se puede citar la inestabilidad de pendientes, muchas veces asociada a la variaciones de succión; y el transporte de contaminantes, ya que frecuentemente la fuente contaminante está encima del nível de agua. El principal objetivo de este trabajo es la implementación numérica de un programa, basado en un código de elementos finitos, para la realización del retroanálisis de parámetros de flujo en suelos parcialmente saturados a partir de ensayos de campo, y que brinde también informaciones sobre la calidad de la estimatición obtenida. El método de retroanálisis utilizado permite la determinación simultánea de la curva característica y de la curva de permeabilidad a partir de datos de flujo transitorio. El programa desarrollado fue utilizado para determinar los parámetros de flujo de un ensayo realizado en el campo experimental II de la PUC - Rio. Analizando los resultados obtenidos en este ensayo y el análisis de sensibilidad, se propone un ensayo de configuración más simple que puede dar resultados satisfactorios en la determinación de las propiedades hidráulicas de suelos parcialmente saturados.
202

Electrical Capacitance Volume Tomography Of High Contrast Dielectrics Using A Cuboid Geometry

Nurge, Mark 01 January 2007 (has links)
An Electrical Capacitance Volume Tomography system has been created for use with a new image reconstruction algorithm capable of imaging high contrast dielectric distributions. The electrode geometry consists of two 4 x 4 parallel planes of copper conductors connected through custom built switch electronics to a commercially available capacitance to digital converter. Typical electrical capacitance tomography (ECT) systems rely solely on mutual capacitance readings to reconstruct images of dielectric distributions. This dissertation presents a method of reconstructing images of high contrast dielectric materials using only the self capacitance measurements. By constraining the unknown dielectric material to one of two values, the inverse problem is no longer ill-determined. Resolution becomes limited only by the accuracy and resolution of the measurement circuitry. Images were reconstructed using this method with both synthetic and real data acquired using an aluminum structure inserted at different positions within the sensing region. Comparisons with standard two dimensional ECT systems highlight the capabilities and limitations of the electronics and reconstruction algorithm.
203

Technical Improvements in Quantitative Susceptibility Mapping

Liu, Saifeng 04 1900 (has links)
<p>Quantitative susceptibility mapping (QSM) is a promising technique to study tissue properties and function <em>in vivo</em>. The presence of a susceptibility source will lead to a non-local field variation which manifests as a non-local behavior in magnetic resonance phase images. QSM is an ill-posed inverse problem that maps the phase back to the susceptibility source. In practice, the phase images are usually contaminated by background field inhomogeneities. In this thesis, several technical advances in QSM have been made which accelerate the data processing and improve the accuracy of this ill-posed problem. For background field removal, the local spherical mean value filtering (LSMV) is proposed, in which the global phase unwrapping is bypassed. This algorithm improves the time-efficiency and robustness of background field removal. For solving the inverse problem, an improved version of the k-space/image domain iterative algorithm is demonstrated using multi-level thresholding to account for the variation in the susceptibilities of different structures in the brain. The susceptibility maps could be used to generate orientation independent weighting masks, to form a new type of susceptibility weighted image (SWI), referred to here as true-SWI (tSWI). The tSWI data show improved contrast-to-noise ratio (CNR) of the veins and reduced blooming artefacts of the microbleeds. Finally, it is shown that the effective magnetic moment, being the product of the apparent volume and the measured susceptibility of the small object, is constant. This can be used to improve the susceptibility quantification, if <em>a priori</em> information of the volume is available.</p> / Doctor of Philosophy (PhD)
204

On Generalized Solutions to Some Problems in Electromagnetism and Geometric Optics

Stachura, Eric Christopher January 2016 (has links)
The Maxwell equations of electromagnetism form the foundation of classical electromagnetism, and are of interest to mathematicians, physicists, and engineers alike. The first part of this thesis concerns boundary value problems for the anisotropic Maxwell equations in Lipschitz domains. In this case, the material parameters that arise in the Maxwell system are matrix valued functions. Using methods from functional analysis, global in time solutions to initial boundary value problems with general nonzero boundary data and nonzero current density are obtained, only assuming the material parameters are bounded and measurable. This problem is motivated by an electromagnetic inverse problem, similar to the classical Calder\'on inverse problem in Electrical Impedance Tomography. The second part of this thesis deals with materials having negative refractive index. Materials which possess a negative refractive index were postulated by Veselago in 1968, and since 2001 physicists were able to construct these materials in the laboratory. The research on the behavior of these materials, called metamaterials, has been extremely active in recent years. We study here refraction problems in the setting of Negative Refractive Index Materials (NIMs). In particular, it is shown how to obtain weak solutions (defined similarly to Brenier solutions for the Monge-Amp\`ere equation) to these problems, both in the near and the far field. The far field problem can be treated using Optimal Transport techniques; as such, a fully nonlinear PDE of Monge-Amp\`ere type arises here. / Mathematics
205

Understanding and Exploiting Wind Tunnels with Porous Flexible Walls for Aerodynamic Measurement

Brown, Kenneth Alexander 01 November 2016 (has links)
The aerodynamic behavior of wind tunnels with porous, flexible walls formed from tensioned Kevlar has been characterized and new measurement techniques in such wind tunnels explored. The objective is to bring the aerodynamic capabilities of so-called Kevlar-wall test sections in-line with those of traditional solid-wall test sections. The primary facility used for this purpose is the 1.85-m by 1.85-m Stability Wind Tunnel at Virginia Tech, and supporting data is provided by the 2-m by 2-m Low Speed Wind Tunnel at the Japanese Aerospace Exploration Agency, both of which employ Kevlar-wall test sections that can be replaced by solid-wall test sections. The behavior of Kevlar fabric, both aerodynamically and mechanically, is first investigated to provide a foundation for calculations involving wall interference correction and determination of the boundary conditions at the Kevlar wall. Building upon previous advancements in wall interference corrections for Kevlar-wall test sections, panel method codes are then employed to simulate the wind tunnel flow in the presence of porous, flexible Kevlar walls. An existing two-dimensional panel method is refined by examining the dependency of correction performance on key test section modeling assumptions, and a novel three-dimensional method is presented. Validation of the interference corrections, and thus validation of the Kevlar-wall aerodynamic performance, is accomplished by comparing aerodynamic coefficients between back-to-back tests of models carried out in the solid- and Kevlar-wall test sections. Analysis of the test results identified the existence of three new mechanisms by which Kevlar walls cause wall-interference. Additionally, novel measurements of the boundary conditions are made during the Kevlar-wall tests to characterize the flow at the boundary. Specifically, digital image correlation is used to measure the global deformation of the Kevlar walls under wind loading. Such data, when used in conjunction with knowledge of the pre-tension in the Kevlar wall and the material properties of the Kevlar, yields the pressure loading experienced by the wall. The pressure loading problem constitutes an inverse problem, and significant effort is made towards overcoming the ill-posedness of the problem to yield accurate wall pressure distributions, as well as lift measurements from the walls. Taken as a whole, this document offers a comprehensive view of the aerodynamic performance of Kevlar-wall test sections. / Ph. D.
206

Computational methods for random differential equations: probability density function and estimation of the parameters

Calatayud Gregori, Julia 05 March 2020 (has links)
[EN] Mathematical models based on deterministic differential equations do not take into account the inherent uncertainty of the physical phenomenon (in a wide sense) under study. In addition, inaccuracies in the collected data often arise due to errors in the measurements. It thus becomes necessary to treat the input parameters of the model as random quantities, in the form of random variables or stochastic processes. This gives rise to the study of random ordinary and partial differential equations. The computation of the probability density function of the stochastic solution is important for uncertainty quantification of the model output. Although such computation is a difficult objective in general, certain stochastic expansions for the model coefficients allow faithful representations for the stochastic solution, which permits approximating its density function. In this regard, Karhunen-Loève and generalized polynomial chaos expansions become powerful tools for the density approximation. Also, methods based on discretizations from finite difference numerical schemes permit approximating the stochastic solution, therefore its probability density function. The main part of this dissertation aims at approximating the probability density function of important mathematical models with uncertainties in their formulation. Specifically, in this thesis we study, in the stochastic sense, the following models that arise in different scientific areas: in Physics, the model for the damped pendulum; in Biology and Epidemiology, the models for logistic growth and Bertalanffy, as well as epidemiological models; and in Thermodynamics, the heat partial differential equation. We rely on Karhunen-Loève and generalized polynomial chaos expansions and on finite difference schemes for the density approximation of the solution. These techniques are only applicable when we have a forward model in which the input parameters have certain probability distributions already set. When the model coefficients are estimated from collected data, we have an inverse problem. The Bayesian inference approach allows estimating the probability distribution of the model parameters from their prior probability distribution and the likelihood of the data. Uncertainty quantification for the model output is then carried out using the posterior predictive distribution. In this regard, the last part of the thesis shows the estimation of the distributions of the model parameters from experimental data on bacteria growth. To do so, a hybrid method that combines Bayesian parameter estimation and generalized polynomial chaos expansions is used. / [ES] Los modelos matemáticos basados en ecuaciones diferenciales deterministas no tienen en cuenta la incertidumbre inherente del fenómeno físico (en un sentido amplio) bajo estudio. Además, a menudo se producen inexactitudes en los datos recopilados debido a errores en las mediciones. Por lo tanto, es necesario tratar los parámetros de entrada del modelo como cantidades aleatorias, en forma de variables aleatorias o procesos estocásticos. Esto da lugar al estudio de las ecuaciones diferenciales aleatorias. El cálculo de la función de densidad de probabilidad de la solución estocástica es importante en la cuantificación de la incertidumbre de la respuesta del modelo. Aunque dicho cálculo es un objetivo difícil en general, ciertas expansiones estocásticas para los coeficientes del modelo dan lugar a representaciones fieles de la solución estocástica, lo que permite aproximar su función de densidad. En este sentido, las expansiones de Karhunen-Loève y de caos polinomial generalizado constituyen herramientas para dicha aproximación de la densidad. Además, los métodos basados en discretizaciones de esquemas numéricos de diferencias finitas permiten aproximar la solución estocástica, por lo tanto, su función de densidad de probabilidad. La parte principal de esta disertación tiene como objetivo aproximar la función de densidad de probabilidad de modelos matemáticos importantes con incertidumbre en su formulación. Concretamente, en esta memoria se estudian, en un sentido estocástico, los siguientes modelos que aparecen en diferentes áreas científicas: en Física, el modelo del péndulo amortiguado; en Biología y Epidemiología, los modelos de crecimiento logístico y de Bertalanffy, así como modelos de tipo epidemiológico; y en Termodinámica, la ecuación en derivadas parciales del calor. Utilizamos expansiones de Karhunen-Loève y de caos polinomial generalizado y esquemas de diferencias finitas para la aproximación de la densidad de la solución. Estas técnicas solo son aplicables cuando tenemos un modelo directo en el que los parámetros de entrada ya tienen determinadas distribuciones de probabilidad establecidas. Cuando los coeficientes del modelo se estiman a partir de los datos recopilados, tenemos un problema inverso. El enfoque de inferencia Bayesiana permite estimar la distribución de probabilidad de los parámetros del modelo a partir de su distribución de probabilidad previa y la verosimilitud de los datos. La cuantificación de la incertidumbre para la respuesta del modelo se lleva a cabo utilizando la distribución predictiva a posteriori. En este sentido, la última parte de la tesis muestra la estimación de las distribuciones de los parámetros del modelo a partir de datos experimentales sobre el crecimiento de bacterias. Para hacerlo, se utiliza un método híbrido que combina la estimación de parámetros Bayesianos y los desarrollos de caos polinomial generalizado. / [CA] Els models matemàtics basats en equacions diferencials deterministes no tenen en compte la incertesa inherent al fenomen físic (en un sentit ampli) sota estudi. A més a més, sovint es produeixen inexactituds en les dades recollides a causa d'errors de mesurament. Es fa així necessari tractar els paràmetres d'entrada del model com a quantitats aleatòries, en forma de variables aleatòries o processos estocàstics. Açò dóna lloc a l'estudi de les equacions diferencials aleatòries. El càlcul de la funció de densitat de probabilitat de la solució estocàstica és important per a quantificar la incertesa de la sortida del model. Tot i que, en general, aquest càlcul és un objectiu difícil d'assolir, certes expansions estocàstiques dels coeficients del model donen lloc a representacions fidels de la solució estocàstica, el que permet aproximar la seua funció de densitat. En aquest sentit, les expansions de Karhunen-Loève i de caos polinomial generalitzat esdevenen eines per a l'esmentada aproximació de la densitat. A més a més, els mètodes basats en discretitzacions mitjançant esquemes numèrics de diferències finites permeten aproximar la solució estocàstica, per tant la seua funció de densitat de probabilitat. La part principal d'aquesta dissertació té com a objectiu aproximar la funció de densitat de probabilitat d'importants models matemàtics amb incerteses en la seua formulació. Concretament, en aquesta memòria s'estudien, en un sentit estocàstic, els següents models que apareixen en diferents àrees científiques: en Física, el model del pèndol amortit; en Biologia i Epidemiologia, els models de creixement logístic i de Bertalanffy, així com models de tipus epidemiològic; i en Termodinàmica, l'equació en derivades parcials de la calor. Per a l'aproximació de la densitat de la solució, ens basem en expansions de Karhunen-Loève i de caos polinomial generalitzat i en esquemes de diferències finites. Aquestes tècniques només són aplicables quan tenim un model cap avant en què els paràmetres d'entrada tenen ja determinades distribucions de probabilitat. Quan els coeficients del model s'estimen a partir de les dades recollides, tenim un problema invers. L'enfocament de la inferència Bayesiana permet estimar la distribució de probabilitat dels paràmetres del model a partir de la seua distribució de probabilitat prèvia i la versemblança de les dades. La quantificació de la incertesa per a la resposta del model es fa mitjançant la distribució predictiva a posteriori. En aquest sentit, l'última part de la tesi mostra l'estimació de les distribucions dels paràmetres del model a partir de dades experimentals sobre el creixement de bacteris. Per a fer-ho, s'utilitza un mètode híbrid que combina l'estimació de paràmetres Bayesiana i els desenvolupaments de caos polinomial generalitzat. / This work has been supported by the Spanish Ministerio de Economía y Competitividad grant MTM2017–89664–P. / Calatayud Gregori, J. (2020). Computational methods for random differential equations: probability density function and estimation of the parameters [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/138396 / Premios Extraordinarios de tesis doctorales
207

Estimation of Atrial Electrical Complexity during Atrial Fibrillation by Solving the Inverse Problem of Electrocardiography

Molero Alabau, Rubén 30 October 2023 (has links)
Tesis por compendio / [ES] La fibrilación auricular (FA) es la arritmia más prevalente en el mundo y está asociada con una elevada morbilidad, mortalidad y costes sanitarios. A pesar de los avances en opciones de tratamiento farmacológico y terapia de ablación, el manejo de la FA todavía tiene margen de mejora. La imagen electrocardiográfica (ECGI) se ha destacado como un prometedor método no invasivo para evaluar la electrofisiología cardíaca y guiar las decisiones terapéuticas en casos de fibrilación auricular. No obstante, el ECGI se enfrenta a desafíos como la necesidad de resolver de manera precisa el denominado problema inverso de la electrocardiografía y de optimizar la calidad de las reconstrucciones de ECGI. Además, la integración del ECGI en los procesos clínicos rutinarios sigue siendo un reto, en gran medida debido a los costos que supone la necesidad de imágenes cardíacas. Por ello, los objetivos principales de esta tesis doctoral son impulsar la tecnología ECGI mediante la determinación de sus requisitos técnicos mínimos y la mejora de las metodologías existentes para obtener señales de ECGI precisas. Asimismo, buscamos evaluar la capacidad de ECGI para cuantificar de forma no invasiva la complejidad de la FA. Para lograr estos objetivos, se han llevado a cabo diversos estudios a lo largo de la tesis, desde el perfeccionamiento del ECGI hasta la evaluación de la FA utilizando esta tecnología. En primer lugar, se han estudiado los requisitos geométricos y de señal del problema inverso mediante el estudio de los efectos de la densidad de la malla del torso y la distribución de electrodos en la precisión del ECGI, lo que ha conducido a la identificación del número mínimo de nodos y su distribución en la malla del torso. Además, hemos identificado que para obtener señales de ECGI de alta calidad, es crucial la correcta disposición de los electrodos en la malla del torso reconstruido. Asimismo, se ha definido y evaluado una nueva metodología de ECGI sin necesidad de usar técnicas de imagen cardiaca. Para ello, hemos comparado métricas derivadas del ECGI calculadas con la geometría original del corazón de los pacientes con las métricas medidas en diferentes geometrías cardíacas. Nuestros resultados han mostrado que el ECGI sin necesidad de imágenes cardíacas es efectivo para la correcta cuantificación y localización de los patrones y zonas que mantienen la FA. En paralelo, hemos optimizado la regularización de Tikhonov de orden cero actual y la optimización de la curva L para el cálculo de las señales ECGI, investigando cómo el ruido eléctrico y las incertidumbres geométricas influyen en la regularización. A partir de ello, propusimos un nuevo criterio que realza la precisión de las soluciones de ECGI en escenarios con incertidumbre debido a condiciones de señal no ideales. En segundo lugar, en esta tesis doctoral, se han llevado a cabo múltiples análisis relativos a diferentes metodologías de procesado de señales y obtención métricas derivadas del ECGI con el fin de caracterizar mejor el sustrato cardíaco y la actividad reentrante en las señales de ECGI de pacientes con FA. Con el objetivo de obtener una comprensión más profunda de los mecanismos electrofisiológicos subyacentes a la FA, hemos establecido la estrategia de filtrado óptima para extraer patrones reentrantes específicos del paciente y métricas derivadas de señales ECGI. Además, hemos investigado la reproducibilidad de los mapas de reentradas derivados de las señales de ECGI y hemos encontrado su relación con el éxito de la ablación de venas pulmonares (PVI). Nuestros resultados han mostrado que una mayor reproducibilidad en los patrones reentrantes de FA detectados con ECGI está relacionada con el éxito de la PVI, creando una metodología para estratificar a los pacientes con FA antes de los procedimientos de ablación. / [CA] La fibril·lació auricular (FA) és l'arrítmia més prevalent al món i està associada amb una elevada morbiditat, mortalitat i costos sanitaris. Malgrat els avanços en opcions de tractament farmacològic i teràpies d'ablació, el maneig de la FA encara té marge de millora. La imatge electrocardiogràfica (ECGI) s'ha destacat com un prometedor mètode no invasiu per a avaluar l'electrofisiologia cardíaca i guiar les decisions terapèutiques en casos de fibril·lació auricular. No obstant això, l'ECGI s'enfronta a desafiaments com la necessitat de resoldre de manera precisa el denominat problema invers de la electrocardiografia i d'optimitzar la qualitat de les reconstruccions de ECGI. A més, la integració del ECGI en els processos clínics rutinaris continua sent un repte, en gran manera a causa dels costos que suposa la necessitat d'imatges cardíaques. Per això, els objectius principals d'aquesta tesi doctoral són impulsar la tecnologia de l'ECGI mitjançant la determinació dels seus requisits tècnics mínims i la millora de les metodologies existents per obtenir senyals d'ECGI precises. A més, busquem avaluar la capacitat de l'ECGI per quantificar de forma no invasiva la complexitat de la FA. Per a aconseguir aquests objectius, s'han dut a terme diversos estudis al llarg de la tesi, des del perfeccionament de l'ECGI fins a l'avaluació de la FA utilitzant aquesta tecnologia. En primer lloc, hem estudiat els requisits geomètrics i de senyal del problema invers mitjançant l'estudi dels efectes de la densitat de la malla del tors i la distribució d'elèctrodes en la precisió de l'ECGI, el que ha conduït a la identificació del nombre mínim de nodes i la seva distribució en la malla del tors. A més, hem identificat que per obtindre senyals d'ECGI d'alta qualitat, és crucial la correcta disposició dels elèctrodes en la malla del tors reconstruïda. També s'ha definit i avaluat una nova metodologia d'ECGI sense necessitat d'utilitzar tècniques d'imatge cardíaca. Per a això, hem comparat mètriques derivades de l'ECGI calculades amb la geometria original del cor dels pacients amb les mètriques mesurades en diferents geometries cardíaques. Els nostres resultats han mostrat que l'ECGI sense necessitat d'imatges cardíaques és efectiu per a la correcta quantificació i localització dels patrons i zones que mantenen la FA. Paral·lelament, hem optimitzat la regularització de Tikhonov d'ordre zero actual i l'optimització de la corba L per al càlcul de les senyals d'ECGI, investigant com el soroll elèctric i les incerteses geomètriques influeixen en la regularització. Addicionalment, vam proposar un nou criteri que reforça la precisió de les solucions d'ECGI en escenaris amb incertesa degut a condicions de senyal no ideals. En segon lloc, en aquesta tesi doctoral, s'han dut a terme múltiples anàlisis relatius a diferents metodologies de processament de senyals i obtenció de mètriques derivades de l'ECGI amb l'objectiu de caracteritzar millor el substrat cardíac i l'activitat reentrant en les senyals d'ECGI de pacients amb FA. Amb l'objectiu d'obtindre una comprensió més profunda dels mecanismes electrofisiològics subjacents a la FA, hem establert l'estratègia de filtrat òptima per extreure patrons reentrants específics del pacient i mètriques derivades de senyals ECGI. A més, hem investigat la reproductibilitat dels mapes de reentrades derivats de les senyals d'ECGI i hem trobat la seva relació amb l'èxit de l'ablació de venes pulmonars (PVI). Els nostres resultats han mostrat que una major reproductibilitat en els patrons reentrants de FA detectats amb ECGI està relacionada amb l'èxit de la PVI, creant una metodologia per estratificar els pacients amb FA abans dels procediments d'ablació. / [EN] Atrial fibrillation (AF) is the most prevalent arrhythmia in the world and is associated with significant morbidity, mortality, and healthcare costs. Despite advancements in pharmaceutical treatment alternatives and ablation therapy, AF management remains suboptimal. Electrocardiographic Imaging (ECGI) has emerged as a promising non-invasive method for assessing cardiac electrophysiology and guiding therapeutic decisions in atrial fibrillation. However, ECGI faces challenges in dealing with accurately resolving the ill-posed inverse problem of electrocardiography and optimizing the quality of ECGI reconstructions. Additionally, the integration of ECGI into clinical workflows is still a challenge that is hindered by the associated costs arising from the need for cardiac imaging. For this purpose, the main objectives of this PhD thesis are to advance ECGI technology by determining the minimal technical requirements and refining existing methodologies for acquiring accurate ECGI signals. In addition, we aim to assess the capacity of ECGI for noninvasively quantifying AF complexity. To fulfill these objectives, several studies were developed throughout the thesis, advancing from ECGI enhancement to AF evaluation using ECGI. Firstly, geometric and signal requirements of the inverse problem were addressed by studying the effects of torso mesh density and electrode distribution on ECGI accuracy, leading to the identification of the minimal number of nodes and their distribution on the torso mesh. Besides, we identified that the correct location of the electrodes on the reconstructed torso mesh is critical for the accurate ECGI signal obtention. Additionally, a new methodology of imageless ECGI was defined and assessed by comparing ECGI-derived drivers computed with the original heart geometry of the patients to the drivers measured in different heart geometries. Our results showed the ability of imageless ECGI to the correct quantification and location of atrial fibrillation drivers, validating the use of ECGI without the need for cardiac imaging. Also, the current state of-the-art zero-order Tikhonov regularization and L-curve optimization for computing ECGI signals were improved by investigating the impact of electrical noise and geometrical uncertainties on the regularization. We proposed a new criterion that enhances the accuracy and reliability of ECGI solutions in situations with uncertainty from unfavorable signal conditions. Secondly, in this PhD thesis, several analyses, signal processing methodologies, and ECGIderived metrics were investigated to better characterize the cardiac substrate and reentrant activity in ECGI signals from AF patients. With the objective of obtaining a deeper understanding of the electrophysiological mechanisms underlying AF, we established the optimal filtering strategy to extract patient-specific reentrant patterns and derived metrics in ECGI signals. Furthermore, we investigated the reproducibility of the obtained ECGI-reentrant maps and linked them to the success of PVI ablation. Our results showed that higher reproducibility on AF drivers detected with ECGI is linked with the success of PVI, creating a proof-of-concept mechanism for stratifying AF patients prior to ablation procedures. / This work was supported by: Instituto de Salud Carlos III, and Ministerio de Ciencia e Innovación (supported by FEDER Fondo Europeo de Desarrollo Regional DIDIMO PLEC2021- 007614, ESSENCE PID2020-119364RB-I00, and RYC2018- 024346B-750), EIT Health (Activity code SAVE-COR 220385, EIT Health is supported by EIT, a body of the European Union) and Generalitat Valenciana Conselleria d’Educació, Investigació, Cultura i Esport (ACIF/2020/265 and BEFPI/2021/062). / Molero Alabau, R. (2023). Estimation of Atrial Electrical Complexity during Atrial Fibrillation by Solving the Inverse Problem of Electrocardiography [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/199029 / Compendio
208

Bayesian methods for inverse problems

Lian, Duan January 2013 (has links)
This thesis describes two novel Bayesian methods: the Iterative Ensemble Square Filter (IEnSRF) and the Warp Ensemble Square Root Filter (WEnSRF) for solving the barcode detection problem, the deconvolution problem in well testing and the history matching problem of facies patterns. For the barcode detection problem, at the expanse of overestimating the posterior uncertainty, the IEnSRF efficiently achieves successful detections with very challenging real barcode images which the other considered methods and commercial software fail to detect. It also performs reliable detection on low-resolution images under poor ambient light conditions. For the deconvolution problem in well testing, the IEnSRF is capable of quantifying estimation uncertainty, incorporating the cumulative production data and estimating the initial pressure, which were thought to be unachievable in the existing well testing literature. The estimation results for the considered real benchmark data using the IEnSRF significantly outperform the existing methods in the commercial software. The WEnSRF is utilised for solving the history matching problem of facies patterns. Through the warping transformation, the WEnSRF performs adjustment on the reservoir features directly and is thus superior in estimating the large-scale complicated facies patterns. It is able to provide accurate estimates of the reservoir properties robustly and efficiently with reasonably reliable prior reservoir structural information.
209

Contributions aux équations aux dérivées fractionnaires et au traitement d'images / Contributions to fractional differential equations and treatment of images

Malik, Salman Amin 20 September 2012 (has links)
Dans cette thèse, nous nous intéressons aux équations aux dérivées fractionnaires et leurs applications au traitement d'images. Une attention particulière a été apportée à un système non linéaire d'équations différentielles fractionnaires. En particulier, nous avons étudié les propriétés qualitatives des solutions d'un système non linéaire d'équations différentielles fractionnaires qui explosent en temps fini. L'existence des solutions locales pour le système, le profil des solutions qui explosent en temps fini sont présentés. Nous étudierons le problème inverse pour l'équation de diffusion linéaire en une dimension et en deux dimensions. Nous sommes intéressés par trouver un terme source inconnu d'une équation de diffusion non locale. Les conditions aux limites considérées sont non locales et le problème spectral est non auto-adjoint. L'existence et l'unicité de la solution du problème inverse sont présentées.D'autre part, nous proposons un modèle basé sur l'équation de la chaleur linéaire avec une dérivée fractionnaire en temps pour le débruitage d'images numériques. L'approche utilise une technique de pixel par pixel, ce qui détermine la nature du filtre. En contraste avec certain modèles basés sur les équations aux dérivées partielles pour le débruitage de l'image, le modèle proposé est bien posé et le schéma numérique est convergent. Une amélioration de notre modèle proposé est suggéré. / In this thesis we study a nonlinear system of fractional differential equations with power nonlinearities; the solution of the system blows up in a finite time. We provide the profile of the blowing-up solutions of the system by finding upper and lower estimates of the solution. Moreover, bilateral bounds on the blow-up time are given.We consider the inverse problem concerning a linear time fractional diffusion equation for the determination of the source term (supposed to be independent of the time variable) and temperature distribution from initial and final temperature data. The uniqueness and existence of the continuous solution of the inverse problem is proved. We also consider the inverse source problem for a two dimensional fractional diffusion equation. The results about the existence, uniqueness and continuous dependence of the solution of the inverse problem on the data are presented.We apply the linear heat equation involving a fractional derivative in time for denoising (simplification, smoothing, restoration or enhancement) of digital images. The order of the fractional derivative has been used for controling the diffusion process, which in result preserves the fine structures in the image during denoising process. Furthermore, an improvement in the proposed model is suggested by using the structure tensor of the images.
210

Mise en place d'une méthodologie pour l'identification de modèles d'extrapolation de température : application aux équipements de nacelles de turboréacteurs / Improved temperature extrapolation methods for powerplant systems

Úriz-Jáuregui, Fermín 07 June 2012 (has links)
Airbus réalise pour chaque avion et pour chaque équipement de nombreux essais, au sol ou en vol et doit garantir qu'en tout point de vol possible, la température de chacun des équipements reste inférieure à la température limite correspondante. Pour pouvoir valider la température de chaque équipement dans l'enveloppe de vol, il faudrait disposer d'essais réalisés aux frontières. Or, tous les essais en vol sont confrontés aux contraintes climatiques et opérationnelles qui ne permettent pas d'explorer tout le domaine. C'est pourquoi Airbus a besoin d'élaborer des méthodes d'extrapolation de température, de manière à prédire le comportement thermique des matériaux et des équipements dans les pires conditions. Les techniques proposées sont basées sur la théorie de l'identification de systèmes qui consiste à déterminer des modèles de comportement d'un point de vue heuristique à partir de mesures et considérations physiques. Plus précisément, le présent document valide les modèles ARX comme un outil pour l'identification de la température du système. Les modèles et les techniques sont étudiés, tout d'abord, d'un point de vue de la simulation numérique et après, confrontés face à des tests représentatifs au laboratoire. Les techniques proposées permettent prédire la température des composants avion pour des conditions différentes / Airbus must ensure that for all flight conditions that a given aircraft could face, the temperature of each powerplant system must be less than the corresponding critical temperature. In order to validate the temperature of each device in the flight envelope, tests at the border should be done. Airbus produces for each aircraft component many trials, either in flight or ground. However, all flight tests are faced with climatic and operational constraints which do not permit exploring the whole area. That's why Airbus needs to develop methods of extrapolation of temperature in order to predict the thermal behavior of materials and equipments in the worst conditions. The proposed techniques are based on the system identification theory which consists on heuristically determining an analytical model using physical insights and measurements. More precisely, this paper validates ARX models as a tool for the identification of the system's temperature. The models and techniques are studied, first, from a numerical simulation point of view and second, based on laboratory representative tests. The proposed techniques allow predicting the temperature of aircraft components at different conditions

Page generated in 0.0703 seconds