• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 522
  • 310
  • 129
  • 76
  • 51
  • 7
  • Tagged with
  • 1079
  • 468
  • 252
  • 194
  • 170
  • 149
  • 131
  • 125
  • 119
  • 116
  • 96
  • 90
  • 89
  • 86
  • 85
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
301

Incorporating Fresnel-Propagation into Electron Holographic Tomography

Krehl, Jonas 27 February 2017 (has links) (PDF)
Tomographic electron holography combines tomography, the reconstruction of three-dimensionally resolved data from multiple measurements with different specimen orientations, with electron holography, an interferometrical method for measuring the complex wave function inside a transmission electron microscope (TEM). Due to multiple scattering and free wave propagation conventional, ray projection based, tomography does perform badly when approaching atomic resolution. This is remedied by incorporating propagation effects into the projection while maintaining linearity in the object potential. Using the Rytov approach an approximation is derived, where the logarithm of the complex wave is linear in the potential. The ray projection becomes a convolution with a Fresnel propagation kernel, which is considerably more computationally expensive. A framework for such calculations has been implemented in Python. So has a multislice electron scattering algorithm, optimised for large fields of view and high numbers of atoms for simulations of scattering at nanoparticles. The Rytov approximation gives a remarkable increase in resolution and signal quality over the conventional approach in the tested system of a tungsten disulfide nanotube. The response to noise seems to be similar as in conventional tomography, so rather benign. This comes at the downside of much longer calculation time per iteration. / Tomographische Elektronenholographie kombiniert Tomographie, die Rekonstruktion dreidimensional aufgelößter Daten aus einem Satz von mehreren Messungen bei verschiedenen Objektorientierungen, mit Elektronenholographie, eine interferrometrische Messung der komplexen Elektronenwelle im Transmissionselektronenmikroskop (TEM). Wegen Mehrfachstreuung und Propagationseffekten erzeugt konventionelle, auf einer Strahlprojektion basierende, Tomography ernste Probleme bei Hochauflösung hin zu atomarer Auflösung. Diese sollen durch ein Modell, welches Fresnel-Propagation beinhaltet, aber weiterhin linear im Potential des Objektes ist, vermindert werden. Mit dem Rytov-Ansatz wird eine Näherung abgeleitet, wobei der Logarithmus der komplexen Welle linear im Potential ist. Die Strahlen-Projektion ist dann eine Faltung mit dem Fresnel-Propagations-Faltungskernel welche rechentechnisch wesentlich aufwendiger ist. Ein Programm-Paket für solche Rechnungen wurde in Python implementiert. Weiterhin wurde ein Multislice Algorithmus für große Gesichtsfelder und Objekte mit vielen Atomen wie Nanopartikel optimiert. Die Rytov-Näherung verbessert sowohl die Auflösung als auch die Signalqualität immens gegenüber konventioneller Tomographie, zumindest in dem getesteten System eines Wolframdisulfid-Nanoröhrchens. Das Rauschverhalten scheint ähnlich der konventionallen Tomographie zu sein, also eher gutmütig. Im Gegenzug braucht die Tomographie basierend auf der Rytov-Näherung wesentlich mehr Rechenzeit pro Iteration.
302

Plan de déploiement de la tomographie par émission de positrons au Québec basé sur l'évaluation des technologies de la santé

Péloquin, Serge January 2004 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
303

Modélisation par une approche à deux fluides des écoulements gaz liquide à contre-courant dans les colonnes à garnissages / Two fluids approach for modeling of liquid gas flows in packed columns

Fourati, Manel 16 November 2012 (has links)
Ce travail de thèse rentre dans le cadre du développement de modèles multi‐échelles de simulation de colonne d’absorption gaz‐liquide pour des applications de captage de CO2 en vue d’optimiser leur design. Il est le fruit d’une collaboration entre IFP Énergies nouvelles et l’Institut de Mécanique des Fluides de Toulouse. Les colonnes à garnissages représentent une technologie essentielle aux applications d’absorption gaz‐liquide. Dans les procédés de captage de CO2 aux amines, le solvant liquide s’écoule sur les parois du garnissage, idéalement sous forme de film ruisselant mouillant toute la surface disponible, le gaz, en régime turbulent, venant le cisailler à contre‐courant de manière à promouvoir un transfert de CO2 de la phase gaz vers la phase liquide. Un écoulement le plus homogène possible permet d’avoir les meilleures performances de transfert. Toutefois, l’expérience montre que des maldistributions, notamment de la phase liquide, peuvent apparaître même en cas de bonnes distributions en entrée de colonne. La distribution du liquide est régie par un phénomène de « dispersion » dont l’étude et la modélisation représentent le principal objet de cette thèse. Pour ce faire, ce travail de thèse s’appuie sur des travaux expérimentaux, réalisés sur une installation d’IFPEN à Lyon, et sur des travaux numériques réalisés dans l’équipe Interface de l’IMFT. Le premier axe de l’étude abordé a ainsi consisté en l’acquisition de données originales de distribution de liquide en partant d’une configuration d’alimentation sous forme d’un jet central en tête de colonne et ce pour deux types de garnissages métalliques : un garnissage structuré, le Mellapak 250.X et un garnissage vrac, l’IMTP. 40. La méthode de tomographie gamma a été mise en œuvre afin de mesurer l’atténuation d’un flux photonique par le liquide en mouvement ce qui permet d’établir des cartes de rétention locale de liquide sur une section de colonne. Les profils de rétention résultants ont été ensuite exploités afin de caractériser la dispersion de liquide dans le système pour des régimes d’écoulement allant des plus faibles aux plus fortes interactions gaz‐liquide. Ces résultats ont permis de développer un modèle simple d’advection diffusion faisant appel à un paramètre hydrodynamique clé qui est le « coefficient de dispersion », qui reproduit bien l’étalement du jet de liquide. Dans le cas du garnissage Mellapak 250.X nous avons pu mettre en évidence une dispersion qui est régie essentiellement par la géométrie du milieu. / This work is done within the framework of collaboration between IFPEN and l’Institut de Mécanique des Fluides de Toulouse (IMFT). It takes place in the general context of optimization of industrial gas‐liquid packed columns dedicated to CO2 capture using multi‐scale simulation approach of hydrodynamics and transfer. The main objective of this study is to develop predictive model for liquid dispersion in two‐phase flows in packed beds operating in the counter‐current mode. This model will help simulate the flow at the macro‐scale of a packed column. Packed columns are widely used for gas/liquid absorption processes since they generate subsequent exchange surface between phases with limited pressure drop. In the particular case of amine process, the two‐phase flow in the packing consists in thin trickling liquid films sheared by counter‐current gas flow that circulates in communicating tortuous channels. It is widely recognized that homogeneous flow ensures good separation performances. This is far from being the case at industrial scale since maldistributions, especially for liquid phase, do occur even with optimized liquid and gas distributors in the column inlets. Liquid distribution results from “dispersion” phenomenon which modelling is not fully handled in literature. Prediction of liquid dispersion has been the main objective of this Ph.D. research. This study is based upon two main approaches: an experimental study carried out using a 40 cm in diameter column operating in IFPEN (Lyon) and a numerical study carried out in Interface team in IMFT. The first part of this research focused on measuring spatial distribution of liquid hold‐up over different sections of the packed bed using a gamma ray tomography system. In order to focus into liquid dispersion phenomenon, a point source liquid feeding configuration was considered. Hold‐up maps obtained from photonic flux attenuation measurements were then used to characterize liquid dispersion from a source point for both packings (Mellapak 250.X and IMTP. 40) using a relatively simple advection‐diffusion model.
304

Optimisation de l'utilisation de l'imagerie TEP pour la planification de traitement en radiothérapie

Le Maitre, Amandine 03 July 2012 (has links)
La Tomographie par Émission de Positon (TEP) combinée à l'imagerie scanner est intéressante pour la planification de traitement en radiothérapie. Elle réduit la variabilité inter et intra-observateur dans la définition du volume cible et permet de visualiser les hétérogénéités biologiques. Plusieurs algorithmes de segmentation ont été proposés mais aucun ne fait consensus. Pour valider ces algorithmes, les simulations de Monte-Carlo offrent la possibilité de maîtriser la vérité terrain et l'ensemble des paramètres d'acquisition.Nous avons proposé plusieurs méthodologies d'amélioration du réalisme des simulations. Des jeux de données présentant une variabilité anatomique, une hétérogénéité tumorale réaliste et intégrant les mouvements respiratoires ont ainsi été générés.Ces données ont été utilisées dans une première étude sur la segmentation du volume cible. Plusieurs algorithmes ont été comparés dans le cadre de la planification de traitement. L'utilisation de données simulées a permis de relier la précision de la segmentation à la qualité de la couverture de la vérité terrain. Nous avons aussi étudié l'impact de la respiration sur la précision de la segmentation.L'utilisation d'un algorithme de segmentation avancé permettant de définir un sous-volume plus actif pour la prescription d'une dose hétérogène a été proposée. Plusieurs scénarios de prescription ont été comparés en terme de probabilité de contrôle tumorale (TCP) calculée sur la TEP. La variabilité de la TCP liée aux paramètres d'acquisitions a été quantifiée. L'impact du contraste et de la taille du sous-volume fut étudié. Pour finir l'apport d'un ajout de compartiments à de telles prescriptions a été analysé. / There has been an increasing interest for the use Positron Emission Tomography (PET) combined with Computed Tomography for radiotherapy treatment planning. It improves target volume delineation by reducing inter and intra-observer variability and allows visualizing biological heterogeneities. Plethoras of segmentation algorithm have been proposed but there is a lack of consensus regarding which one to use. Monte Carlo simulations are interesting to validate these algorithms since they allow creating datasets with known ground-truth and for which all acquisition parameters are controlled.We proposed several methodologies for improving the realism of simulations. Several datasets incorporating patient specific variability in terms of anatomy and activity distributions, realistic tumor shape and activity modeling and integrating the respiratory motions were created.These data were used in a first study concerning target volume definition. Several algorithms were compared for radiotherapy treatment planning. The accuracy of segmentation was related to the quality of ground-truth volume coverage. We also studied the impact of respiratory motion on segmentation accuracy.We investigated the use of an advanced segmentation method able to define high uptake sub-volumes, for heterogeneous dose prescriptions. Several scenarios of prescriptions were compares in terms of Tumor Control Probability (TCP) computed on PET images. Variability of this TCP due to acquisition parameters was quantified. The impact of contrast and size of sub-volume was studied. Finally we studied the usefulness of the addition of compartments to such heterogeneous prescriptions.
305

Tomographie à rayons X; analyse et modélisation de l'ontogénèse des épicormiques du chêne sessile (Quercus petraea (L.) Matt.). / RX tomography, analysis and modeling of epicormic ontogeny in sessile oak (Quercus patraea (L.) Matt.).

Morisset, Jean-baptiste 11 December 2012 (has links)
Le chêne sessile (Quercus petraea) est une essence majeure de la sylviculture française. Sa ramification, phénomène de mise en place des rameaux, a pour origine unique les bourgeons proventifs axillaires mis en place lors de l'élongation des pousses annuelles (PA). On distingue la ramification séquentielle (les branches séquentielles) et la ramification épicormique. L'ontogénèse des épicormiques, c'est-à-dire le passage d'un bourgeon épicormique à un rameau épicormique plus complexe tel qu'un gourmand, picot ou broussin est encore peu connue. Les rameaux laissent dans le bois des marques, les traces raméales, qui peuvent fortement déprécier la qualité du bois. Etudier l'ontogénèse des rameaux épicormiques du chêne passe par un suivi longitudinal ou une analyse rétrospective des PA, ou par une dissection de l'arbre et une observation des traces raméales. Pour s'affranchir de ces méthodologies fastidieuses nous avons utilisé la tomographie à rayons X qui permet une étude exhaustive de toutes les traces raméales d'un billon, de leur ontogénèse ainsi que la reconstruction du billon en 3D. Les études menées au cours de cette thèse ont permis de mettre en évidence un important effet de l'arbre qui confère à chacun d'entre eux sa propre capacité à mettre en place et maintenir des épicormiques. Plus un arbre présente d'épicormiques dans son jeune âge, plus il en présentera quelques années plus tard. Cette tendance est modulée par la sylviculture actuelle, comme le maintien d'une végétation d'accompagnement qui joue sur les réserves en eau et carbohydrates de l'arbre, et la sylviculture passée, notamment les éclaircies fortes ayant favorisé les émissions de gourmands. Cependant la sélection précoce des arbres objectifs présentant le moins de formations épicormiques est une recommandation sylvicole de première importance dans le but de produire davantage de bois d'œuvre de la meilleure qualité possible. Une stratégie d'intégration de ces résultats dans le simulateur de croissance Fagacée est proposée. / Sessile oak (Quercus petraea) is a major tree species of the French forestry. Its branching, i.e. the phenomenon of twigs implementation, has a unique origin: the proventitious axillary buds set during the annual shoot (AS) elongation. We distinguish the sequential branching and the epicormic branching. Epicormic ontogeny, i.e. transition from a bud to a more complex epicormic twig as an epicormic shoot, a picot or a burl is still little known. The mark left by these twigs in the wood, the rameal trace, can depreciate its commercial value. The study of the epicormic twigs ontogeny is possible with a longitudinal follow-up or a retrospective analysis of an AS, or a dissection of the tree and an observation of the rameal traces. To free ourselves from these tedious methodologies, we used RX computed tomography which allows an exhaustive survey of all the rameal traces of a log, their ontogeny as well as the 3D reconstruction of the log. This PhD allowed to show the important effect of the tree which confers on each one its capacity to set up and maintain epicormics. The more numerous the epicormics were at young stage, the more numerous the epicormics are several years later. This trend is modulated by the actual forest operations, as the maintaining of an accompanying vegetation which play on water and carbohydrates reserve; and by past forest operation as epicormic shoot emission favoured by strong thinning. Nevertheless, the early selection of the crop trees with the few epicormic formations is a silvicultural advice of first importance in order to produce more timber wood of the best quality. A strategy of inclusion of these results in the growth simulator “Fagacées” is proposed.
306

Contribution de la rhéologie et de la tribologie à l'usure de produits cellulosiques alvéolaires

Mezence, Kény 10 November 2011 (has links)
Les applications tribologiques des matériaux cellulaires en présence de liquide nécessitent une connaissance de leurs modes d’endommagement, mais elles restent peu connues à l’heure actuelle. L’étude, la compréhension et la modélisation du comportement d’un matériau composite cellulaire nécessitent une approche pluridisciplinaire due au caractère hétérogène du matériau qui reste difficilement caractérisable. Ce matériau peut être analysé suivant 3 axes bien distincts : les propriétés rhéologiques (analyses sous état de déformation complexe en compression et en cisaillement avec des rhéomètres adaptés), la morphologie des alvéoles (analyses 3D optiques et tomographiques), les propriétés tribologiques (analyse en frottement de l'interface et des particules d'usure). L’intérêt majeur de notre approche est d'aborder simultanément ces 3 axes et de comprendre leurs interactions respectives. La tomographie aux rayons X, suivie d’un traitement mathématique assisté par ordinateur, complété par l'analyse des particules d'usure a permis d'identifier les morphologies responsables des fonctions spécifiques du matériau cellulaire. Un tribo-abrasimètre innovant avec des surfaces abrasives modèles a mis en évidence l’importance des cinématiques dans l’endommagement du matériau. Des méthodes de caractérisation ont été mises au point afin de quantifier la dégradation tribologique du matériau permettant également de mesurer l’impact du vieillissement (chimique, thermique et mécanique). / Tribological applications of cellular materials in the presence of liquid require acknowledge of their modes of damage, but they remain little known at present. The study, understanding and modeling the behavior of a composite cell requires a multidisciplinary approach due to the heterogeneity of the material that is difficult to characterize. This material can be analyzed along three distinct axes: the rheological properties (analysis in complex state of deformation in compression and shear with adapted rheometer), the morphology of the cells (3D optical tomographic analysis), the tribological properties (analysis in interface friction and wear particles). The major advantage of our approach is to simultaneously address these three areas and to understand their interactions. The X-ray tomography, followed by computer-assisted mathematical treatment, supplemented by the analysis of wear particles identified morphologies responsible for specific functions of cellular material. A tribo-abrasimeter with innovative models abrasive surfaces highlighted the importance of kinematics in the damage of the material. Characterization methods have been developed to quantify the tribological degradation of the material can also measure the impact of aging(chemical, thermal and mechanical).
307

Tomographie cardiaque en angiographie rotationnelle / Cardiac C-arm computed tomography

Mory, Cyril 26 February 2014 (has links)
Un C-arm est un appareil d’imagerie médicale par rayons X utilisé en radiologie interventionnelle. La plupart des C-arms modernes sont capables de tourner autour du patient tout en acquérant des images radiographiques, à partir desquelles une reconstruction 3D peut être effectuée. Cette technique est appelée angiographie rotationnelle et est déjà utilisée dans certains centres hospitaliers pour l’imagerie des organes statiques. Cependant son extension à l’imagerie du cœur ou du thorax en respiration libre demeure un défi pour la recherche. Cette thèse a pour objet l’angiographie rotationnelle pour l’analyse du myocarde chez l’homme. Plusieurs méthodes nouvelles y sont proposées et comparées à l’état de l’art, sur des données synthétiques et des données réelles. La première de ces méthodes, la déconvolution par FDK itérative synchronisée à l’ECG, consiste à effacer les artéfacts de stries dans une reconstruction FDK synchronisée à l’ECG par déconvolution. Elle permet d’obtenir de meilleurs résultats que les méthodes existantes basées sur la déconvolution, mais reste insuffisante pour l’angiographie rotationnelle cardiaque chez l’homme. Deux méthodes de reconstruction 3D basées sur l’échantillonnage compressé sont proposées : la reconstruction 3D régularisée par variation totale, et la reconstruction 3D régularisée par ondelettes. Elles sont comparées à la méthode qui constitue l’état de l’art actuel, appelé « Prior Image Constrained Compressed Sensing » (PICCS). Elles permettent d’obtenir des résultats similaires à ceux de PICCS. Enfin, deux méthodes de reconstruction 3D+temps sont présentées. Leurs formulations mathématiques sont légèrement différentes l’une de l’autre, mais elles s’appuient sur les mêmes principes : utiliser un masque pour restreindre le mouvement à la région contenant le cœur et l’aorte, et imposer une solution régulière dans l’espace et dans le temps. L’une de ces méthodes génère des résultats meilleurs, c’est-à-dire à la fois plus nets et plus cohérents dans le temps, que ceux de PICCS / A C-arm is an X-ray imaging device used for minimally invasive interventional radiology procedures. Most modern C-arm systems are capable of rotating around the patient while acquiring radiographic images, from which a 3D reconstruction can be performed. This technique is called C-arm computed tomography (C-arm CT) and is used in clinical routine to image static organs. However, its extension to imaging of the beating heart or the free-breathing thorax is still a challenging research problem. This thesis is focused on human cardiac C-arm CT. It proposes several new reconstruction methods and compares them to the current state or the art, both on a digital phantom and on real data acquired on several patients. The first method, ECG-gated Iterative FDK deconvolution, consists in filtering out the streak artifacts from an ECG-gated FDK reconstruction in an iterative deconvolution scheme. It performs better than existing deconvolution-based methods, but it is still insufficient for human cardiac C-arm CT. Two 3D reconstruction methods based on compressed sensing are proposed: total variation-regularized 3D reconstruction and wavelets-regularized 3D reconstruction. They are compared to the current state-of-the-art method, called prior image constrained compressed sensing (PICCS). They exhibit results that are similar to those of PICCS. Finally, two 3D+time reconstruction methods are presented. They have slightly different mathematical formulations but are based on the same principles: using a motion mask to restrict the movement to the area containing the heart and the aorta, and enforcing smoothness of the solution in both space and time. One of these methods outperforms PICCS by producing results that are sharper and more consistent throughout the cardiac cycle
308

Magnetic resonance imaging for the estimation of fetal weight :from a research tool to a clinical application

Kadji, Caroline 20 June 2019 (has links) (PDF)
Despite many attempts to improve estimations based on ultrasound measures and volumes, the accurate prediction of birthweight hasremained elusive, particularly in relation to macrosomia.Now finally, after 7 years of dedicated research, we have managed to develop a rapid and precise, magnetic resonance imaging-basedtechnique, capable of accurately predicting birthweight, regardless of whether the estimations are performed, hours, days or even severalweeks prior to the actual birth.We believe that, once the already demonstrated advantages of the technique are confirmed in prospective, multi-centre studies, itwill become readily accessible for use in clinical practice and prove invaluable to clinicians as a reliable adjunct in many obstetricaldecision-making processes. / Doctorat en Sciences médicales (Médecine) / info:eu-repo/semantics/nonPublished
309

Nichtinvasive klinische Analyse der Infarktanatomie nach Myokardinfarkt / Non-Invasive Assessment of Infarct Size and Infarct Anatomy during the Course of Infarct Healing

Ramsayer, Benjamin January 2007 (has links) (PDF)
Ziel der vorliegenden Studie war es, die Veränderungen der komplexen dreidimensionalen Infarktanatomie im Verlauf der Infarktheilung zu untersuchen. Material und Methoden: Mit Hilfe kernspintomographischer Late Enhancement (LE) Untersuchungen ist es möglich, den Myokardinfarkt im Verlauf der gesamten Infarktheilung abzubilden und exakt zu vermessen. Insgesamt wurden 74 LE Untersuchungen bei 30 Patienten nach erstmals aufgetretenem Myokardinfarkt durchgeführt. Alle Patienten waren einer Reperfusionstherapie unterzogen worden. Die Untersuchungszeitpunkte waren Tag 5±2 nach Myokardinfarkt (Mittelwert ± Standardabweichung, Zeitpunkt A), Tag 12±3 nach Myokardinfarkt (Zeitpunkt B), und nach 3 Monaten (Zeitpunkt C). 14 Patienten wurden zu allen drei Zeitpunkten untersucht, bei 10 Patienten wurden Messungen zu den Zeitpunkten A und C durchgeführt und bei 6 Patienten Messungen zu den Zeitpunkten B und C. In den LE Untersuchungen wurde der linke Ventrikel jeweils mit Hilfe von doppelt angulierten Kurzachsenschnitten (Schichtdicke 8 mm, ohne Zwischenschichtabstand) vollständig abgebildet. Die Bildauswertung erfolgte geblindet. In jedem Kurzachsenschnitt eines Infarkts wurden folgende Parameter gemessen: Die Infarktquerschnittsfläche (MI, in mm2), die größte zirkumferentielle Ausdehnung des Myokardinfarkts (Z, in mm) und die Infarktdicke (D, in mm). Aus diesen Parametern und der gegebenen Schichtdicke von 8 mm konnten das Infarktvolumen (IV, in mm3), die Infarktausdehnung (IA, in mm2), die mittlere Infarktdicke (MID, in mm) und die mittlere zirkumferentielle Ausdehnung des Infarkts (MIZ, in mm) berechnet werden. Die Infarktausdehnung ist hierbei eine Fläche und beschreibt den Infarkt in seiner longitudinalen und zirkumferentiellen Ausdehnung. Eine Zunahme der Infarktausdehnung ist gleichbedeutend mit einer Dilatation bzw. Expansion des Infarkts. Alle Parameter können unabhängig vom vitalen Restmyokard bestimmt werden. In einer zusätzlichen zweidimensionalen Analyse wurden außerdem die Veränderungen der Infarktanatomie am Ort der maximalen Infarktdicke zum Zeitpunkt der ersten Messung und die Veränderungen der Infarktanatomie am Ort der maximalen zirkumferentiellen Ausdehnung zum Zeitpunkt der ersten Messung untersucht. Die Ergebnisse werden als Mittelwerte mit dazugehörigen Standardfehlern berichtet. Zur Verlaufsbeurteilung wurden die Parameter der Zeitpunkte B und C als Prozentsatz der vorangegangenen Messungen berechnet. Ergebnis: Innerhalb der ersten drei Monate nach Infarkt wurde eine Verringerung des Infarktvolumens im Mittel auf 69±5% des Ausgangswertes beobachtet. Die Volumenabnahme war hierbei zu einem größeren Anteil auf die Abnahme der Infarktdicke und zu einem kleineren Anteil auf die Abnahme der Infarktausdehnung zurückzuführen. Die mittlere Infarktdicke nahm innerhalb von 3 Monaten im Mittel auf 79±3% und die Infarktausdehnung im Mittel auf 88±4% ab. Diese Veränderungen waren signifikant (p<0,05). Die Infarktausdehnung veränderte sich jedoch innerhalb des untersuchten Kollektivs unterschiedlich. Bei 75% der untersuchten Infarkte wurde die Infarktausdehnung im Verlauf der Untersuchung geringer, bei 25% nahm die Infarktausdehnung jedoch zu. Eine Abnahme der Infarktdicke wurde in 92% der Fälle beobachtet. Sie kam unabhängig von der Dilatation eines Infarkts vor. Die Infarktdicke verringerte sich zwischen dem Zeitpunkt A und C bei 5 von 6 Patienten mit einer Zunahme der Infarktausdehnung, aber auch bei 17 von 18 Patienten ohne Infarktdilatation. In der zweidimensionalen Analyse zeigte sich, dass die Veränderungen der Infarktdicke und der zirkumferentiellen Ausdehnung innerhalb eines Infarkts regional unterschiedlich stark ausgeprägt waren. / Objective: To analyze the changes of infarct size and infarct anatomy during the course of infarct healing. Materials and Methods: MRI Late Enhancement (LE) studies can be used to visualize myocardial infarctions during the course of infarct healing. It is also possible to use these studies to accurately measure the size and shape of myocardial infarctions. For this study a total of 74 LE studies were performed in 30 patients following their first myocardial infarction. All patients were treated with a reperfusion therapy. The studies were performed on day 5±2 (mean ± standard deviation) post myocardial infarction (point A), day 12 ± 3 post myocardial infarction (point B) and after 3 months (point C). Of the 30 patients in this study 14 patients were measured at all three points, 10 patients were measured at point A and C and 6 patients were measured at point B and C. The left ventricle was imaged completely from base to apex using consecutive double oblique imaging planes (slice thickness 8mm, no slice spacing) during the LE studies. Image analysis was performed in a blinded fashion. In every short axis view the cross section surface (MI, in mm2), the circumferential extent (Z, in mm) and the infarct thickness (D, in mm) were measured. Using these parameters and the given slice thickness of 8mm, the infarct volume (IV, in mm3), the infarct extent (IA, in mm2), the mean infarct thickness (MID, in mm) and the mean circumferential extent (MIZ, in mm) were calculated. The infarct extent was defined as an area which described the myocardial infarction in both the longitudinal and circumferential extent. An increase of the infarct extent was equivalent to a dilatation or expansion of the myocardial infarct. All parameters were able to be determined independently from the vital rest of the myocardium. In an additional two-dimensional analysis, the changes of the infarct anatomy were studied using two different slices. One slice where the maximum infarct thickness was localized and the other, where the maximum circumferential extent was localized. Results were reported as means with corresponding standard errors. All parameters of Point B and C were calculated as a percentage of prior measurements. Results: Within the first three months post myocardial infarction, a decrease of infarct volume to 69±5% of the initial volume was found. The shrinkage of volume was mainly due to a decrease of the infarct thickness and to a lesser extent, to a decrease of the infarct extent. The mean infarct thickness decreased within three months to 79±3% and the infarct extent to 88±4%. These changes were statistically significant (p< 0.05). However, the changes of infarct extent in the study group were inconsistent. In 75% of the evaluated patients infarct extent decreased between point A and C but in 25% of the patients, the infarct extent increased in the same period of time. Infarct thinning was observed in 92% of all cases and occurred independently from infarct dilatation. The mean infarct thickness decreased between point A and C in 5 out of 6 patients with an increase of infarct extent. However, the infarcts thinned in 17 out of 18 patients without infarct dilatation as well. The two-dimensional analysis showed that the changes of infarct thickness and circumferential extent were regionally different within one myocardial infarction.
310

Rekonstruktion und Simulation der Ausbreitung und Rückbildung der elektrischen Erregung im Herzmuskel des Menschen : Visualisierung kardialer Potentiale mit Methoden der magnetresonanztomographischen Bildgebung, der kardialen Biosignalverarbeitung und der numerischen Lösung des Inversen Problems der Elektrokardiographie / Reconstruction and simulation of the electric depolarization and repolarization in the human heart

Kaltwasser, Christoph January 2007 (has links) (PDF)
Die elektrophysiologischen Vorgänge während der Depolarisation und Repolarisation des Myokards können mittels der Signale des 12-Kanal EKGs selbst bei Vorliegen großen Expertenwissens nur unzureichend beobachtet bzw. interpretiert werden. Grund hierfür sind vor allen Dingen Inhomogenitäten in der kardialen und thorakalen elektrischen Leitfähigkeit sowie die starke Signalabschwächung in den durchlaufenen Geweben. Intrakardiale Verfahren der Signalableitung sind ein Ansatz zu Lösung dieses Problems; sie sind jedoch aufwändig und risikobehaftet. In dem in dieser Arbeit eingesetzten Verfahren hingegen konnte, durch patientenindividuelle Modellierung der Herz- und Thoraxanatomie sowie der Leitfähigkeitsverhältnisse, mittels numerischer Verfahren aus einer Vielzahl von Oberflächen-EKG Ableitungen auf die elektrophysiologischen Vorgänge im Myokard in ihrem zeitlichen und örtlichen Verlauf geschlossen werden (Inverses Problem der Elektrokardiographie). Es konnten bei gesunden Probanden sowie bei Patienten mit verschiedenen kardialen Pathologien zeitlich und örtlich hochaufgelöste Rekonstruktionen von epikardialen- und Transmembranpotentialverteilungen angefertigt werden. Es zeigte sich, dass insbesondere im Bereich großer Infarktnarben der Herzvorder- sowie der Herzhinterwand elektrophysiologische Auffälligkeiten nachweisbar waren. So zeigten sich während der Depolarisationsphase Myokardareale mit einer verminderten Aktivität und Polarisationsumkehr, Bezirke mit verzögerter Depolarisationsaktivität sowie Areale mit atypisch verlaufender Repolarisationsaktivität. Anhand der vorliegenden Ergebnisse konnte gezeigt werden, dass eine Rekonstruktion der physiologischen Abläufe im Myokard während der Depolarisation und der Repolarisation mit dem hierzu implementierten Verfahren möglich ist. Anhand von elektroanatomischen Modellen konnten darüber hinaus die physiologische sowie die pathologisch veränderte Erregungsausbreitung im Myokard simuliert werden. Durch Verbesserung der Rekonstruktionsalgorithmen, der Methoden der Signalverarbeitung und der Regularisierung der Lösungsverfahren ist zukünftig eine weitere Verbesserung der Rekonstruktionsergebnisse zu erwarten. Vor dem klinischen Einsatz der Methode muss eine eingehende Validation erfolgen. / The electrophysiological processes that occur during cardiac depolarization and repolarization can be interpreted via 12-channel ECG only in a limited manner. This is due to inhomogeneities in the cardiac and thoracic electric conductivity and the attenuation of the electric signals in the body. Invasive cardiac measurements can avoid these problems but are expensive and not free of risk for the patient. In this work therefore a method of non-invasive electrocardiographic imaging was established which permits the reconstruction of cardiac electrophysiological processes using exclusively information obtained by non-invasive methods (MR-imaging, electrocardiographic mapping). Using anatomic information from MR-images of the patient’s heart and chest, a patient-individual model of electric conductivity could be created (finite-element method). Numerical algorithms were used to solve the inverse problem of electrocardiography, i.e. finding cardiac potential distributions that explain the measured surface potential distribution. In two healthy volunteers as well as in 7 patients with different cardiac pathologies, reconstructions of epicardial potentials and transmembrane voltages were performed. Specific electrophysiological abnormalities (decreased electric activity, polarization reversal, delayed depolarization and atypical repolarization patterns) could be detected in the proximity of myocardial scars. To optimize reconstruction algorithms and regularization methods, cardiac potentials were also simulated using a cellular automaton and the patient individual conductivity model. This study shows that the reconstruction of cardiac electrophysiology is feasible with this method and that myocardial scars and atypical patterns of depolarization and repolarization can be detected. By further improving the method and after a process of validation, clinically relevant data might be obtained.

Page generated in 0.0326 seconds