• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 6
  • 2
  • Tagged with
  • 8
  • 8
  • 8
  • 8
  • 8
  • 8
  • 8
  • 7
  • 7
  • 7
  • 7
  • 7
  • 6
  • 6
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Modélisation et simulation de l'IRM de diffusion des fibres myocardiques

Wang, Lihui 21 January 2013 (has links) (PDF)
L'imagerie par résonance magnétique de diffusion (l'IRMd) est actuellement la seule technique non-invasive pour étudier l'architecture tridimensionnelle des fibres myocardiques du cœur humain à la fois ex vivo et in vivo. Cependant, il est difficile de savoir comment les caractéristiques de diffusion calculées à partir des images de diffusion reflètent les propriétés des microstructures du myocarde à cause de l'absence de la vérité-terrain sans parler de l'influence de divers facteurs tels que la résolution spatiale, le bruit et les artéfacts. L'objectif principal de cette thèse est donc de développer des simulateurs de l'IRM de diffusion basés sur des modèles réalistes afin de simuler, en intégrant différentes modalités d'imagerie, les images pondérées en diffusion des fibres myocardiques à la fois ex vivo et in vivo, et de proposer un outil générique permettant d'évaluer la qualité de l'imagerie et les algorithmes de traitement d'images. Pour atteindre cet objectif, le présent travail se focalise sur quatre parties principales. La première partie concerne la formulation de la théorie de simulation IRMd pour la génération d'images de diffusion et pour les applications sur les modèles simples de fibres cardiaques chez l'homme, et essaie de comprendre la relation sous-jacente entre les propriétés mesurées de la diffusion et les caractéristiques à la fois physiques et structurelles des fibres cardiaques. La seconde partie porte sur la simulation des images de résonance magnétique de diffusion à différentes échelles en s'appuyant sur des données du cœur humain issues de l'imagerie par lumière polarisée. En comparant les propriétés de diffusion à différentes échelles, la relation entre la variation de la microstructure et les propriétés de diffusion observée à l'échelle macroscopique est étudiée. La troisième partie consacre à l'analyse de l'influence des paramètres d'imagerie sur les propriétés de diffusion en utilisant une théorie de simulation améliorée. La dernière partie a pour objectif de modéliser la structure des fibres cardiaques in vivo et de simuler les images de diffusion correspondantes en combinant la structure des fibres cardiaques et le mouvement cardiaque connu a priori. Les simulateurs proposés nous fournissent un outil générique pour générer des images de diffusion simulées qui peuvent être utilisées pour évaluer les algorithmes de traitement d'images, pour optimiser le choix des paramètres d'IRM pour les fibres cardiaque aussi bien ex vivo que in vivo, et pour étudier la relation entre la structure de fibres microscopique et les propriétés de diffusion macroscopiques.
2

Quantification du mouvement et de la déformation cardiaques à partir d'IRM marquée tridimensionnelle sur des données acquises par des imageurs Philips / Quantification of cardiac motion and deformation from 3D tagged MRI acquired by Philips imaging devices

Zhou, Yitian 03 July 2017 (has links)
Les maladies cardiovasculaires sont parmi les principales causes de mortalité à l’échelle mondiale. Un certain nombre de maladies cardiaques peuvent être identifiées et localisées par l’analyse du mouvement et de la déformation cardiaques à partir de l’imagerie médicale. Cependant, l’utilisation de ces techniques en routine clinique est freinée par le manque d’outils de quantification efficaces et fiables. Dans cette thèse, nous introduisons un algorithme de quantification appliqué aux images IRM marquées. Nous présentons ensuite un pipeline de simulation qui génère des séquences cardiaques synthétiques (US et IRM). Les principales contributions sont décrites ci-dessous. Tout d’abord, nous avons proposé une nouvelle extension 3D de la méthode de la phase harmonique. Le suivi de flux optique en utilisant la phase a été combiné avec un modèle de régularisation anatomique afin d’estimer les mouvements cardiaques à partir des images IRM marquées. En particulier, des efforts ont été faits pour assurer une estimation précise de la déformation radiale en imposant l’incompressibilité du myocarde. L’algorithme (dénommé HarpAR) a ensuite été évalué sur des volontaires sains et des patients ayant différents niveaux d’ischémie. HarpAR a obtenu la précision de suivi comparable à quatre autres algorithmes de l’état de l’art. Sur les données cliniques, la dispersion des déformations est corrélée avec le degré de fibroses. De plus, les segments ischémiques sont distingués des segments sains en analysant les courbes de déformation. Deuxièmement, nous avons proposé un nouveau pipeline de simulation pour générer des séquences synthétiques US et IRM pour le même patient virtuel. Les séquences réelles, un modèle électromécanique (E/M) et les simulateurs physiques sont combinés dans un cadre unifié pour générer des images synthétiques. Au total, nous avons simulé 18 patients virtuels, chacun avec des séquences synthétiques IRM cine, IRM marquée et US 3D. Les images synthétiques ont été évaluées qualitativement et quantitativement. Elles ont des textures d’images réalistes qui sont similaires aux acquisitions réelles. De plus, nous avons également évalué les propriétés mécaniques des simulations. Les valeurs de la fraction d’éjection et de la déformation locale sont cohérentes avec les valeurs de référence publiées dans la littérature. Enfin, nous avons montré une étude préliminaire de benchmarking en utilisant les images synthétiques. L'algorithme générique gHarpAR a été comparé avec un autre algorithme générique SparseDemons en termes de précision sur le mouvement et la déformation. Les résultats montrent que SparseDemons surclasse gHarpAR en IRM cine et US. En IRM marquée, les deux méthodes ont obtenu des précisions similaires sur le mouvement et deux composants de déformations (circonférentielle et longitudinale). Toutefois, gHarpAR estime la déformation radiale de manière plus précise, grâce à la contrainte d’incompressibilité du myocarde. / Cardiovascular disease is one of the major causes of death worldwide. A number of heart diseases can be diagnosed through the analysis of cardiac images after quantifying shape and function. However, the application of these deformation quantification algorithms in clinical routine is somewhat held back by the lack of a solid validation. In this thesis, we mainly introduce a fast 3D tagged MR quantification algorithm, as well as a novel pipeline for generating synthetic cardiac US and MR image sequences for validation purposes. The main contributions are described below. First, we proposed a novel 3D extension of the well-known harmonic phase tracking method. The point-wise phase-based optical flow tracking was combined with an anatomical regularization model in order to estimate anatomically coherent myocardial motions. In particular, special efforts were made to ensure a reasonable radial strain estimation by enforcing myocardial incompressibility through the divergence theorem. The proposed HarpAR algorithm was evaluated on both healthy volunteers and patients having different levels of ischemia. On volunteer data, the tracking accuracy was found to be as accurate as the best candidates of a recent benchmark. On patient data, strain dispersion was shown to correlate with the extent of transmural fibrosis. Besides, the ischemic segments were distinguished from healthy ones from the strain curves. Second, we proposed a simulation pipeline for generating realistic synthetic cardiac US, cine and tagged MR sequences from the same virtual subject. Template sequences, a state-of-the-art electro-mechanical (E/M) model and physical simulators were combined in a unified framework for generating image data. In total, we simulated 18 virtual patients (3 healthy, 3 dyssynchrony and 12 ischemia), each with synthetic sequences of 3D cine MR, US and tagged MR. The synthetic images were assessed both qualitatively and quantitatively. They showed realistic image textures similar to real acquisitions. Besides, both the ejection fraction and regional strain values are in agreement with reference values published in the literature. Finally, we showed a preliminary benchmarking study using the synthetic database. We performed a comparison between gHarpAR and another tracking algorithm SparseDemons using the virtual patients. The results showed that SparseDemons outperformed gHarpAR in processing cine MR and US images. Regarding tagged MR, both methods obtained similar accuracies on motion and two strain components (circumferential and longitudinal). However, gHarpAR quantified radial strains more accurately, thanks to the myocardial incompressibility constraint. We conclude that motion quantification solutions can be improved by designing them according to the image characteristics of the modality and that a solid evaluation framework can be a key asset in comparing different algorithmic options.
3

Tractographie cardiaque optimale par IRM du tenseur de diffusion / Optimal cardiac tractography using DT-MRI

Ozon, Matthew 10 March 2016 (has links)
Cette thèse "Tractographie cardiaque optimale utilisant l'IRM du tenseur de diffusion" à pour but de proposer et d'étudier une nouvelle formulation globale de la tractographie cardiaque à partir d'images de tenseur de diffusion synthétisant les données pondérées en diffusion. Les raisons sous-jacentes ayant conduits à une nouvelle formulation sont multiples. Les méthodes existantes sont pour la plupart locales comme les algorithmes de « streamline » (ligne de champ) et sont sujettes à de nombreuses imperfections, en particulier, leur faible robustesse par rapport au bruit dans les données. Un autre problème de ce type d'approches basé sur la résolution d'équations différentielles est leur dépendances quant à l'initialisation, ce dont notre méthode s'est totalement affranchit. L'autre but de cette thèse est de déterminer un ou plusieurs critères numériques pour comparer et qualifier les objets fibres. En effet, même s'il semble facile de caractériser qualitativement les fibres de façon visuelle, la création de mesures pour caractériser les fibres soit dans l'absolue, soit en comparaison aux données ou à d'autres fibre relève d'une toute autre approche. / This thesis "Optimal cardiac tractography using DT-MRI" offers and studies a new formulation of cardiac tractography based on the use of diffusion tensor images that synthetize the information of the diffusion weighted images. The underlying reasons that led to a new formulation are manifold. Existing methods are mostly based on local data, such as the streamlining algorithms, and thus are subject to many imperfections, especially they are not robust to noise in the data. Another problem with this type of approach based on solving differential equations is their dependency on initialization, unlike the method under study. The other aim of this thesis is to determine one or more numerical criteria to compare and qualify fibers. Even though it seems easy to qualitatively characterize fibers based on the visualization, creating measures to characterize the fibers, either in absolute or in comparison to the data or other fibers, is actually challenging.
4

Elastographie par Résonance Magnétique : Nouvelle méthode d’acquisition fondée sur le contrôle optimal et comparaison de l’ERM avec une technique de rhéologie haute-fréquence / Magnetic Resonance Elastography : New acquisition method based on optimal control theory and comparison of MRE with a high-frequency rheology technique

Lefebvre, Pauline 23 November 2017 (has links)
L'Elastographie par Résonance Magnétique (ERM) est une technique d'imagerie permettant de caractériser in vivo les propriétés biomécaniques des tissus de façon non invasive. Dans ce contexte, la première partie de cette thèse s'intéresse à comparer les propriétés viscoélastiques obtenues par ERM avec une technique de rhéologie haute-fréquence, pouvant atteindre des fréquences de sollicitation mécanique communes à l'ERM, contrairement à ce qui est classiquement fait dans la littérature. Pour effectuer les mesures ERM, le dispositif d'excitation mécanique et la séquence IRM ont été développés et un algorithme de reconstruction des propriétés viscoélastiques, fondé sur l'inversion de l'équation de Helmholtz, a été implémenté et évalué en simulation. La comparaison ERM/rhéologie a ensuite été effectuée, d'abord sur des fantômes de plastisol présentant différentes propriétés viscoélastiques, puis sur des échantillons de foies bovins. Dans les deux cas, les résultats ont montré un bon accord entre les valeurs obtenues en ERM et celles issues de la rhéologie. Le second volet de ces travaux s'attache à présenter une nouvelle stratégie d'acquisition en ERM. Les séquences d'ERM conventionnelle utilisent des gradients oscillants afin d'encoder la propagation de l'onde. Ces gradients peuvent cependant restreindre les applications, en raison des limitations de leur fréquence de commutation et de leur amplitude maximale. Nous proposons ici d'encoder directement la propagation de l'onde à l'aide d'impulsions RF générées par la théorie du Contrôle Optimal (CO), combinées à un gradient constant. Une première expérience simple de contrôle de la phase par impulsions RF est présentée, consistant à créer des motifs de distribution spatiale de cette phase, en l'absence de propagation d'onde. Puis, des impulsions RF adaptées à l'ERM ont été générées : les images de phase obtenues ont été comparées avec celles acquises par ERM conventionnelle. Les propriétés viscoélastiques reconstruites dans les deux cas sont similaires, validant ainsi cette nouvelle méthode d'acquisition. / Magnetic Resonance Elastography is a non-invasive imaging method enabling in vivo characterization of viscoelastic properties of biological tissues. The first part of this thesis deals with the comparison of viscoelastic properties obtained with MRE and with a high-frequency rheometer having a large excitation frequency range. This large frequency range enables common frequency range to MRE, unlike the comparisons usually performed in the literature. To perform MRE measurements, the excitation device and the MRE sequence were developed and an algorithm reconstructing the viscoelastic properties based on an inversion of Helmholtz equation was implemented and evaluated through simulation. The comparison between MRE/rheology was then performed, first on plastisol phantoms with different viscoelastic properties, and then on bovine liver samples. In both cases, results show a very good agreement between values obtained with MRE and those coming from rheology. The second part of this work presents a new acquisition method for MRE. Conventional MRE sequences use oscillating gradients to encode the wave propagation into the phase image. However, these gradients can restrict MRE applications, as their switching frequencies as well as maximal amplitude are limited. The new acquisition strategy we propose in this thesis encodes the wave propagation directly with RF pulses generated with Optimal Control Theory (OCT), in combination with a constant gradient. An initial experiment of phase control with RF pulses is presented, consisting in creating non-trivial spatial phase patterns in MRI phase images, in the absence of wave propagation. Then, RF pulses adapted to the MRE problem are generated with OCT and phase images obtained with these pulses are compared with conventional MRE acquisitions. Viscoelastic properties reconstructed from these two techniques are similar, validating thus this new acquisition method.
5

Feature selection based segmentation of multi-source images : application to brain tumor segmentation in multi-sequence MRI / Segmentation des images multi-sources basée sur la sélection des attributs : application à la segmentation des tumeurs cérébrales en IRM

Zhang, Nan 12 September 2011 (has links)
Les images multi-spectrales présentent l’avantage de fournir des informations complémentaires permettant de lever des ambigüités. Le défi est cependant comment exploiter ces informations multi-spectrales efficacement. Dans cette thèse, nous nous focalisons sur la fusion des images multi-spectrales en extrayant des attributs les plus pertinents en vue d’obtenir la meilleure segmentation possible avec le moindre coût de calcul possible. La classification par le Support Vector Machine (SVM), combinée avec une méthode de sélection d’attributs, est proposée. Le critère de sélection est défini par la séparabilité des noyaux de classe. S’appuyant sur cette classification SVM, un cadre pour suivre l’évolution est proposé. Il comprend les étapes suivantes : apprentissage des tumeurs cérébrales et sélection des attributs à partir du premier examen IRM (imagerie par résonance magnétique) ; segmentation automatique des tumeurs dans de nouvelles images en utilisant une classification basée sur le SVM multi-noyaux ; affiner le contour des tumeurs par une technique de croissance de région ; effectuer un éventuel apprentissage adaptatif. L’approche proposée a été évaluée sur 13 patients avec 24 examens, y compris 72 séquences IRM et 1728 images. En comparant avec le SVM traditionnel, Fuzzy C-means, le réseau de neurones, et une méthode d’ensemble de niveaux, les résultats de segmentation et l’analyse quantitative de ces résultats démontrent l’efficacité de l’approche proposée. / Multi-spectral images have the advantage of providing complementary information to resolve some ambiguities. But, the challenge is how to make use of the multi-spectral images effectively. In this thesis, our study focuses on the fusion of multi-spectral images by extracting the most useful features to obtain the best segmentation with the least cost in time. The Support Vector Machine (SVM) classification integrated with a selection of the features in a kernel space is proposed. The selection criterion is defined by the kernel class separability. Based on this SVM classification, a framework to follow up brain tumor evolution is proposed, which consists of the following steps: to learn the brain tumors and select the features from the first magnetic resonance imaging (MRI) examination of the patients; to automatically segment the tumor in new data using a multi-kernel SVM based classification; to refine the tumor contour by a region growing technique; and to possibly carry out an adaptive training. The proposed system was tested on 13 patients with 24 examinations, including 72 MRI sequences and 1728 images. Compared with the manual traces of the doctors as the ground truth, the average classification accuracy reaches 98.9%. The system utilizes several novel feature selection methods to test the integration of feature selection and SVM classifiers. Also compared with the traditional SVM, Fuzzy C-means, the neural network and an improved level set method, the segmentation results and quantitative data analysis demonstrate the effectiveness of our proposed system.
6

Contributions to Mean Shift filtering and segmentation : Application to MRI ischemic data / Contributions au filtrage Mean Shift à la segmentation : Application à l’ischémie cérébrale en imagerie IRM

Li, Thing 04 April 2012 (has links)
De plus en plus souvent, les études médicales utilisent simultanément de multiples modalités d'acquisition d'image, produisant ainsi des données multidimensionnelles comportant beaucoup d'information supplémentaire dont l'interprétation et le traitement deviennent délicat. Par exemple, les études sur l'ischémie cérébrale se basant sur la combinaison de plusieurs images IRM, provenant de différentes séquences d'acquisition, pour prédire l'évolution de la zone nécrosée, donnent de bien meilleurs résultats que celles basées sur une seule image. Ces approches nécessitent cependant l'utilisation d'algorithmes plus complexes pour réaliser les opérations de filtrage, segmentation et de clustering. Une approche robuste pour répondre à ces problèmes de traitements de données multidimensionnelles est le Mean Shift qui est basé sur l'analyse de l'espace des caractéristiques et l'estimation non-paramétrique par noyau de la densité de probabilité. Dans cette thèse, nous étudions les paramètres qui influencent les résultats du Mean Shift et nous cherchons à optimiser leur choix. Nous examinons notamment l'effet du bruit et du flou dans l'espace des caractéristiques et comment le Mean Shift doit être paramétrés pour être optimal pour le débruitage et la réduction du flou. Le grand succès du Mean Shift est principalement du au réglage intuitif de ces paramètres de la méthode. Ils représentent l'échelle à laquelle le Mean Shift analyse chacune des caractéristiques. En se basant sur la méthode du Plug In (PI) monodimensionnel, fréquemment utilisé pour le filtrage Mean Shift et permettant, dans le cadre de l'estimation non-paramétrique par noyau, d'approximer le paramètre d'échelle optimal, nous proposons l'utilisation du PI multidimensionnel pour le filtrage Mean Shift. Nous évaluons l'intérêt des matrices d'échelle diagonales et pleines calculées à partir des règles du PI sur des images de synthèses et naturelles. Enfin, nous proposons une méthode de segmentation automatique et volumique combinant le filtrage Mean Shift et la croissance de région ainsi qu'une optimisation basée sur les cartes de probabilité. Cette approche est d'abord étudiée sur des images IRM synthétisées. Des tests sur des données réelles issues d'études sur l'ischémie cérébrale chez le rats et l'humain sont aussi conduits pour déterminer l'efficacité de l'approche à prédire l'évolution de la zone de pénombre plusieurs jours après l'accident vasculaire et ce, à partir des IRM réalisées peu de temps après la survenue de cet accident. Par rapport aux segmentations manuelles réalisées des experts médicaux plusieurs jours après l'accident, les résultats obtenus par notre approche sont mitigés. Alors qu'une segmentation parfaite conduirait à un coefficient DICE de 1, le coefficient est de 0.8 pour l'étude chez le rat et de 0.53 pour l'étude sur l'homme. Toujours en utilisant le coefficient DICE, nous déterminons la combinaison de d'images IRM conduisant à la meilleure prédiction. / Medical studies increasingly use multi-modality imaging, producing multidimensional data that bring additional information that are also challenging to process and interpret. As an example, for predicting salvageable tissue, ischemic studies in which combinations of different multiple MRI imaging modalities (DWI, PWI) are used produced more conclusive results than studies made using a single modality. However, the multi-modality approach necessitates the use of more advanced algorithms to perform otherwise regular image processing tasks such as filtering, segmentation and clustering. A robust method for addressing the problems associated with processing data obtained from multi-modality imaging is Mean Shift which is based on feature space analysis and on non-parametric kernel density estimation and can be used for multi-dimensional filtering, segmentation and clustering. In this thesis, we sought to optimize the mean shift process by analyzing the factors that influence it and optimizing its parameters. We examine the effect of noise in processing the feature space and how Mean Shift can be tuned for optimal de-noising and also to reduce blurring. The large success of Mean Shift is mainly due to the intuitive tuning of bandwidth parameters which describe the scale at which features are analyzed. Based on univariate Plug-In (PI) bandwidth selectors of kernel density estimation, we propose the bandwidth matrix estimation method based on multi-variate PI for Mean Shift filtering. We study the interest of using diagonal and full bandwidth matrix with experiment on synthesized and natural images. We propose a new and automatic volume-based segmentation framework which combines Mean Shift filtering and Region Growing segmentation as well as Probability Map optimization. The framework is developed using synthesized MRI images as test data and yielded a perfect segmentation with DICE similarity measurement values reaching the highest value of 1. Testing is then extended to real MRI data obtained from animals and patients with the aim of predicting the evolution of the ischemic penumbra several days following the onset of ischemia using only information obtained from the very first scan. The results obtained are an average DICE of 0.8 for the animal MRI image scans and 0.53 for the patients MRI image scans; the reference images for both cases are manually segmented by a team of expert medical staff. In addition, the most relevant combination of parameters for the MRI modalities is determined.
7

Modélisation et simulation de l’IRM de diffusion des fibres myocardiques / Modeling and simulation of diffusion magnetic resonance imaging for cardiac fibers

Wang, Lihui 21 January 2013 (has links)
L’imagerie par résonance magnétique de diffusion (l’IRMd) est actuellement la seule technique non-invasive pour étudier l’architecture tridimensionnelle des fibres myocardiques du cœur humain à la fois ex vivo et in vivo. Cependant, il est difficile de savoir comment les caractéristiques de diffusion calculées à partir des images de diffusion reflètent les propriétés des microstructures du myocarde à cause de l’absence de la vérité-terrain sans parler de l’influence de divers facteurs tels que la résolution spatiale, le bruit et les artéfacts. L'objectif principal de cette thèse est donc de développer des simulateurs de l’IRM de diffusion basés sur des modèles réalistes afin de simuler, en intégrant différentes modalités d'imagerie, les images pondérées en diffusion des fibres myocardiques à la fois ex vivo et in vivo, et de proposer un outil générique permettant d’évaluer la qualité de l’imagerie et les algorithmes de traitement d’images. Pour atteindre cet objectif, le présent travail se focalise sur quatre parties principales. La première partie concerne la formulation de la théorie de simulation IRMd pour la génération d’images de diffusion et pour les applications sur les modèles simples de fibres cardiaques chez l’homme, et essaie de comprendre la relation sous-jacente entre les propriétés mesurées de la diffusion et les caractéristiques à la fois physiques et structurelles des fibres cardiaques. La seconde partie porte sur la simulation des images de résonance magnétique de diffusion à différentes échelles en s’appuyant sur des données du cœur humain issues de l'imagerie par lumière polarisée. En comparant les propriétés de diffusion à différentes échelles, la relation entre la variation de la microstructure et les propriétés de diffusion observée à l'échelle macroscopique est étudiée. La troisième partie consacre à l’analyse de l'influence des paramètres d'imagerie sur les propriétés de diffusion en utilisant une théorie de simulation améliorée. La dernière partie a pour objectif de modéliser la structure des fibres cardiaques in vivo et de simuler les images de diffusion correspondantes en combinant la structure des fibres cardiaques et le mouvement cardiaque connu a priori. Les simulateurs proposés nous fournissent un outil générique pour générer des images de diffusion simulées qui peuvent être utilisées pour évaluer les algorithmes de traitement d’images, pour optimiser le choix des paramètres d’IRM pour les fibres cardiaque aussi bien ex vivo que in vivo, et pour étudier la relation entre la structure de fibres microscopique et les propriétés de diffusion macroscopiques. / Diffusion magnetic resonance imaging (dMRI) appears currently as the unique imaging modality to investigate noninvasively both ex vivo and in vivo three-dimensional fiber architectures of the human heart. However, it is difficult to know how well the diffusion characteristics calculated from diffusion images reflect the microstructure properties of the myocardium since there is no ground-truth information available and add to that the influence of various factors such as spatial resolution, noise and artifacts, etc. The main objective of this thesis is then to develop realistic model-based dMRI simulators to simulate diffusion-weighted images for both ex vivo and in vivo cardiac fibers by integrating different imaging modalities, and propose a generic tool for the evaluation of imaging quality and image processing algorithms. To achieve this, the present work focuses on four parts. The first part concerns the formulation of basic dMRI simulation theory for diffusion image generation and subsequent applications on simple cardiac fiber models, and tries to elucidate the underlying relationship between the measured diffusion anisotropic properties and the cardiac fiber characteristics, including both physical and structural ones. The second part addresses the simulation of diffusion magnetic resonance images at multiple scales based on the polarized light imaging data of the human heart. Through both qualitative and quantitative comparison between diffusion properties at different simulation scales, the relationship between the microstructure variation and the diffusion properties observed at macroscopic scales is investigated. The third part deals with studying the influence of imaging parameters on diffusion image properties by means of the improved simulation theory. The last part puts the emphasis on the modeling of in vivo cardiac fiber structures and the simulation of the corresponding diffusion images by combining the cardiac fiber structure and the a priori known heart motion. The proposed simulators provide us a generic tool for generating the simulated diffusion images that can be used for evaluating image processing algorithms, optimizing the choice of MRI parameters in both ex vivo and in vivo cardiac fiber imaging, and investigating the relationship between microscopic fiber structure and macroscopic diffusion properties.
8

Une mesure de non-stationnarité générale : Application en traitement d'images et du signaux biomédicaux / A general non-stationarity measure : Application to biomedical image and signal processing

Xu, Yanli 04 October 2013 (has links)
La variation des intensités est souvent exploitée comme une propriété importante du signal ou de l’image par les algorithmes de traitement. La grandeur permettant de représenter et de quantifier cette variation d’intensité est appelée une « mesure de changement », qui est couramment employée dans les méthodes de détection de ruptures d’un signal, dans la détection des contours d’une image, dans les modèles de segmentation basés sur les contours, et dans des méthodes de lissage d’images avec préservation de discontinuités. Dans le traitement des images et signaux biomédicaux, les mesures de changement existantes fournissent des résultats peu précis lorsque le signal ou l’image présentent un fort niveau de bruit ou un fort caractère aléatoire, ce qui conduit à des artefacts indésirables dans le résultat des méthodes basées sur la mesure de changement. D’autre part, de nouvelles techniques d'imagerie médicale produisent de nouveaux types de données dites à valeurs multiples, qui nécessitent le développement de mesures de changement adaptées. Mesurer le changement dans des données de tenseur pose alors de nouveaux problèmes. Dans ce contexte, une mesure de changement, appelée « mesure de non-stationnarité (NSM) », est améliorée et étendue pour permettre de mesurer la non-stationnarité de signaux multidimensionnels quelconques (scalaire, vectoriel, tensoriel) par rapport à un paramètre statistique, et en fait ainsi une mesure générique et robuste. Une méthode de détection de changements basée sur la NSM et une méthode de détection de contours basée sur la NSM sont respectivement proposées et appliquées aux signaux ECG et EEG, ainsi qu’a des images cardiaques pondérées en diffusion (DW). Les résultats expérimentaux montrent que les méthodes de détection basées sur la NSM permettent de fournir la position précise des points de changement et des contours des structures tout en réduisant efficacement les fausses détections. Un modèle de contour actif géométrique basé sur la NSM (NSM-GAC) est proposé et appliqué pour segmenter des images échographiques de la carotide. Les résultats de segmentation montrent que le modèle NSM-GAC permet d’obtenir de meilleurs résultats comparativement aux outils existants avec moins d'itérations et de temps de calcul, et de réduire les faux contours et les ponts. Enfin, et plus important encore, une nouvelle approche de lissage préservant les caractéristiques locales, appelée filtrage adaptatif de non-stationnarité (NAF), est proposée et appliquée pour améliorer les images DW cardiaques. Les résultats expérimentaux montrent que la méthode proposée peut atteindre un meilleur compromis entre le lissage des régions homogènes et la préservation des caractéristiques désirées telles que les bords ou frontières, ce qui conduit à des champs de tenseurs plus homogènes et par conséquent à des fibres cardiaques reconstruites plus cohérentes. / The intensity variation is often used in signal or image processing algorithms after being quantified by a measurement method. The method for measuring and quantifying the intensity variation is called a « change measure », which is commonly used in methods for signal change detection, image edge detection, edge-based segmentation models, feature-preserving smoothing, etc. In these methods, the « change measure » plays such an important role that their performances are greatly affected by the result of the measurement of changes. The existing « change measures » may provide inaccurate information on changes, while processing biomedical images or signals, due to the high noise level or the strong randomness of the signals. This leads to various undesirable phenomena in the results of such methods. On the other hand, new medical imaging techniques bring out new data types and require new change measures. How to robustly measure changes in theos tensor-valued data becomes a new problem in image and signal processing. In this context, a « change measure », called the Non-Stationarity Measure (NSM), is improved and extended to become a general and robust « change measure » able to quantify changes existing in multidimensional data of different types, regarding different statistical parameters. A NSM-based change detection method and a NSM-based edge detection method are proposed and respectively applied to detect changes in ECG and EEG signals, and to detect edges in the cardiac diffusion weighted (DW) images. Experimental results show that the NSM-based detection methods can provide more accurate positions of change points and edges and can effectively reduce false detections. A NSM-based geometric active contour (NSM-GAC) model is proposed and applied to segment the ultrasound images of the carotid. Experimental results show that the NSM-GAC model provides better segmentation results with less iterations that comparative methods and can reduce false contours and leakages. Last and more important, a new feature-preserving smoothing approach called « Nonstationarity adaptive filtering (NAF) » is proposed and applied to enhance human cardiac DW images. Experimental results show that the proposed method achieves a better compromise between the smoothness of the homogeneous regions and the preservation of desirable features such as boundaries, thus leading to homogeneously consistent tensor fields and consequently a more reconstruction of the coherent fibers.

Page generated in 0.0934 seconds