• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 19
  • 7
  • 2
  • Tagged with
  • 27
  • 27
  • 27
  • 27
  • 18
  • 18
  • 16
  • 10
  • 9
  • 8
  • 8
  • 8
  • 8
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Intégration de connaissances a priori dans la reconstruction des signaux parcimonieux : Cas particulier de la spectroscopie RMN multidimensionnelle / Embedding prior knowledge in the reconstruction of sparse signals : Special case of the multidimensional NMR spectroscopy

Merhej, Dany 10 February 2012 (has links)
Les travaux de cette thèse concernent la conception d’outils algorithmiques permettant l’intégration de connaissances a priori dans la reconstruction de signaux parcimonieux. Le but étant principalement d’améliorer la reconstruction de ces signaux à partir d’un ensemble de mesures largement inférieur à ce que prédit le célèbre théorème de Shannon-Nyquist. Dans une première partie nous proposons, dans le contexte de la nouvelle théorie du « compressed sensing » (CS), l’algorithme NNOMP (Neural Network Orthogonal Matching Pursuit), qui est une version modifiée de l’algorithme OMP dans laquelle nous avons remplacé l'étape de corrélation par un réseau de neurones avec un entraînement adapté. Le but est de mieux reconstruire les signaux parcimonieux possédant des structures supplémentaires, i.e. appartenant à un modèle de signaux parcimonieux particulier. Pour la validation expérimentale de NNOMP, trois modèles simulés de signaux parcimonieux à structures supplémentaires ont été considérés, ainsi qu’une application pratique dans un arrangement similaire au « single pixel imaging ». Dans une deuxième partie, nous proposons une nouvelle méthode de sous-échantillonnage en spectroscopie RMN multidimensionnelle (y compris l’imagerie spectroscopique RMN), lorsque les spectres des acquisitions correspondantes de dimension inférieure, e.g. monodimensionnelle, sont intrinsèquement parcimonieux. Dans cette méthode, on modélise le processus d’acquisition des données et de reconstruction des spectres multidimensionnels, par un système d’équations linéaires. On utilise ensuite des connaissances a priori, sur les emplacements non nuls dans les spectres multidimensionnels, pour enlever la sous-détermination induite par le sous échantillonnage des données. Ces connaissances a priori sont obtenues à partir des spectres des acquisitions de dimension inférieure, e.g. monodimensionnelle. La possibilité de sous-échantillonnage est d’autant plus importante que ces spectres monodimensionnels sont parcimonieux. La méthode proposée est évaluée sur des données synthétiques et expérimentales in vitro et in vivo. / The work of this thesis concerns the proposal of algorithms for the integration of prior knowledge in the reconstruction of sparse signals. The purpose is mainly to improve the reconstruction of these signals from a set of measurements well below what is requested by the famous theorem of Shannon-Nyquist. In the first part we propose, in the context of the new theory of "compressed sensing" (CS), the algorithm NNOMP (Neural Network Orthogonal Matching Pursuit), which is a modified version of the algorithm OMP in which we replaced the correlation step by a properly trained neural network. The goal is to better reconstruct sparse signals with additional structures, i.e. belonging to a particular model of sparse signals. For the experimental validation of NNOMP three simulated models of sparse signals with additional structures were considered and a practical application in an arrangement similar to the “single pixel imaging”. In the second part, we propose a new method for under sampling in multidimensional NMR spectroscopy (including NMR spectroscopic imaging), when the corresponding spectra of lower dimensional acquisitions, e.g. one-dimensional, are intrinsically sparse. In this method, we model the whole process of data acquisition and reconstruction of multidimensional spectra, by a system of linear equations. We then use a priori knowledge about the non-zero locations in multidimensional spectra, to remove the under-determinacy induced by data under sampling. This a priori knowledge is obtained from the lower dimensional acquisition spectra, e.g. one-dimensional. The possibility of under sampling increases proportionally with the sparsity of these one dimensional spectra. The proposed method is evaluated on synthetic, experimental in vitro and in vivo data.
22

Fiber tracking and fiber architecture description in cardiac DT-MRI / Suivi et la description de l'architecture des fibres dans l'IRM-TD cardiaque

LI, Hongying 21 November 2013 (has links)
La connaissance de l’architecture tridimensionnelle (3D) des fibres est cruciale dans la compréhension de la fonction du cœur humain. L’imagerie par résonance magnétique du tenseur de diffusion (IRM-DT) est une technique permettant de mesurer la diffusion des molécules d’eau dans des tissus humains, et donc d’étudier de manière non-invasive l’architecture 3D des fibres du cœur humain. Dans l’IRM-TD cardiaque, la tractographie des fibres est essentielle pour représenter et visualiser l’architecture des fibres, mais souvent utilisée qualitativement comme une dernière étape qui consiste à visualiser sur l’écran l’architecture myocardique obtenue à partir des données IRM-TD. Cependant, cette visualisation qualitative n’est pas suffisante pour décrire de manière objective et complète l’architecture des fibres. L’objectif de cette thèse est de développer de nouvelles approches pour la tractographie et pour la description quantitative de l’architecture des fibres cardiaques du cœur humain en IRM-TD cardiaque. Les travaux de cette thèse se focalisent sur trois axes. Le premier est le développement d’un algorithme de tractographie probabiliste, qui prend en compte la corrélation spatiale des fibres pendant le suivi des fibres myocardiques. Les résultats expérimentaux montrent que la méthode proposée est robuste au bruit. Les fibres produites sont plus régulières et plus lisses, et la configuration des fibres cardiaques est plus facile à observer. Le second axe concerne une nouvelle notion de dépliement de fibres pour décrire les fibres du cœur humain, qui sont souvent complexes dans l’espace 3D. L’idée est d’analyser cette architecture 3D dans un espace réduit à deux dimensions (2D), en utilisant une technique d’apprentissage de variété. L’approche de dépliement proposée permet la description quantitative de l’architecture 3D de fibres cardiaques dans un plan 2D. Les résultats montrent qu’il est beaucoup plus facile d’observer et d’étudier les caractéristiques des fibres cardiaques après les avoir dépliées, et qu’il semble exister des formes de fibres caractéristiques du cœur humain. Le dernier axe consiste en la fusion de fibres, qui est obtenue en moyennant les fibres selon une grille. Cette approche fournit des architectures de fibres simplifiée à différentes échelles, et permet de mieux mettre en évidence la configuration des fibres cardiaques. / It is important to study the cardiac fiber architecture in order to understand the heart function. Diffusion tensor MRI (DT-MRI) is the only noninvasive technique that allows studying cardiac fiber architecture in vivo. Tractography is essential in representing and visualizing cardiac fiber architecture in DT-MRI, but is often employed qualitatively. The motivation of this thesis is to develop technique for studying the cardiac fiber architecture from the fiber tracts provided by the tractography process in cardiac DT-MRI. Our goal is to develop tractography algorithm and approaches for the quantitative description of cardiac fiber architecture. My work is composed of three main axis. The first is the development of a probabilistic tractography algorithm, which takes fiber spatial correlation into accounts in tracing fibers. Experimental results show that the proposed method is meaningfully more robust to noise than the streamlining method, and produces more regular and smoother fibers, which enables cardiac fiber configurations to be more clearly observed. The second concerns a new framework, namely cardiac fiber unfolding, which is an isometric mapping. Our fiber unfolding framework allows the quantitative description of three dimensional cardiac fiber architecture in a two dimensional plan. Our experimental results show that fiber tract pattern can be observed much easier by unfolding them in a plane, and several cardiac fiber patterns were found. The last axis consists in merging fibers, which is achieved by averaging fibers according to a grid. This fiber merging approach provide simplified fiber architecture at different scale as output that highlights the cardiac fiber configuration.
23

Reconstruction et description des fonctions de distribution d'orientation en imagerie de diffusion à haute résolution angulaire / Reconstruction and description of the orientation distribution function of high angular resolution diffusion imaging

Sun, Changyu 02 December 2014 (has links)
Ce travail de thèse porte sur la reconstruction et la description des fonctions de distribution d'orientation (ODF) en imagerie de diffusion à haute résolution angulaire (HARDI) telle que l’imagerie par q-ball (QBI). Dans ce domaine, la fonction de distribution d’orientation (ODF) en QBI est largement utilisée pour étudier le problème de configuration complexe des fibres. Toutefois, jusqu’à présent, l’évaluation des caractéristiques ou de la qualité des ODFs reste essentiellement visuelle et qualitative, bien que l’utilisation de quelques mesures objectives de qualité ait également été reportée dans la littérature, qui sont directement empruntées de la théorie classique de traitement du signal et de l’image. En même temps, l’utilisation appropriée de ces mesures pour la classification des configurations des fibres reste toujours un problème. D'autre part, le QBI a souvent besoin d'un nombre important d’acquisitions pour calculer avec précision les ODFs. Ainsi, la réduction du temps d’acquisition des données QBI est un véritable défi. Dans ce contexte, nous avons abordé les problèmes de comment reconstruire des ODFs de haute qualité et évaluer leurs caractéristiques. Nous avons proposé un nouveau paradigme permettant de décrire les caractéristiques des ODFs de manière plus quantitative. Il consiste à regarder un ODF comme un nuage général de points tridimensionnels (3D), projeter ce nuage de points 3D sur un plan angle-distance (ADM), construire une matrice angle-distance (ADMAT), et calculer des caractéristiques morphologiques de l'ODF telles que le rapport de longueurs, la séparabilité et l'incertitude. En particulier, une nouvelle métrique, appelé PEAM (PEAnut Metric) et qui est basée sur le calcul de l'écart des ODFs par rapport à l’ODF (représenté par une forme arachide) d’une seule fibre, a été proposée et utilisée pour classifier des configurations intravoxel des fibres. Plusieurs méthodes de reconstruction des ODFs ont également été comparées en utilisant les paramètres proposés. Les résultats ont montré que les caractéristiques du nuage de points 3D peuvent être évaluées d'une manière relativement complète et quantitative. En ce qui concerne la reconstruction de l'ODF de haute qualité avec des données réduites, nous avons proposé deux méthodes. La première est basée sur une interpolation par triangulation de Delaunay et sur des contraintes imposées à la fois dans l’espace-q et dans l'espace spatial. La deuxième méthode combine l’échantillonnage aléatoire des directions de gradient de diffusion, le compressed sensing, l’augmentation de la densité de ré-échantillonnage, et la reconstruction des signaux de diffusion manquants. Les résultats ont montré que les approches de reconstruction des signaux de diffusion manquants proposées nous permettent d'obtenir des ODFs précis à partir d’un nombre relativement faible de signaux de diffusion. / This thesis concerns the reconstruction and description of orientation distribution functions (ODFs) in high angular resolution diffusion imaging (HARDI) such as q-ball imaging (QBI). QBI is used to analyze more accurately fiber structures (crossing, bending, fanning, etc.) in a voxel. In this field, the ODF reconstructed from QBI is widely used for resolving complex intravoxel fiber configuration problem. However, until now, the assessment of the characteristics or quality of ODFs remains mainly visual and qualitative, although the use of a few objective quality metrics is also reported that are directly borrowed from classical signal and image processing theory. At the same time, although some metrics such as generalized anisotropy (GA) and generalized fractional anisotropy (GFA) have been proposed for classifying intravoxel fiber configurations, the classification of the latters is still a problem. On the other hand, QBI often needs an important number of acquisitions (usually more than 60 directions) to compute accurately ODFs. So, reducing the quantity of QBI data (i.e. shortening acquisition time) while maintaining ODF quality is a real challenge. In this context, we have addressed the problems of how to reconstruct high-quality ODFs and assess their characteristics. We have proposed a new paradigm allowing describing the characteristics of ODFs more quantitatively. It consists of regarding an ODF as a general three-dimensional (3D) point cloud, projecting a 3D point cloud onto an angle-distance map (ADM), constructing an angle-distance matrix (ADMAT), and calculating morphological characteristics of the ODF such as length ratio, separability and uncertainty. In particular, a new metric, called PEAM (PEAnut Metric), which is based on computing the deviation of ODFs from a single fiber ODF represented by a peanut, was proposed and used to classify intravoxel fiber configurations. Several ODF reconstruction methods have also been compared using the proposed metrics. The results showed that the characteristics of 3D point clouds can be well assessed in a relatively complete and quantitative manner. Concerning the reconstruction of high-quality ODFs with reduced data, we have proposed two methods. The first method is based on interpolation by Delaunay triangulation and imposing constraints in both q-space and spatial space. The second method combines random gradient diffusion direction sampling, compressed sensing, resampling density increasing, and missing diffusion signal recovering. The results showed that the proposed missing diffusion signal recovering approaches enable us to obtain accurate ODFs with relatively fewer number of diffusion signals.
24

Etude de l’imagerie de tenseur de diffusion en utilisant l’acquisition comprimée / Investigation of cardiac diffusion tensor imaging using compressed sensing

Huang, Jianping 13 December 2015 (has links)
L’étude de la structure microscopique des fibres du coeur offre une nouvelle approche pour expliquer les maladies du coeur et pour trouver des moyens de thérapie efficaces. L’imagerie de tenseur de diffusion par résonance magnétique (DTMR) ou l’imagerie de tenseur de diffusion (DTI) fournit actuellement un outil unique pour étudier les structures tridimensionnelles (3D) de fibres cardiaques in vivo. Cependant, DTI est connu pour souffrir des temps d'acquisition longs, ce qui limite considérablement son application pratique et clinique. Les méthodes traditionnelles pour l’acquisition et la reconstruction de l’image ne peuvent pas résoudre ce problème. La motivation principale de cette thèse est alors d’étudier des techniques d'imagerie rapide en reconstruisant des images de haute qualité à partir des données fortement sous-échantillonnées. La méthode adoptée est basée sur la nouvelle théorie de l’acquisition comprimée (CS). Plus précisément, nous étudions l’utilisation de la théorie de CS pour l’imagerie par résonance magnétique (IRM) et DTI cardiaque. Tout d'abord, nous formulons la reconstruction de l’image par résonance magnétique (MR) comme un problème d'optimisation avec les contraintes de trames ajustées guidées par les données (TF) et de variation totale généralisée (TGV) dans le cadre de CS, dans lequel, le TF guidé par les données est utilisé pour apprendre de manière adaptative un ensemble de filtres à partir des données fortement sous-échantillonné afin d’obtenir une meilleure approximation parcimonieuse des images, et le TGV est dédié à régulariser de façon adaptative les régions d'image et à réduire ainsi les effets d'escalier. Ensuite, nous proposons une nouvelle méthode CS qui emploie conjointement la parcimonie et la déficience de rang pour reconstruire des images de DTMR cardiaques à partir des données de l'espace k fortement sous-échantillonnées. Puis, toujours dans le cadre de la théorie CS, nous introduisons la contrainte de rang faible et la régularisation de variation totale (TV) dans la formulation de la reconstruction par CS. Deux régularisations TV sont considérées: TV locale (i.e. TV classique) et TV non locale (NLTV). Enfin, nous proposons deux schémas de sous-échantillonnage radial aléatoire (angle d’or et angle aléatoire) et une méthode d’optimisation avec la contrainte de faible rang et la régularisation TV pour traiter des données espace k fortement sous-échantillonnées en DTI cardiaque. Enfin, nous comparons nos méthodes avec des stratégies existantes de sous-échantillonnage radial telles que l’angle uniforme, l’angle uniforme perturbé aléatoirement, l’angle d’or et l’angle aléatoire. / The investigation of the micro fiber structures of the heart provides a new approach to explaining heart disease and investigating effective therapy means. Diffusion tensor magnetic resonance (DTMR) imaging or diffusion tensor imaging (DTI) currently provides a unique tool to image the three-dimensional (3D) fiber structures of the heart in vivo. However, DTI is known to suffer from long acquisition time, which greatly limits its practical and clinical use. Classical acquisition and reconstruction methods do not allow coping with the problem. The main motivation of this thesis is then to investigae fast imaging techniques by reconstructing high-quality images from highly undersampled data. The methodology adopted is based on the recent theory of compressed sensing (CS). More precisely, we address the use of CS for magnetic resonance imaging (MRI) and cardiac DTI. First, we formulate the magnetic resonance (MR) image reconstruction as a problem of optimization with data-driven tight frame (TF) and total generalized variation (TGV) constraints in the framework of CS, in which the data-driven TF is used to adaptively learn a set of filters from the highly under-sampled data itself to provide a better sparse approximation of images and the TGV is devoted to regularizing adaptively image regions and thus supprressing staircase effects. Second, we propose a new CS method that employs joint sparsity and rank deficiency prior to reconstruct cardiac DTMR images from highly undersampled k-space data. Then, always in the framework of CS theory, we introduce low rank constraint and total variation (TV) regularizations in the CS reconstruction formulation, to reconstruct cardiac DTI images from highly undersampled k-space data. Two TV regularizations are considered: local TV (i.e. classical TV) and nonlocal TV (NLTV). Finally, we propose two randomly perturbed radial undersampling schemes (golden-angle and random angle) and the optimization with low rank constraint and TV regularizations to deal with highly undersampled k-space acquisitons in cardiac DTI, and compare the proposed CS-based DTI with existing radial undersampling strategies such as uniformity-angle, randomly perturbed uniformity-angle, golden-angle, and random angle.
25

In vivo diffusion tensor imaging (DTI) for the human heart under free-breathing conditions / Tenseur de diffusion d'imagerie (DTI) in vivo pour le cœur de l'homme dans des conditions de libre respiration

Wei, Hongjiang 20 November 2013 (has links)
L'orientation des fibres myocardiaque est à la base du comportement électro-mécanique du cœur, et connue pour être altérée dans diverses maladies cardiaques telles que la cardiopathie ischémique et l'hypertrophie ventriculaire. Cette thèse porte principalement sur l'imagerie in vivo du tenseur de diffusion (diffusion tensor imaging—DTI) en vue d’obtenir la structure des fibres myocardiques du cœur humain dans des conditions de respiration libre. L'utilisation de DTI pour l'étude du cœur humain in vivo est un grand défi en raison du mouvement cardiaque. En particulier, l’acquisition DTI avec respiration libre sans recourir au gating respiratoire est très difficile à cause des mouvements à a fois respiratoire et cardiaque. Pour aborder ce problème, nous proposons de nouvelles approches consistant à combiner des acquisitions à retards de déclenchement multiples (trigger delay—TD) et des méthodes de post-traitement. D’abord, nous réalisons des acquisitions avec multiples TD décalés en fin de diastole. Ensuite, nous développons deux méthodes de post-traitement. La première méthode s’attaque au problème d’effets de mouvement physiologique sur DTI cardiaque in vivo en utilisant les techniques de recalage et de PCATMIP (Principal Components Analysis filtering and Temporal Maximum Intensity Projection). La deuxième méthode traite le problème de mouvement par l’utilisation d’un algorithme de fusion d’images basé sur l’ondelette (wavelet-based image fusion-WIF) et d’une technique de débruitage PCA (Principal Components Analysis). Enfin, une comparaison des mesures DTI entre la méthode PCATMIP et la méthode WIF est réalisée ; les champs de tenseurs sont calculés, à partir desquels les propriétés de l’architecture des fibres in vivo sont comparées. Les résultats montrent qu’en utilisant les approches proposées, il est possible d’étudier l’impact du mouvement cardiaque sur les paramètres de tenseur de diffusion, et d’explorer les relations sous-jacentes entre les propriétés de tenseur de diffusion mesurées et le mouvement cardiaque. Nous trouvons aussi que la combinaison des acqusiitions avec des TD multiples décalés and des post-traitements d’images peut compenser les effets de mouvement physiologique, ce qui permet d’obtenir l’architecture 3D du cœur humain dans des conditions de respiration libre. Les résultats suggèrent de nouvelles solutions au problème de perte du signal due au mouvement, qui sont prometteuses pour obtenir les propriétés de l’architecture des fibres myocardiques du cœur humain in vivo, dans des conditions cliniques. / The orientation of cardiac fibers underlies the electro-mechanical behavior of the heart, and it is known to be altered in various cardiac diseases such as ischemic heart disease and ventricular hypertrophy. This thesis mainly focuses on in vivo diffusion tensor imaging (DTI) to obtain the myocardial fiber structure of the human heart under free-breathing conditions. The use of DTI for studying the human heart in vivo is challenging due to cardiac motion. In particular, free-breathing DTI acquisition without resorting to respiratory gating is very difficult due to both respiratory and cardiac motion. To deal with this problem, we propose novel approaches that combine multiple shifted trigger delay (TD) acquisitions and post-processing methods. First, we perform multiple shifted TD acquisitions at end diastole. Then, we focus on two different post-processing methods. The first method addresses physiological motion effects on in vivo cardiac DTI using image co-registration and PCATMIP (Principal Components Analysis filtering and Temporal Maximum Intensity Projection). The second method is a wavelet-based image fusion (WIF) algorithm combined with a PCA noise removing method. Finally, a comparison of DTI measurements between the PCATMIP and WIF methods is also performed; tensor fields are calculated, from which the in vivo fiber architecture properties are compared. The results show that using the proposed approaches, we are able to study the cardiac motion effects on diffusion tensor parameters, and investigate the underlying relationship between the measured diffusion tensor properties and the cardiac motion. We also find that the combination of multiple shifted TD acquisitions and dedicated image post-processing can compensate for physiological motion effects, which allows us to obtain 3D fiber architectures of the human heart under free-breathing conditions. The findings suggest new solutions to signal loss problems associated with bulk motion, which are promising for obtaining in vivo human myocardial fiber architecture properties in clinical conditions.
26

Interpolation des données en imagerie cardiaque par résonance magnétique du tenseur de diffusion / Interpolation of data in cardiac DT-MRI

Yang, Feng 15 January 2011 (has links)
L'un des problèmes fondamentaux de l'imagerie cardiaque par résonance magnétique du tenseur de diffusion (IRM-TD) est sa faible résolution spatiale, à cause des limitations matérielles des scanners IRM actuels. L'objectif principal de ce travail de thèse est de développer de nouvelles approches pour améliorer la résolution des données d'IRM-TD afin de mieux représenter l'architecture myocardique du coeur humain et de la comparer avec des résultats issus d'autres techniques d'investigation telles que l'imagerie par lumière polarisée. Dans ce cadre, le travail porte sur trois parties principales. La première concerne le développement d'une nouvelle approche pour l'interpolation des champs de vecteurs propres principaux issus de l'IRM-TD cardiaque humaine. Cette approche consiste d'abord à supprimer les vecteurs corrompus par le bruit au lieu de débruiter de manière uniforme le champ entier de vecteurs, et ensuite à interpoler le champ de vecteurs en utilisant la modèle Thin-Plate-Spline (TPS) afin d'exploiter la corrélation entre les composantes du vecteur. La deuxième partie concerne une nouvelle famille de méthodes d'interpolation pour les champs de tenseurs, basée soit sur les angles d'Euler soit sur le quaternion. Ces méthodes exploitent les caractéristiques du tenseur et préservent les paramètres de tenseurs, tels que le déterminant du tenseur, l'anisotropie fractionnelle (FA) et la diffusivité moyenne (MD). En outre, cette partie compare les principales approches d'interpolation au niveau des images pondérées en diffusion et des champs de tenseurs, et les résultats montrent qu'il serait préférable d'effectuer l'interpolation des données d'IRM-TD au niveau des champs de tenseurs. La troisième partie étudie le changement des paramètres MD et FA après un infarctus du myocarde chez les cochons, et l'influence des méthodes d'interpolation sur ces paramètres dans la zone infarctus et la zone distante. Les résultats montrent que la zone infarctus présente une diminution significative de FA et une augmentation significative de MD, comparée avec la zone distante, et que les méthodes d'interpolations du tenseur ont plus d'influence sur FA que sur MD, ce qui suggère que l'interprétation de ces paramètres cliniques après l'interpolation doive être prise avec précaution. / One of fundamental problems in human cardiac diffusion tensor magnetic resonance imaging (DT-MRI) is its poor spatial resolution, due to the hardware limitations of MRI scanners. The main purpose of this PhD work is to develop new approaches to improving the resolution of cardiac DT-MRI data in order to better understand the myocardial architecture of the heart and compare it with results issues from other investigation techniques such as polarized light imaging. Within this framework, the present work is composed of three main parts. The first part concerns a new approach to interpolating primary eigenvector fields from human cardiac DT-MRI using Thin Plate Spline (TPS) model. This approach removes the noise-corrupted vectors rather than denoising the whole vector field in a uniform manner, and uses TPS model in order to exploit the correlation between vector components during interpolation. The second part is dealt with a new category of feature-based methods for diffusion tensor field interpolation using either Euler angles or quaternion. These feature-based methods well preserve tensor parameters, such as tensor determinant, fractional anisotropy (FA) and mean diffusivity (MD) values. In this part are also compared the main interpolation approaches at the level of diffusion weighted images and tensor fields. The results show that the interpolation of DT-MRI data should be performed at the level of tensor fields. The last part investigates changes in MD and FA after myocardial infarction in porcine hearts, and the influence of diffusion tensor interpolation methods on FA and MD in both infarction and remote region. It is found that the infarction region showed significantly decreased FA and increased MD than the remote region, and that diffusion tensor interpolations have more significant influence on FA than on MD, which suggests that precaution should be taken when performing the clinical analysis based on the parameters after diffusion tensor interpolations.
27

Une mesure de non-stationnarité générale : Application en traitement d'images et du signaux biomédicaux / A general non-stationarity measure : Application to biomedical image and signal processing

Xu, Yanli 04 October 2013 (has links)
La variation des intensités est souvent exploitée comme une propriété importante du signal ou de l’image par les algorithmes de traitement. La grandeur permettant de représenter et de quantifier cette variation d’intensité est appelée une « mesure de changement », qui est couramment employée dans les méthodes de détection de ruptures d’un signal, dans la détection des contours d’une image, dans les modèles de segmentation basés sur les contours, et dans des méthodes de lissage d’images avec préservation de discontinuités. Dans le traitement des images et signaux biomédicaux, les mesures de changement existantes fournissent des résultats peu précis lorsque le signal ou l’image présentent un fort niveau de bruit ou un fort caractère aléatoire, ce qui conduit à des artefacts indésirables dans le résultat des méthodes basées sur la mesure de changement. D’autre part, de nouvelles techniques d'imagerie médicale produisent de nouveaux types de données dites à valeurs multiples, qui nécessitent le développement de mesures de changement adaptées. Mesurer le changement dans des données de tenseur pose alors de nouveaux problèmes. Dans ce contexte, une mesure de changement, appelée « mesure de non-stationnarité (NSM) », est améliorée et étendue pour permettre de mesurer la non-stationnarité de signaux multidimensionnels quelconques (scalaire, vectoriel, tensoriel) par rapport à un paramètre statistique, et en fait ainsi une mesure générique et robuste. Une méthode de détection de changements basée sur la NSM et une méthode de détection de contours basée sur la NSM sont respectivement proposées et appliquées aux signaux ECG et EEG, ainsi qu’a des images cardiaques pondérées en diffusion (DW). Les résultats expérimentaux montrent que les méthodes de détection basées sur la NSM permettent de fournir la position précise des points de changement et des contours des structures tout en réduisant efficacement les fausses détections. Un modèle de contour actif géométrique basé sur la NSM (NSM-GAC) est proposé et appliqué pour segmenter des images échographiques de la carotide. Les résultats de segmentation montrent que le modèle NSM-GAC permet d’obtenir de meilleurs résultats comparativement aux outils existants avec moins d'itérations et de temps de calcul, et de réduire les faux contours et les ponts. Enfin, et plus important encore, une nouvelle approche de lissage préservant les caractéristiques locales, appelée filtrage adaptatif de non-stationnarité (NAF), est proposée et appliquée pour améliorer les images DW cardiaques. Les résultats expérimentaux montrent que la méthode proposée peut atteindre un meilleur compromis entre le lissage des régions homogènes et la préservation des caractéristiques désirées telles que les bords ou frontières, ce qui conduit à des champs de tenseurs plus homogènes et par conséquent à des fibres cardiaques reconstruites plus cohérentes. / The intensity variation is often used in signal or image processing algorithms after being quantified by a measurement method. The method for measuring and quantifying the intensity variation is called a « change measure », which is commonly used in methods for signal change detection, image edge detection, edge-based segmentation models, feature-preserving smoothing, etc. In these methods, the « change measure » plays such an important role that their performances are greatly affected by the result of the measurement of changes. The existing « change measures » may provide inaccurate information on changes, while processing biomedical images or signals, due to the high noise level or the strong randomness of the signals. This leads to various undesirable phenomena in the results of such methods. On the other hand, new medical imaging techniques bring out new data types and require new change measures. How to robustly measure changes in theos tensor-valued data becomes a new problem in image and signal processing. In this context, a « change measure », called the Non-Stationarity Measure (NSM), is improved and extended to become a general and robust « change measure » able to quantify changes existing in multidimensional data of different types, regarding different statistical parameters. A NSM-based change detection method and a NSM-based edge detection method are proposed and respectively applied to detect changes in ECG and EEG signals, and to detect edges in the cardiac diffusion weighted (DW) images. Experimental results show that the NSM-based detection methods can provide more accurate positions of change points and edges and can effectively reduce false detections. A NSM-based geometric active contour (NSM-GAC) model is proposed and applied to segment the ultrasound images of the carotid. Experimental results show that the NSM-GAC model provides better segmentation results with less iterations that comparative methods and can reduce false contours and leakages. Last and more important, a new feature-preserving smoothing approach called « Nonstationarity adaptive filtering (NAF) » is proposed and applied to enhance human cardiac DW images. Experimental results show that the proposed method achieves a better compromise between the smoothness of the homogeneous regions and the preservation of desirable features such as boundaries, thus leading to homogeneously consistent tensor fields and consequently a more reconstruction of the coherent fibers.

Page generated in 0.4908 seconds