• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 25
  • 21
  • 14
  • 7
  • 3
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 124
  • 21
  • 21
  • 20
  • 20
  • 20
  • 19
  • 17
  • 16
  • 16
  • 15
  • 14
  • 14
  • 14
  • 13
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Ifigênia em Áulis : a função religiosa, o papel das mulheres e a simbologia do sacrifício na tragédia euripedeana

Marquardt, Cristina Rosito January 2007 (has links)
La distance à la fois culturelle et temporelle qui nous sépare du moment de naissance des tragédies classiques nous pose toute une série de problèmes pour leur interprétation. Pour en faire face, cette thèse propose une lecture de la tragédie Iphigénie à Aulis d'Euripide dont l'axe principal est la mise en évidence de son milieu historique, culturel et cultuel afin de rendre possible au lecteur moderne une compréhension approfondie d'une des principales tragédies créés par le génie grec. En ce qui concerne le contexte historique, on fait référence surtout à la Guerre du Péloponnèse. C'est par rapport au moment politique vécu par l'auteur qu'on parvient à comprendre la fonction que certains personnages jouent dans la trame. La fortune critique d'Euripide y reçoit également une attention spéciale. On passe ainsi en revue aux principaux courants d'interprétation, à la fois anciens (Aristophane) et modernes (Nietzsche, Snell, Gill et Williams) de l'oeuvre euripidenne. Le vocabulaire employé par Euripide est objet d'une analyse dont la fonction est la mise en évidence de certains traits de l'imaginaire religieux grec présent dans cette tragédie. On parvient, par l'étude de la terminologie religieuse, notamment dans le sacrifice d' Iphigénie, à mieux comprendre l'action et les traits de caractère de certains personnages, comme Agamemon, Mènèlas et Odyssé. Les rituels initiatiques et le locus occupé par la féminin dans la Grèce Classique, surtout au Ve siècle, rendent possible la découverte d'un texte dont a plusieurs significations et dont la richesse échappe bien souvent aux lecteurs modernes qui ignorent les choix linguistiques du tragédien grec. / As distâncias cultural e temporal que nos separam do momento de nascimento das tragédias clássicas colocam-nos uma série de problemas para suas interpretações. Para fazer-lhes face, a presente tese propõe uma leitura da tragédia Ifigênia em Áulis de Eurípides cujo eixo principal é o destaque aos contextos histórico, cultural e cultual a fim de tornar possível ao leitor moderno uma compreensão mais profunda de uma das principais tragédias criadas pelo gênio grego. No que diz respeito ao contexto histórico, faz-se, sobretudo, referência à Guerra do Peloponeso. É por relação ao momento histórico vivido pelo autor que a tese procura compreender a função que certos personagens desempenham na trama. A fortuna crítica de Eurípides recebe igualmente atenção especial. Passa-se em revisa às principais correntes interpretativas tanto antigas (Aristófanes) quanto modernas (Nietzsche, Snell, Gill e Williams) da obra euripideana. O vocabulário empregado pelo tragediógrafo é objeto de uma análise cuja função é a de destacar certos traços do imaginário religioso grego presente na tragédia. Por meio do estudo da terminologia religiosa, notadamente no caso do sacrifício de Ifigênia, compreende-se melhor a ação e os traços de caráter de certos personagens, como Agamenon, Menelau e Odisseu. Os rituais iniciáticos e o locus ocupado pelo feminino na Grécia Clássica, especialmente no século V, tornam possível a descoberta de um texto cujas múltiplas significações e riqueza escapam freqüentemente aos leitores modernos que ignoram as escolhas lingüísticas do dramaturgo grego.
112

Ifigênia em Áulis : a função religiosa, o papel das mulheres e a simbologia do sacrifício na tragédia euripedeana

Marquardt, Cristina Rosito January 2007 (has links)
La distance à la fois culturelle et temporelle qui nous sépare du moment de naissance des tragédies classiques nous pose toute une série de problèmes pour leur interprétation. Pour en faire face, cette thèse propose une lecture de la tragédie Iphigénie à Aulis d'Euripide dont l'axe principal est la mise en évidence de son milieu historique, culturel et cultuel afin de rendre possible au lecteur moderne une compréhension approfondie d'une des principales tragédies créés par le génie grec. En ce qui concerne le contexte historique, on fait référence surtout à la Guerre du Péloponnèse. C'est par rapport au moment politique vécu par l'auteur qu'on parvient à comprendre la fonction que certains personnages jouent dans la trame. La fortune critique d'Euripide y reçoit également une attention spéciale. On passe ainsi en revue aux principaux courants d'interprétation, à la fois anciens (Aristophane) et modernes (Nietzsche, Snell, Gill et Williams) de l'oeuvre euripidenne. Le vocabulaire employé par Euripide est objet d'une analyse dont la fonction est la mise en évidence de certains traits de l'imaginaire religieux grec présent dans cette tragédie. On parvient, par l'étude de la terminologie religieuse, notamment dans le sacrifice d' Iphigénie, à mieux comprendre l'action et les traits de caractère de certains personnages, comme Agamemon, Mènèlas et Odyssé. Les rituels initiatiques et le locus occupé par la féminin dans la Grèce Classique, surtout au Ve siècle, rendent possible la découverte d'un texte dont a plusieurs significations et dont la richesse échappe bien souvent aux lecteurs modernes qui ignorent les choix linguistiques du tragédien grec. / As distâncias cultural e temporal que nos separam do momento de nascimento das tragédias clássicas colocam-nos uma série de problemas para suas interpretações. Para fazer-lhes face, a presente tese propõe uma leitura da tragédia Ifigênia em Áulis de Eurípides cujo eixo principal é o destaque aos contextos histórico, cultural e cultual a fim de tornar possível ao leitor moderno uma compreensão mais profunda de uma das principais tragédias criadas pelo gênio grego. No que diz respeito ao contexto histórico, faz-se, sobretudo, referência à Guerra do Peloponeso. É por relação ao momento histórico vivido pelo autor que a tese procura compreender a função que certos personagens desempenham na trama. A fortuna crítica de Eurípides recebe igualmente atenção especial. Passa-se em revisa às principais correntes interpretativas tanto antigas (Aristófanes) quanto modernas (Nietzsche, Snell, Gill e Williams) da obra euripideana. O vocabulário empregado pelo tragediógrafo é objeto de uma análise cuja função é a de destacar certos traços do imaginário religioso grego presente na tragédia. Por meio do estudo da terminologia religiosa, notadamente no caso do sacrifício de Ifigênia, compreende-se melhor a ação e os traços de caráter de certos personagens, como Agamenon, Menelau e Odisseu. Os rituais iniciáticos e o locus ocupado pelo feminino na Grécia Clássica, especialmente no século V, tornam possível a descoberta de um texto cujas múltiplas significações e riqueza escapam freqüentemente aos leitores modernos que ignoram as escolhas lingüísticas do dramaturgo grego.
113

Feature selection based segmentation of multi-source images : application to brain tumor segmentation in multi-sequence MRI / Segmentation des images multi-sources basée sur la sélection des attributs : application à la segmentation des tumeurs cérébrales en IRM

Zhang, Nan 12 September 2011 (has links)
Les images multi-spectrales présentent l’avantage de fournir des informations complémentaires permettant de lever des ambigüités. Le défi est cependant comment exploiter ces informations multi-spectrales efficacement. Dans cette thèse, nous nous focalisons sur la fusion des images multi-spectrales en extrayant des attributs les plus pertinents en vue d’obtenir la meilleure segmentation possible avec le moindre coût de calcul possible. La classification par le Support Vector Machine (SVM), combinée avec une méthode de sélection d’attributs, est proposée. Le critère de sélection est défini par la séparabilité des noyaux de classe. S’appuyant sur cette classification SVM, un cadre pour suivre l’évolution est proposé. Il comprend les étapes suivantes : apprentissage des tumeurs cérébrales et sélection des attributs à partir du premier examen IRM (imagerie par résonance magnétique) ; segmentation automatique des tumeurs dans de nouvelles images en utilisant une classification basée sur le SVM multi-noyaux ; affiner le contour des tumeurs par une technique de croissance de région ; effectuer un éventuel apprentissage adaptatif. L’approche proposée a été évaluée sur 13 patients avec 24 examens, y compris 72 séquences IRM et 1728 images. En comparant avec le SVM traditionnel, Fuzzy C-means, le réseau de neurones, et une méthode d’ensemble de niveaux, les résultats de segmentation et l’analyse quantitative de ces résultats démontrent l’efficacité de l’approche proposée. / Multi-spectral images have the advantage of providing complementary information to resolve some ambiguities. But, the challenge is how to make use of the multi-spectral images effectively. In this thesis, our study focuses on the fusion of multi-spectral images by extracting the most useful features to obtain the best segmentation with the least cost in time. The Support Vector Machine (SVM) classification integrated with a selection of the features in a kernel space is proposed. The selection criterion is defined by the kernel class separability. Based on this SVM classification, a framework to follow up brain tumor evolution is proposed, which consists of the following steps: to learn the brain tumors and select the features from the first magnetic resonance imaging (MRI) examination of the patients; to automatically segment the tumor in new data using a multi-kernel SVM based classification; to refine the tumor contour by a region growing technique; and to possibly carry out an adaptive training. The proposed system was tested on 13 patients with 24 examinations, including 72 MRI sequences and 1728 images. Compared with the manual traces of the doctors as the ground truth, the average classification accuracy reaches 98.9%. The system utilizes several novel feature selection methods to test the integration of feature selection and SVM classifiers. Also compared with the traditional SVM, Fuzzy C-means, the neural network and an improved level set method, the segmentation results and quantitative data analysis demonstrate the effectiveness of our proposed system.
114

Intégration de connaissances a priori dans la reconstruction des signaux parcimonieux : Cas particulier de la spectroscopie RMN multidimensionnelle / Embedding prior knowledge in the reconstruction of sparse signals : Special case of the multidimensional NMR spectroscopy

Merhej, Dany 10 February 2012 (has links)
Les travaux de cette thèse concernent la conception d’outils algorithmiques permettant l’intégration de connaissances a priori dans la reconstruction de signaux parcimonieux. Le but étant principalement d’améliorer la reconstruction de ces signaux à partir d’un ensemble de mesures largement inférieur à ce que prédit le célèbre théorème de Shannon-Nyquist. Dans une première partie nous proposons, dans le contexte de la nouvelle théorie du « compressed sensing » (CS), l’algorithme NNOMP (Neural Network Orthogonal Matching Pursuit), qui est une version modifiée de l’algorithme OMP dans laquelle nous avons remplacé l'étape de corrélation par un réseau de neurones avec un entraînement adapté. Le but est de mieux reconstruire les signaux parcimonieux possédant des structures supplémentaires, i.e. appartenant à un modèle de signaux parcimonieux particulier. Pour la validation expérimentale de NNOMP, trois modèles simulés de signaux parcimonieux à structures supplémentaires ont été considérés, ainsi qu’une application pratique dans un arrangement similaire au « single pixel imaging ». Dans une deuxième partie, nous proposons une nouvelle méthode de sous-échantillonnage en spectroscopie RMN multidimensionnelle (y compris l’imagerie spectroscopique RMN), lorsque les spectres des acquisitions correspondantes de dimension inférieure, e.g. monodimensionnelle, sont intrinsèquement parcimonieux. Dans cette méthode, on modélise le processus d’acquisition des données et de reconstruction des spectres multidimensionnels, par un système d’équations linéaires. On utilise ensuite des connaissances a priori, sur les emplacements non nuls dans les spectres multidimensionnels, pour enlever la sous-détermination induite par le sous échantillonnage des données. Ces connaissances a priori sont obtenues à partir des spectres des acquisitions de dimension inférieure, e.g. monodimensionnelle. La possibilité de sous-échantillonnage est d’autant plus importante que ces spectres monodimensionnels sont parcimonieux. La méthode proposée est évaluée sur des données synthétiques et expérimentales in vitro et in vivo. / The work of this thesis concerns the proposal of algorithms for the integration of prior knowledge in the reconstruction of sparse signals. The purpose is mainly to improve the reconstruction of these signals from a set of measurements well below what is requested by the famous theorem of Shannon-Nyquist. In the first part we propose, in the context of the new theory of "compressed sensing" (CS), the algorithm NNOMP (Neural Network Orthogonal Matching Pursuit), which is a modified version of the algorithm OMP in which we replaced the correlation step by a properly trained neural network. The goal is to better reconstruct sparse signals with additional structures, i.e. belonging to a particular model of sparse signals. For the experimental validation of NNOMP three simulated models of sparse signals with additional structures were considered and a practical application in an arrangement similar to the “single pixel imaging”. In the second part, we propose a new method for under sampling in multidimensional NMR spectroscopy (including NMR spectroscopic imaging), when the corresponding spectra of lower dimensional acquisitions, e.g. one-dimensional, are intrinsically sparse. In this method, we model the whole process of data acquisition and reconstruction of multidimensional spectra, by a system of linear equations. We then use a priori knowledge about the non-zero locations in multidimensional spectra, to remove the under-determinacy induced by data under sampling. This a priori knowledge is obtained from the lower dimensional acquisition spectra, e.g. one-dimensional. The possibility of under sampling increases proportionally with the sparsity of these one dimensional spectra. The proposed method is evaluated on synthetic, experimental in vitro and in vivo data.
115

Contributions to Mean Shift filtering and segmentation : Application to MRI ischemic data / Contributions au filtrage Mean Shift à la segmentation : Application à l’ischémie cérébrale en imagerie IRM

Li, Thing 04 April 2012 (has links)
De plus en plus souvent, les études médicales utilisent simultanément de multiples modalités d'acquisition d'image, produisant ainsi des données multidimensionnelles comportant beaucoup d'information supplémentaire dont l'interprétation et le traitement deviennent délicat. Par exemple, les études sur l'ischémie cérébrale se basant sur la combinaison de plusieurs images IRM, provenant de différentes séquences d'acquisition, pour prédire l'évolution de la zone nécrosée, donnent de bien meilleurs résultats que celles basées sur une seule image. Ces approches nécessitent cependant l'utilisation d'algorithmes plus complexes pour réaliser les opérations de filtrage, segmentation et de clustering. Une approche robuste pour répondre à ces problèmes de traitements de données multidimensionnelles est le Mean Shift qui est basé sur l'analyse de l'espace des caractéristiques et l'estimation non-paramétrique par noyau de la densité de probabilité. Dans cette thèse, nous étudions les paramètres qui influencent les résultats du Mean Shift et nous cherchons à optimiser leur choix. Nous examinons notamment l'effet du bruit et du flou dans l'espace des caractéristiques et comment le Mean Shift doit être paramétrés pour être optimal pour le débruitage et la réduction du flou. Le grand succès du Mean Shift est principalement du au réglage intuitif de ces paramètres de la méthode. Ils représentent l'échelle à laquelle le Mean Shift analyse chacune des caractéristiques. En se basant sur la méthode du Plug In (PI) monodimensionnel, fréquemment utilisé pour le filtrage Mean Shift et permettant, dans le cadre de l'estimation non-paramétrique par noyau, d'approximer le paramètre d'échelle optimal, nous proposons l'utilisation du PI multidimensionnel pour le filtrage Mean Shift. Nous évaluons l'intérêt des matrices d'échelle diagonales et pleines calculées à partir des règles du PI sur des images de synthèses et naturelles. Enfin, nous proposons une méthode de segmentation automatique et volumique combinant le filtrage Mean Shift et la croissance de région ainsi qu'une optimisation basée sur les cartes de probabilité. Cette approche est d'abord étudiée sur des images IRM synthétisées. Des tests sur des données réelles issues d'études sur l'ischémie cérébrale chez le rats et l'humain sont aussi conduits pour déterminer l'efficacité de l'approche à prédire l'évolution de la zone de pénombre plusieurs jours après l'accident vasculaire et ce, à partir des IRM réalisées peu de temps après la survenue de cet accident. Par rapport aux segmentations manuelles réalisées des experts médicaux plusieurs jours après l'accident, les résultats obtenus par notre approche sont mitigés. Alors qu'une segmentation parfaite conduirait à un coefficient DICE de 1, le coefficient est de 0.8 pour l'étude chez le rat et de 0.53 pour l'étude sur l'homme. Toujours en utilisant le coefficient DICE, nous déterminons la combinaison de d'images IRM conduisant à la meilleure prédiction. / Medical studies increasingly use multi-modality imaging, producing multidimensional data that bring additional information that are also challenging to process and interpret. As an example, for predicting salvageable tissue, ischemic studies in which combinations of different multiple MRI imaging modalities (DWI, PWI) are used produced more conclusive results than studies made using a single modality. However, the multi-modality approach necessitates the use of more advanced algorithms to perform otherwise regular image processing tasks such as filtering, segmentation and clustering. A robust method for addressing the problems associated with processing data obtained from multi-modality imaging is Mean Shift which is based on feature space analysis and on non-parametric kernel density estimation and can be used for multi-dimensional filtering, segmentation and clustering. In this thesis, we sought to optimize the mean shift process by analyzing the factors that influence it and optimizing its parameters. We examine the effect of noise in processing the feature space and how Mean Shift can be tuned for optimal de-noising and also to reduce blurring. The large success of Mean Shift is mainly due to the intuitive tuning of bandwidth parameters which describe the scale at which features are analyzed. Based on univariate Plug-In (PI) bandwidth selectors of kernel density estimation, we propose the bandwidth matrix estimation method based on multi-variate PI for Mean Shift filtering. We study the interest of using diagonal and full bandwidth matrix with experiment on synthesized and natural images. We propose a new and automatic volume-based segmentation framework which combines Mean Shift filtering and Region Growing segmentation as well as Probability Map optimization. The framework is developed using synthesized MRI images as test data and yielded a perfect segmentation with DICE similarity measurement values reaching the highest value of 1. Testing is then extended to real MRI data obtained from animals and patients with the aim of predicting the evolution of the ischemic penumbra several days following the onset of ischemia using only information obtained from the very first scan. The results obtained are an average DICE of 0.8 for the animal MRI image scans and 0.53 for the patients MRI image scans; the reference images for both cases are manually segmented by a team of expert medical staff. In addition, the most relevant combination of parameters for the MRI modalities is determined.
116

Modélisation et simulation de l’IRM de diffusion des fibres myocardiques / Modeling and simulation of diffusion magnetic resonance imaging for cardiac fibers

Wang, Lihui 21 January 2013 (has links)
L’imagerie par résonance magnétique de diffusion (l’IRMd) est actuellement la seule technique non-invasive pour étudier l’architecture tridimensionnelle des fibres myocardiques du cœur humain à la fois ex vivo et in vivo. Cependant, il est difficile de savoir comment les caractéristiques de diffusion calculées à partir des images de diffusion reflètent les propriétés des microstructures du myocarde à cause de l’absence de la vérité-terrain sans parler de l’influence de divers facteurs tels que la résolution spatiale, le bruit et les artéfacts. L'objectif principal de cette thèse est donc de développer des simulateurs de l’IRM de diffusion basés sur des modèles réalistes afin de simuler, en intégrant différentes modalités d'imagerie, les images pondérées en diffusion des fibres myocardiques à la fois ex vivo et in vivo, et de proposer un outil générique permettant d’évaluer la qualité de l’imagerie et les algorithmes de traitement d’images. Pour atteindre cet objectif, le présent travail se focalise sur quatre parties principales. La première partie concerne la formulation de la théorie de simulation IRMd pour la génération d’images de diffusion et pour les applications sur les modèles simples de fibres cardiaques chez l’homme, et essaie de comprendre la relation sous-jacente entre les propriétés mesurées de la diffusion et les caractéristiques à la fois physiques et structurelles des fibres cardiaques. La seconde partie porte sur la simulation des images de résonance magnétique de diffusion à différentes échelles en s’appuyant sur des données du cœur humain issues de l'imagerie par lumière polarisée. En comparant les propriétés de diffusion à différentes échelles, la relation entre la variation de la microstructure et les propriétés de diffusion observée à l'échelle macroscopique est étudiée. La troisième partie consacre à l’analyse de l'influence des paramètres d'imagerie sur les propriétés de diffusion en utilisant une théorie de simulation améliorée. La dernière partie a pour objectif de modéliser la structure des fibres cardiaques in vivo et de simuler les images de diffusion correspondantes en combinant la structure des fibres cardiaques et le mouvement cardiaque connu a priori. Les simulateurs proposés nous fournissent un outil générique pour générer des images de diffusion simulées qui peuvent être utilisées pour évaluer les algorithmes de traitement d’images, pour optimiser le choix des paramètres d’IRM pour les fibres cardiaque aussi bien ex vivo que in vivo, et pour étudier la relation entre la structure de fibres microscopique et les propriétés de diffusion macroscopiques. / Diffusion magnetic resonance imaging (dMRI) appears currently as the unique imaging modality to investigate noninvasively both ex vivo and in vivo three-dimensional fiber architectures of the human heart. However, it is difficult to know how well the diffusion characteristics calculated from diffusion images reflect the microstructure properties of the myocardium since there is no ground-truth information available and add to that the influence of various factors such as spatial resolution, noise and artifacts, etc. The main objective of this thesis is then to develop realistic model-based dMRI simulators to simulate diffusion-weighted images for both ex vivo and in vivo cardiac fibers by integrating different imaging modalities, and propose a generic tool for the evaluation of imaging quality and image processing algorithms. To achieve this, the present work focuses on four parts. The first part concerns the formulation of basic dMRI simulation theory for diffusion image generation and subsequent applications on simple cardiac fiber models, and tries to elucidate the underlying relationship between the measured diffusion anisotropic properties and the cardiac fiber characteristics, including both physical and structural ones. The second part addresses the simulation of diffusion magnetic resonance images at multiple scales based on the polarized light imaging data of the human heart. Through both qualitative and quantitative comparison between diffusion properties at different simulation scales, the relationship between the microstructure variation and the diffusion properties observed at macroscopic scales is investigated. The third part deals with studying the influence of imaging parameters on diffusion image properties by means of the improved simulation theory. The last part puts the emphasis on the modeling of in vivo cardiac fiber structures and the simulation of the corresponding diffusion images by combining the cardiac fiber structure and the a priori known heart motion. The proposed simulators provide us a generic tool for generating the simulated diffusion images that can be used for evaluating image processing algorithms, optimizing the choice of MRI parameters in both ex vivo and in vivo cardiac fiber imaging, and investigating the relationship between microscopic fiber structure and macroscopic diffusion properties.
117

Fiber tracking and fiber architecture description in cardiac DT-MRI / Suivi et la description de l'architecture des fibres dans l'IRM-TD cardiaque

LI, Hongying 21 November 2013 (has links)
La connaissance de l’architecture tridimensionnelle (3D) des fibres est cruciale dans la compréhension de la fonction du cœur humain. L’imagerie par résonance magnétique du tenseur de diffusion (IRM-DT) est une technique permettant de mesurer la diffusion des molécules d’eau dans des tissus humains, et donc d’étudier de manière non-invasive l’architecture 3D des fibres du cœur humain. Dans l’IRM-TD cardiaque, la tractographie des fibres est essentielle pour représenter et visualiser l’architecture des fibres, mais souvent utilisée qualitativement comme une dernière étape qui consiste à visualiser sur l’écran l’architecture myocardique obtenue à partir des données IRM-TD. Cependant, cette visualisation qualitative n’est pas suffisante pour décrire de manière objective et complète l’architecture des fibres. L’objectif de cette thèse est de développer de nouvelles approches pour la tractographie et pour la description quantitative de l’architecture des fibres cardiaques du cœur humain en IRM-TD cardiaque. Les travaux de cette thèse se focalisent sur trois axes. Le premier est le développement d’un algorithme de tractographie probabiliste, qui prend en compte la corrélation spatiale des fibres pendant le suivi des fibres myocardiques. Les résultats expérimentaux montrent que la méthode proposée est robuste au bruit. Les fibres produites sont plus régulières et plus lisses, et la configuration des fibres cardiaques est plus facile à observer. Le second axe concerne une nouvelle notion de dépliement de fibres pour décrire les fibres du cœur humain, qui sont souvent complexes dans l’espace 3D. L’idée est d’analyser cette architecture 3D dans un espace réduit à deux dimensions (2D), en utilisant une technique d’apprentissage de variété. L’approche de dépliement proposée permet la description quantitative de l’architecture 3D de fibres cardiaques dans un plan 2D. Les résultats montrent qu’il est beaucoup plus facile d’observer et d’étudier les caractéristiques des fibres cardiaques après les avoir dépliées, et qu’il semble exister des formes de fibres caractéristiques du cœur humain. Le dernier axe consiste en la fusion de fibres, qui est obtenue en moyennant les fibres selon une grille. Cette approche fournit des architectures de fibres simplifiée à différentes échelles, et permet de mieux mettre en évidence la configuration des fibres cardiaques. / It is important to study the cardiac fiber architecture in order to understand the heart function. Diffusion tensor MRI (DT-MRI) is the only noninvasive technique that allows studying cardiac fiber architecture in vivo. Tractography is essential in representing and visualizing cardiac fiber architecture in DT-MRI, but is often employed qualitatively. The motivation of this thesis is to develop technique for studying the cardiac fiber architecture from the fiber tracts provided by the tractography process in cardiac DT-MRI. Our goal is to develop tractography algorithm and approaches for the quantitative description of cardiac fiber architecture. My work is composed of three main axis. The first is the development of a probabilistic tractography algorithm, which takes fiber spatial correlation into accounts in tracing fibers. Experimental results show that the proposed method is meaningfully more robust to noise than the streamlining method, and produces more regular and smoother fibers, which enables cardiac fiber configurations to be more clearly observed. The second concerns a new framework, namely cardiac fiber unfolding, which is an isometric mapping. Our fiber unfolding framework allows the quantitative description of three dimensional cardiac fiber architecture in a two dimensional plan. Our experimental results show that fiber tract pattern can be observed much easier by unfolding them in a plane, and several cardiac fiber patterns were found. The last axis consists in merging fibers, which is achieved by averaging fibers according to a grid. This fiber merging approach provide simplified fiber architecture at different scale as output that highlights the cardiac fiber configuration.
118

Reconstruction et description des fonctions de distribution d'orientation en imagerie de diffusion à haute résolution angulaire / Reconstruction and description of the orientation distribution function of high angular resolution diffusion imaging

Sun, Changyu 02 December 2014 (has links)
Ce travail de thèse porte sur la reconstruction et la description des fonctions de distribution d'orientation (ODF) en imagerie de diffusion à haute résolution angulaire (HARDI) telle que l’imagerie par q-ball (QBI). Dans ce domaine, la fonction de distribution d’orientation (ODF) en QBI est largement utilisée pour étudier le problème de configuration complexe des fibres. Toutefois, jusqu’à présent, l’évaluation des caractéristiques ou de la qualité des ODFs reste essentiellement visuelle et qualitative, bien que l’utilisation de quelques mesures objectives de qualité ait également été reportée dans la littérature, qui sont directement empruntées de la théorie classique de traitement du signal et de l’image. En même temps, l’utilisation appropriée de ces mesures pour la classification des configurations des fibres reste toujours un problème. D'autre part, le QBI a souvent besoin d'un nombre important d’acquisitions pour calculer avec précision les ODFs. Ainsi, la réduction du temps d’acquisition des données QBI est un véritable défi. Dans ce contexte, nous avons abordé les problèmes de comment reconstruire des ODFs de haute qualité et évaluer leurs caractéristiques. Nous avons proposé un nouveau paradigme permettant de décrire les caractéristiques des ODFs de manière plus quantitative. Il consiste à regarder un ODF comme un nuage général de points tridimensionnels (3D), projeter ce nuage de points 3D sur un plan angle-distance (ADM), construire une matrice angle-distance (ADMAT), et calculer des caractéristiques morphologiques de l'ODF telles que le rapport de longueurs, la séparabilité et l'incertitude. En particulier, une nouvelle métrique, appelé PEAM (PEAnut Metric) et qui est basée sur le calcul de l'écart des ODFs par rapport à l’ODF (représenté par une forme arachide) d’une seule fibre, a été proposée et utilisée pour classifier des configurations intravoxel des fibres. Plusieurs méthodes de reconstruction des ODFs ont également été comparées en utilisant les paramètres proposés. Les résultats ont montré que les caractéristiques du nuage de points 3D peuvent être évaluées d'une manière relativement complète et quantitative. En ce qui concerne la reconstruction de l'ODF de haute qualité avec des données réduites, nous avons proposé deux méthodes. La première est basée sur une interpolation par triangulation de Delaunay et sur des contraintes imposées à la fois dans l’espace-q et dans l'espace spatial. La deuxième méthode combine l’échantillonnage aléatoire des directions de gradient de diffusion, le compressed sensing, l’augmentation de la densité de ré-échantillonnage, et la reconstruction des signaux de diffusion manquants. Les résultats ont montré que les approches de reconstruction des signaux de diffusion manquants proposées nous permettent d'obtenir des ODFs précis à partir d’un nombre relativement faible de signaux de diffusion. / This thesis concerns the reconstruction and description of orientation distribution functions (ODFs) in high angular resolution diffusion imaging (HARDI) such as q-ball imaging (QBI). QBI is used to analyze more accurately fiber structures (crossing, bending, fanning, etc.) in a voxel. In this field, the ODF reconstructed from QBI is widely used for resolving complex intravoxel fiber configuration problem. However, until now, the assessment of the characteristics or quality of ODFs remains mainly visual and qualitative, although the use of a few objective quality metrics is also reported that are directly borrowed from classical signal and image processing theory. At the same time, although some metrics such as generalized anisotropy (GA) and generalized fractional anisotropy (GFA) have been proposed for classifying intravoxel fiber configurations, the classification of the latters is still a problem. On the other hand, QBI often needs an important number of acquisitions (usually more than 60 directions) to compute accurately ODFs. So, reducing the quantity of QBI data (i.e. shortening acquisition time) while maintaining ODF quality is a real challenge. In this context, we have addressed the problems of how to reconstruct high-quality ODFs and assess their characteristics. We have proposed a new paradigm allowing describing the characteristics of ODFs more quantitatively. It consists of regarding an ODF as a general three-dimensional (3D) point cloud, projecting a 3D point cloud onto an angle-distance map (ADM), constructing an angle-distance matrix (ADMAT), and calculating morphological characteristics of the ODF such as length ratio, separability and uncertainty. In particular, a new metric, called PEAM (PEAnut Metric), which is based on computing the deviation of ODFs from a single fiber ODF represented by a peanut, was proposed and used to classify intravoxel fiber configurations. Several ODF reconstruction methods have also been compared using the proposed metrics. The results showed that the characteristics of 3D point clouds can be well assessed in a relatively complete and quantitative manner. Concerning the reconstruction of high-quality ODFs with reduced data, we have proposed two methods. The first method is based on interpolation by Delaunay triangulation and imposing constraints in both q-space and spatial space. The second method combines random gradient diffusion direction sampling, compressed sensing, resampling density increasing, and missing diffusion signal recovering. The results showed that the proposed missing diffusion signal recovering approaches enable us to obtain accurate ODFs with relatively fewer number of diffusion signals.
119

Développement d’aimant bas champ pour RMN Portable : Conception et construction / Development of portable low field NMR magnet : Design and construction

Dang Phuc, Hung 29 January 2015 (has links)
Les travaux menés au cours de cette thèse porté sur le développement d’un aimant pour système de RMN portable. Une homogénéité élevée a été recherchée tout en maintenant le champ magnétique statique B0 aussi élevé que possible (100ppm, 0.12T). Les dimensions de l’aimant sont prédéfinies ainsi que celles de la zone d'intérêt fonction de la taille des aimants permanents utilisés. Ce type de système est dédié à la recherche biomédicale et agroalimentaire. Les travaux présentés ont consisté, à discuter dans un premier temps un certain nombre des paramètres des matériaux magnétiques essentiels à la construction d’aimants de RMN portables. Plus particulièrement le choix des aimants permanents, utilisant un matériau tels que le NdFeB a été justifié. Une combinaison entre portabilité, prix et sensibilité a abouti à la conception d’un prototype d’aimant portable pour appareil RMN à partir d’un système simple d’arrangement de 24 aimants permanents. Le champ magnétique et l'homogénéité de ce système ont été calculés et simulés à l’aide du logiciel Ansys puis les résultats obtenus ont été vérifiés avec le logiciel Radia. Une nouvelle méthode de shim pour augmenter l'homogénéité et corriger les imperfections du champ B0 a été aussi introduite. La position des aimants de shim a fait l’objet d’une optimisation avec le logiciel Radia. Sur la base de ces résultats, un prototype a été réalisé. Les résultats des mesures de champ magnétique et de l'homogénéité sont en bonne corrélation avec les résultats obtenus par simulation. Les erreurs de mesure ont été estimées et une précision suffisante a été atteinte compte tenu des tolérances portant à la fois sur les caractéristiques et sur la fabrication des aimants. Un autre aimant basé sur la configuration Mandhalas (Magnet Arrangement for Novel Discrete Halbach Layout) a fait l’objet d’une étude comparative, portant sur deux configurations utilisant des aimants de formes circulaires et de formes carrés, a été effectuée par simulation 2D (sur la base de trois critères : la masse, l'homogénéité et l'intensité du champ magnétique). Les Mandhalas fabriqués à partir d’aimants circulaires permettent d’avoir de meilleurs résultats (0.32T, 178ppm). D’autre part, la simulation 3D a été faite afin d’évaluer la totalité du système. A partir des résultats obtenus, un système de shim passif a été aussi utilisé dans ce cas et a permis l’augmentation de la zone d'homogénéité de manière significative. / This thesis focuses on the development of a magnet system for NMR applications with high homogeneity while maintaining the static magnetic field B0 as high as possible (100 ppm, 0.12T). Due to the application goals, the magnet dimensions are predefined as well as those of the region of interest according to the size of the used permanent magnets. Such system is dedicated to biomedical and agroalimentary applications. The goal of this research has been firstly, the discussion of parameters of magnetic materials which are essential to the construction of portable NMR magnets, and then the choice of the permanent magnet material the “NdFeB” that was explained. A compromise between the portability, price and the sensitivity has led to the design of a prototype of portable NMR magnet with a simple system of arrangement of 24 permanent magnets. The magnetic field and the homogeneity of the system were calculated and simulated by using ANSYS software and these results were correlated to those obtained by the Radia software. A new shim method has been used to increase the homogeneity and correct the field B0 imperfection. Based on these results, a prototype was realized. The results of the magnetic field strength and homogeneity obtained by measurements are in good correlation with the results obtained by simulation. Sufficient accuracy was reached to take into account and correct errors due to manufacturing tolerances of the magnets. Another magnet system based on Mandhalas configuration (Magnet Arrangement for Novel Discrete Halbach Layout) was studied. The comparison between two configurations made from circle and square magnets was performed by 2D simulation (using three criteria: mass, homogeneity and the magnetic field strength). The Mandhalas made from circle magnets give better results (0.32 T, 178 ppm). The 3D simulation was carried out to evaluate the total system. From these results, a passive shim system was also used in this case and the homogeneity significantly increases.
120

Etude de l’imagerie de tenseur de diffusion en utilisant l’acquisition comprimée / Investigation of cardiac diffusion tensor imaging using compressed sensing

Huang, Jianping 13 December 2015 (has links)
L’étude de la structure microscopique des fibres du coeur offre une nouvelle approche pour expliquer les maladies du coeur et pour trouver des moyens de thérapie efficaces. L’imagerie de tenseur de diffusion par résonance magnétique (DTMR) ou l’imagerie de tenseur de diffusion (DTI) fournit actuellement un outil unique pour étudier les structures tridimensionnelles (3D) de fibres cardiaques in vivo. Cependant, DTI est connu pour souffrir des temps d'acquisition longs, ce qui limite considérablement son application pratique et clinique. Les méthodes traditionnelles pour l’acquisition et la reconstruction de l’image ne peuvent pas résoudre ce problème. La motivation principale de cette thèse est alors d’étudier des techniques d'imagerie rapide en reconstruisant des images de haute qualité à partir des données fortement sous-échantillonnées. La méthode adoptée est basée sur la nouvelle théorie de l’acquisition comprimée (CS). Plus précisément, nous étudions l’utilisation de la théorie de CS pour l’imagerie par résonance magnétique (IRM) et DTI cardiaque. Tout d'abord, nous formulons la reconstruction de l’image par résonance magnétique (MR) comme un problème d'optimisation avec les contraintes de trames ajustées guidées par les données (TF) et de variation totale généralisée (TGV) dans le cadre de CS, dans lequel, le TF guidé par les données est utilisé pour apprendre de manière adaptative un ensemble de filtres à partir des données fortement sous-échantillonné afin d’obtenir une meilleure approximation parcimonieuse des images, et le TGV est dédié à régulariser de façon adaptative les régions d'image et à réduire ainsi les effets d'escalier. Ensuite, nous proposons une nouvelle méthode CS qui emploie conjointement la parcimonie et la déficience de rang pour reconstruire des images de DTMR cardiaques à partir des données de l'espace k fortement sous-échantillonnées. Puis, toujours dans le cadre de la théorie CS, nous introduisons la contrainte de rang faible et la régularisation de variation totale (TV) dans la formulation de la reconstruction par CS. Deux régularisations TV sont considérées: TV locale (i.e. TV classique) et TV non locale (NLTV). Enfin, nous proposons deux schémas de sous-échantillonnage radial aléatoire (angle d’or et angle aléatoire) et une méthode d’optimisation avec la contrainte de faible rang et la régularisation TV pour traiter des données espace k fortement sous-échantillonnées en DTI cardiaque. Enfin, nous comparons nos méthodes avec des stratégies existantes de sous-échantillonnage radial telles que l’angle uniforme, l’angle uniforme perturbé aléatoirement, l’angle d’or et l’angle aléatoire. / The investigation of the micro fiber structures of the heart provides a new approach to explaining heart disease and investigating effective therapy means. Diffusion tensor magnetic resonance (DTMR) imaging or diffusion tensor imaging (DTI) currently provides a unique tool to image the three-dimensional (3D) fiber structures of the heart in vivo. However, DTI is known to suffer from long acquisition time, which greatly limits its practical and clinical use. Classical acquisition and reconstruction methods do not allow coping with the problem. The main motivation of this thesis is then to investigae fast imaging techniques by reconstructing high-quality images from highly undersampled data. The methodology adopted is based on the recent theory of compressed sensing (CS). More precisely, we address the use of CS for magnetic resonance imaging (MRI) and cardiac DTI. First, we formulate the magnetic resonance (MR) image reconstruction as a problem of optimization with data-driven tight frame (TF) and total generalized variation (TGV) constraints in the framework of CS, in which the data-driven TF is used to adaptively learn a set of filters from the highly under-sampled data itself to provide a better sparse approximation of images and the TGV is devoted to regularizing adaptively image regions and thus supprressing staircase effects. Second, we propose a new CS method that employs joint sparsity and rank deficiency prior to reconstruct cardiac DTMR images from highly undersampled k-space data. Then, always in the framework of CS theory, we introduce low rank constraint and total variation (TV) regularizations in the CS reconstruction formulation, to reconstruct cardiac DTI images from highly undersampled k-space data. Two TV regularizations are considered: local TV (i.e. classical TV) and nonlocal TV (NLTV). Finally, we propose two randomly perturbed radial undersampling schemes (golden-angle and random angle) and the optimization with low rank constraint and TV regularizations to deal with highly undersampled k-space acquisitons in cardiac DTI, and compare the proposed CS-based DTI with existing radial undersampling strategies such as uniformity-angle, randomly perturbed uniformity-angle, golden-angle, and random angle.

Page generated in 0.0443 seconds