• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 466
  • 214
  • 48
  • 20
  • 4
  • 1
  • Tagged with
  • 731
  • 432
  • 181
  • 150
  • 112
  • 111
  • 93
  • 91
  • 83
  • 78
  • 68
  • 62
  • 60
  • 52
  • 51
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Etude de l'hémodynamique des fluides portaux et systémiques grâce à la mécanique des fluides numérique / Study of the hemodynamics of portal and systemic fluids using computational fluid dynamics

Meyrignac, Olivier 27 September 2017 (has links)
Le travail de thèse est en trois parties. La première partie du travail porte sur la comparaison des données de simulation MFN issues du solveur Yales2bio aux résultats de mesure des séquences d'IRM 4D. Notre modèle de MFN exploitait les données morphologiques de l'IRM 3D pour la modélisation géométrique et les données vélocimétriques des séquences d'IRM à contraste de phase 2D (PC-MRI) pour définir les conditions limites de la modélisation. Nous avons comparé les distributions spatiales et les valeurs locales des vitesses obtenues avec ces deux méthodes de mesure. En outre, nous avons évalué l'influence de la résolution de la modélisation géométrique sur la simulation de la vitesse. Nous avons remarqué un accord qualitatif et quantitatif avec un haut niveau de corrélation entre données IRM et MFN. La seconde partie traite d'hypertension portale. Nous avons pu au cours de ce travail, mettre au point un protocole optimisé pour les mesures de débit azygos dans le cadre d'un travail préparatoire pour une étude clinique. De plus nous avons mis au point un modèle basé sur la MFN d'hypertension portale in silico, rendant compte de la montée des pressions lors de l'accroissement de la résistance intra hépatique. Enfin dans la troisième partie, on a utilisé la MFN pour trouver des nouveaux facteurs pronostiques de l'évolution des petits anévrismes de l'aorte abdominale (AAA). Pour ce travail, nous avons utilisé les données issues d'une étude multicentrique et prospective. Nous avons inclus 78 patients porteurs AAA de septembre 2012 à juin 2014. Les patients avaient bénéficié deux examens CT séparés d'un intervalle d'un an pour évaluer la croissance des anévrismes. Cinquante patients de ces patients étaient admissibles à une analyse basée sur la MFN. Sur la base d'un seuil de 10 ml de croissance totale du volume, nous avons classé les 50 patients en deux groupes dits de croissance lente et de croissance rapide. Les paramètres morphologiques et fonctionnels initiaux des anévrismes ont été analysés, comprenant : le diamètre maximal, la surface de section maximale, les volumes du thrombus et de lumière, la pression maximale exercée sur la paroi et les forces de cisaillement de la paroi (WSS). Il y avait une différence significative entre les deux groupes concernant le volume de la lumière de l'anévrisme (P = 0,0051) et la variation moyenne du WSS (P = 0,0240) contrairement au diamètre maximal (P = 0,71). Nous avons trouvé une corrélation significative de la croissance du volume d'anévrisme avec le volume de la lumière et la réduction de la valeur de variation moyenne de WSS (respectivement R = 0,47, P = 0,0015 et R = -0,42, P = 0,0062) et la croissance totale du volume d'anévrisme. En combinant ces paramètres, nous avons mis au point un modèle de prédiction de la croissance rapide des AAA qui présentait une meilleure aire sous la courbe ROC que la seule mesure de diamètre maximal (0,78 vs 0,52, P = 0,0031). En fonction du seuil utilisé, notre modèle donne soit une excellente sensibilité (95,0% [IC95% 75,1, 99,9]), soit une spécificité (90,0% [IC95% 73,5, 97,9]). Nous avons pu démontrer que l'analyse combinée du volume de la lumière et du WSS fournit une meilleure information que le diamètre maximal pour évaluer le risque de croissance rapide du volume des petits AAA. / The thesis work is in three parts. The first part of the work concerns the comparison of the CFD simulation data from the Yales2bio solver to the measurement results of the 4D MRI sequences. Our CFD model exploited morphological data from 3D MRI for geometric modeling and velocimetry data of 2D phase contrast MRI (PC-MRI) sequences to define boundary conditions for modeling. We compared spatial distributions and local values ??of velocities obtained with these two methods of measurement. In addition, we evaluated the influence of geometric modeling resolution on velocity simulation. We noticed a qualitative and quantitative agreement with a high level of correlation between MRI and CFD data. The second part deals with portal hypertension. During this work, we have been able to develop an optimized protocol for azygous flow measurements as part of a preparatory work for a clinical study. In addition, we have developed a model based on the CFD of portal hypertension in silico, accounting for the increase of pressures during the increase of intrahepatic resistance. Finally, in the third part, CFD was used to find new prognostic factors for the evolution of small abdominal aortic aneurysms (AAA). For this work, we used data from a multicenter and prospective study. We included 78 AAA patients from September 2012 to June 2014. Patients had two separate CT examinations at one-year intervals to evaluate aneurysm growth. Fifty patients in these patients were eligible for CFD-based analysis. Based on a threshold of 10 ml of total volume growth, we classified the 50 patients into two so-called slow growth and fast growing groups. The initial morphological and functional parameters of the aneurysms were analyzed, including: maximum diameter, maximum section area, thrombus and lumen volumes, maximum wall pressure, and wall shear forces (WSS) . There was a significant difference between the two groups regarding aneurysmal lumen volume (P = 0.0051) and mean WSS variation (P = 0.0240) in contrast to maximal diameter (P = 0.71). ). We found a significant correlation of growth of aneurysm volume with volume of light and reduction of mean WSS (R = 0.47, P = 0.0015 and R = -0, respectively). 42, P = 0.0062) and total growth of aneurysm volume. Combining these parameters, we developed a prediction model for rapid AAA growth that had better area under the ROC curve than the single maximum diameter measure (0.78 vs. 0.52, P = 0.0031 ). Depending on the threshold used, our model gives either excellent sensitivity (95.0% [95% CI 75.1, 99.9]) or specificity (90.0% [95% CI 73.5, 97.9] ). We were able to demonstrate that the combined light volume and WSS analysis provides better information than the maximum diameter for assessing the risk of rapid AAA volume growth.
32

Conception de nouveaux agents de contraste à base d'assemblage de nanoparticules d'oxyde de fer pour l'imagerie par résonance magnétique / Conception of new contrast agent based of assembly of iron oxide nanoparticles for magnetic resonance imaging : from nanoparticle synthesis to assembly

Casterou, Gérald 04 March 2015 (has links)
L'imagerie par résonance magnétique (IRM) est largement utilisée dans le milieu médical pour l'imagerie des tissus mous. Afin d'obtenir des images de meilleures qualité, les hôpitaux s'équipent d'IRM avec des champs de plus en plus intenses. Les agents de contraste à base de nanoparticules de fer sont très prometteurs pour l'imagerie à haut champ. En effet, au contraire des agents de contraste à base de gadolinium, ils ne perdent pas leur efficacité à haut champ. Plusieurs paramètres sont à prendre en compte afin d'obtenir des agents de contrastes plus efficaces en IRM : tout d'abord, les propriétés magnétiques des nanoparticules d'oxydes de fer. Celles-ci doivent avoir des aimantations importantes. Ensuite, les nanoparticules agrégées sont plus efficaces que les nanoparticules individuelles. Pour finir, la présence d'une couche plus ou moins imperméable à l'eau ainsi que son épaisseur vont influencer l'efficacité de l'agent de contraste. Ce mémoire de thèse présente la conception de nouveaux agents de contraste à base de nanoparticules d'oxyde de fer, depuis l'optimisation de la synthèse afin d'obtenir les nanoparticules ayant les propriétés magnétiques les plus intéressantes pour l'IRM, jusqu'à l'assemblage de ces nanoparticules afin d'améliorer leur efficacité en IRM. La première partie de ce travail est donc consacrée à la synthèse de nanoparticules d'oxyde de fer. Une approche organométallique a été choisit car elle permet d'obtenir des nanoparticules de taille contrôlée. Nous montrons dans cette partie que les conditions de synthèse ont une grande influence sur la structure cristalline des nanoparticules synthétisées ainsi que sur leurs propriétés magnétiques. La deuxième partie de ce travail est consacrée à la réalisation d'agrégats de nanoparticules de taille contrôlée. L'agrégation des nanoparticules est réalisée par effet solvophobe en ajoutant de l'eau sur une solution de nanoparticules hydrophobes dans le THF. Nous montrons dans cette partie que la cinétique d'agrégation dépend de la quantité d'eau ajoutée. Les agrégats sont ensuite stabilisés par l'ajout d'un polymère et nous montrons que la morphologie et la taille des agrégats après leur transfert dans l'eau dépendent de la masse molaire et de la nature du polymère utilisé. La troisième partie de ce travail est consacrée à l'évaluation de l'efficacité des agrégats de nanoparticules en tant qu'agent de contraste. Les agrégats testés se sont révélés prometteurs, et des efficacités supérieures à celles d'agents de contraste commerciaux ont été obtenues. / The magnetic resonance imaging (MRI) is widely used in the medical field for soft tissue imaging. In order to obtain images of better quality, hospitals equip themselves with MRI of higher fields. Iron-based nanoparticle contrast agents are very promising for imaging at high field. Indeed, unlike the gadolinium contrast agents, they do not lose their effeciency at high field. Several parameters must be taken into account to achieve more effective contrast agents in MRI: first, the magnetic properties of iron oxide nanoparticles. They must have significant magnetization. Then, aggregated nanoparticles are more effective than individual nanoparticles. Finally, the presence of a more or less hydrophylic layer and its thickness will influence the effeciencys of the contrast agent.This thesis presents the design of new contrast agents based on iron oxide nanoparticles assembly, since the optimization of the synthesis to obtain nanoparticles with the most interesting magnetic properties for MRI up assembly of nanoparticles to improve their effectiveness in MRI.The first part of this work is devoted to the synthesis of iron oxide nanoparticles. An organometallic approach was chosen because it allows to obtain nanoparticles of controlled size. We show in this part of the synthesis conditions have a great influence on the crystal structure of the synthesized nanoparticles and their magnetic properties.The second part of this work is dedicated to the production of controlled size aggregates of nanoparticles. The aggregation of nanoparticles is performed by solvophobic effect by adding water to a solution of hydrophobic nanoparticles in THF. We show in this section that the kinetics of aggregation depends on the amount of water added. The aggregates are then stabilized by the addition of a polymer and show that the morphology and size of the aggregates after transfer into the water depend on the molecular weight and nature of the polymer used.The third part of this work is devoted to the evaluation of the efficiency of nanoparticle aggregates as a contrast agent. The aggregates tested have shown promise, and efficiencies higher than commercial contrast agents were obtained.
33

Influence de l'intensité du champ magnétique sur l'imagerie RMN des poumons à l'aide d'hélium-3 hyperpolarisé

Vignaud, Alexandre 14 October 2003 (has links) (PDF)
Les maladies pulmonaires obstructives chroniques sont la quatrième cause de mortalité en Europe. Les techniques disponibles pour les suivre ne permettent de diagnostiquer la maladie que tardivement. Une nouvelle méthode a été proposée en 1994 : l'imagerie par résonance magnétique (IRM) avec des gaz hyperpolarisés (HP). Les poumons constituent un immense interface entre le gaz et le tissu. Dans un champ magnétique (B0), la différence de susceptibilité magnétique entre les deux milieux a pour conséquence de détériorer le signal. Cet effet est d'autant plus fort que B0 est élevé. Ayant à notre disposition deux appareils à deux B0 différents (0,1 T et 1,5 T) ainsi qu'un système de pompage optique pour produire de l'hélium 3 (3He) HP, nous avons étudié quantitativement l'influence de B0 sur le signal de l'3He HP dans les poumons. Dans un premier temps les bases théoriques et la liste exhaustive des matériels nécessaires pour cette étude ont été présentées. Puis nous avons mis en évidence que le temps de relaxation transversale de l'3He HP lors de l'application d'un train d'échos de spins, T2cpmg, s'allonge lorsque B0 décroît. Une variation de deux ordres de grandeur a été observée entre 0,1 et 1,5 T. Des études sur modèle animal (rat) ont montré que d'une part T2cpmg a une sensibilité au remplissage pulmonaire équivalente à celle du coefficient apparent de diffusion, et d'autre part l'ajout d'un agent super paramagnétique provoque la compensation de l'effet de susceptibilité. Nous avons ensuite mis en évidence le rallongement du temps de vie du signal de l'hélium-3 HP dans les poumons, T2*, à faible B0. Enfin une comparaison du rapport signal sur bruit mesuré sur les deux appareils a été entreprise. En conclusion bien que le rallongement de T2* à faible B0 soit bénéfique pour l'IRM, cet effet est limité et l'utilisation d'appareil classique haut champ ne représente pas un inconvénient déterminant pour cette application.
34

Nouveaux complexes de lanthanides pour le développement d'agents de contraste bimodaux IRM/luminescence

Tallec, Gaylord 06 October 2011 (has links) (PDF)
L'imagerie par résonance magnétique est une des méthodes de diagnostic les plus utilisées, aussi bien dans le domaine médical que dans les études précliniques. Cependant, la relaxivité des agents de contraste commerciaux ne représente qu'une fraction de la relaxivité prédite par la théorie et il est nécessaire d'optimiser les différents paramètres dont elle dépend pour atteindre des valeurs de relaxivité plus élevées : nombre de molécules d'eau en première sphère de coordination, vitesse d'échange de l'eau, dynamique de rotation du complexe, relaxation électronique, distance Gd(III)-proton. Dans ce travail, nous présentons la synthèse, la stabilité et la relaxivité des complexes de Gd(III) de deux séries de ligands tripodes dérivés de la 8-hydroxyquinoléine, basés l'une sur une plateforme 1,4,7 triazacyclononane, l'autre sur un pivot azote central. Ces complexes ont montré des stabilités comparables à celles des agents commerciaux, des valeurs de relaxivités élevées dans l'eau ainsi qu'en milieu biologique. L'utilisation de la 8-hydroxyquinoléine comme base des ligands a permis de sensibiliser le Nd(III) et l'Yb(III) pour la luminescence proche infrarouge, ouvrant la possibilité pour le développement de nouveaux systèmes bimodaux.
35

Modélisation de la femme enceinte à partir d'images 3D ultrasonores et IRM anténatales, pour l'étude de la dosimétrie.

Anquez, Jérémie 14 September 2009 (has links) (PDF)
L'influence des champs électromagnétiques (CEM) sur le vivant fait actuellement l'objet d'une attention particulière, en raison du développement rapide des réseaux de communication sans fil. Parmi les différentes spécialités impliquées dans cette problématique, la dosimétrie vise à évaluer l'effet thermique induit par les CEM dans les tissus biologiques. Une approche utilisée en dosimétrie consiste à simuler numériquement la propagation des ondes électromagnétiques dans des modèles numériques du corps humain, construits à partir de segmentations d'images médicales. Il existe cependant peu de modèles de la femme enceinte à l'heure actuelle. Les modèles existants sont obtenus en fusionnant des modèles de femme non gravide et des modèles de l'unité utéro-placento-fœtale. Ces derniers présentent toutefois un réalisme et des détails anatomiques limités. L'objectif de cette thèse est d'élaborer un ensemble de modèles de l'unité utéro-placento-fœtale détaillés, couvrant l'ensemble de la grossesse. Des images acquises avec des modalités complémentaires utilisées en obstétrique sont exploitées : l'échographie tri-dimensionnelle et l'IRM, au début et à la fin de la grossesse respectivement. Des méthodes de segmentation dédiées à chacune des deux modalités ont été développées. Les données ultrasonores sont ainsi segmentées avec un modèle déformable afin de partitionner l'image en deux sous-ensembles, correspondant aux tissus maternels et fœtaux et au liquide amniotique. Ce modèle comporte un terme de fidélité aux données qui intègre une modélisation statistique des distributions des intensités dans chacun des sous-ensembles. Les données IRM, dans lesquelles de nombreux organes peuvent être distingués, sont traitées avec une approche différente, qui consiste tout d'abord à caractériser la position du fœtus, en instanciant un modèle de son squelette dans les images. Ce processus est réalisé par une exploration séquentielle de l'anatomie fœtale, au cours de laquelle plusieurs structures anatomiques sont segmentées avec des méthodes incluant des informations a priori sur leur forme et leur contraste. Un modèle générique de fœtus articulé est alors recalé sur ce squelette, pour finalement segmenter l'enveloppe fœtale avec une méthode par coupure de graphe. Des modèles de l'unité-utéro-placento-fœtal sont construits à partir de ces segmentations puis intégrés dans un modèle synthétique de femme. Un ensemble de neuf modèles a été généré, qui permet d'étudier l'influence du stade de grossesse et de la position du fœtus sur la dosimétrie.
36

Apport de l'Imagerie par Résonance Magnétique dans l'étude des mécanismes de structuration des matériaux cimentaires : application au suivi des modifications engendrées par le séchage

Magat, Julie 21 October 2008 (has links) (PDF)
L'objectif de ce travail est d'étudier les évolutions microstructurales des matériaux cimentaires au cours de l'hydratation et d'analyser les dégradations physico-chimiques de ces matériaux lorsqu'ils sont soumis au séchage. Ces évolutions sont caractérisées par les mesures de teneur en eau et de porosité qui sont des paramètres clés pour l'évaluation de la durabilité des matériaux. L'originalité du travail réside en l'utilisation de l'Imagerie par Résonance magnétique IRM. Nous présentons une synthèse bibliographique sur les matériaux cimentaires et sur l'IRM qui permet d'accéder à la densité protonique caractéristique de la teneur en eau et aux temps de relaxation qui donnent une information sur la distribution poreuse. Les résultats sont ensuite identifiés aux données obtenues par des techniques expérimentales du génie civil. Enfin deux problématiques inhérentes aux matériaux cimentaires qui sont l'analyse de l'hydratation et le couplage hydratation/séchage sont étudiées.
37

Problèmes mathématiques et numériques issus de l'imagerie par résonance magnétique nucléaire

Boissoles, Patrice 02 December 2005 (has links) (PDF)
La présence d'objets métalliques en Imagerie par Résonance Magnétique provoque des dysfonctionnements qui peuvent se manifester par des artefacts, des échauffements, ... Dans le présent travail, on construit et étudie des modèles mettant en évidence le phénomène d'échauffement.<br /><br />Dans la première partie, on étudie l'antenne cage d'oiseau. On montre que les pulsations de résonance sont les valeurs propres d'un problème aux valeurs propres généralisé et on développe une méthode de calcul efficace de celles-ci. On étudie ensuite les propriétés du champ radiofréquence à l'aide de simulations numériques : mouvement de rotation en tout point et homogénéité au centre de l'antenne.<br /><br />Dans la deuxième partie, on modélise le problème magnétique associé à l'IRM par les équations de Maxwell avec le champ radiofréquence comme condition aux limites. On montre que ce problème est bien posé en dimension 3 et qu'il est équivalent à une série de problèmes axisymétriques bidimensionnels découplés. Des calculs numériques sont effectués sur les problèmes axisymétriques, qui confirment les résultats théoriques obtenus.
38

IRM cardio-vasculaire, des séquences d'acquisition aux paramètres physiologiques

Lalande, Alain 29 May 2012 (has links) (PDF)
Mes travaux de recherche s'articulent principalement autour de l'extraction automatisée de paramètres anatomiques et fonctionnels en L'Imagerie par Résonance Magnétique (IRM) du cœur et de l'aorte (les renvois des références dans ce document correspondent aux numéros de la liste des publications). Plus précisément, ces travaux sur l'IRM portent sur les thématiques suivantes : - Etude de la fonction cardiaque - Etude de la désynchronisation cardiaque - Etude de la perfusion myocardique et de la viabilité - Etude de l'élasticité de l'aorte - Etude du flux sanguin et détermination de zones de stress au niveau de la paroi de l'aorte - Métrologie des sinus de Valsalva Ces différents points vont être détaillés dans les paragraphes suivants. L'IRM, en particulier l'utilisation de séquences ciné-IRM, constitue de nos jours la technique de référence pour étudier la fonction cardiaque. Cependant, malgré les efforts déployés en traitement numérique des images, l'interprétation médicale subjective est toujours la méthode la plus répandue dans les services cliniques. La quantification automatique de la fonction cardiaque constituant une aide au diagnostic importante fut la thématique de mes travaux de thèse [1,2,5,21]. Ceux-ci portaient sur la segmentation automatique du ventricule gauche à partir de coupes petit-axe acquises en ciné-IRM. La méthode développée, basée sur la logique floue et la programmation dynamique, permet une segmentation automatique des contours endocardique et épicardique sur chaque image de chaque coupe, rendant ainsi possible le calcul automatique du volume du ventricule gauche au cours du cycle cardiaque, des volumes diastolique et systolique et par conséquent de la fraction d'éjection du ventricule gauche [21]. Je participe à une étude multicentrique (initiée conjointement par le CNRS et l'INSERM et impliquant de nombreux laboratoires français) sur les méthodes de détection automatique des contours du cœur sur des séquences cinétiques d'images, ainsi que sur les méthodes d'évaluation et de validation de ces segmentations [99]. Actuellement, des méthodologies permettant de comparer plusieurs méthodes d'estimation d'un paramètre d'intérêt clinique sans connaître de valeur de référence (i.e. sans gold standard) sont étudiées [102]. La seule segmentation du cœur sur des IRM n'est pas suffisante pour étudier certaines pathologies telles que la désynchronisation cardiaque. Des réglages spécifiques sur des séquences ciné-IRM conventionnelles ont permis d'obtenir des données appropriées à l'étude du mouvement local du cœur par des méthodes de flux optique basées sur la phase du signal [70,78]. Une étape supplémentaire consiste à transformer la modélisation locale du mouvement cardiaque en un paramètre de désynchronisation, calculé à partir du délai de contraction entre deux parois. Nos résultats, obtenus sur des patients présentant une désynchronisation, vont être confrontés aux paramètres utilisés en routine clinique. En effet, tous les patients ont un examen échographique, et le paramètre calculé en IRM sera comparé au Septal-to-Posterior Wall Motion Delay (SPWMD) calculé en échographie, ainsi qu'à la durée du QRS. L'étude de la fonction cardiaque n'est pas le seul outil disponible en IRM permettant d'étudier les atteintes cardio-vasculaires. En effet, l'IRM de perfusion après injection d'un produit de contraste à base de gadolinium permet d'obtenir des valeurs diagnostiques et pronostiques dans l'étude de l'obstruction micro-vasculaire après infarctus du myocarde [12,17,26]. Une automatisation du traitement permet une évaluation en routine clinique de l'étude de la perfusion du myocarde au premier passage d'un produit de contraste [13,18,24]. De plus, l'utilisation d'images acquises dix minutes après injection de ce produit permet la quantification de la viabilité myocardique, notamment en évaluant la taille et le degré de l'infarctus du myocarde [20,28]. Nos travaux ont entre autre montré les liens entre la taille de l'infarctus et l'hyperglycémie ainsi qu'une valeur pronostique importante de l'obstruction micro-vasculaire persistante [29,31,34]. Actuellement, nous travaillons sur le développement d'un outil informatique qui permettra l'évaluation complètement automatisée de la zone de l'infarctus, ainsi que de la zone périphérique de l'infarctus. Les anévrismes de l'aorte (ascendante ou descendante) présentent un risque naturel de rupture ou de dissection de la paroi. L'IRM fonctionnelle a ouvert d'autres critères d'évaluation du risque que le diamètre maximal en permettant d'étudier les propriétés élastiques de la paroi aortique, le stress hémodynamique ainsi que le flux au sein de l'aorte. Dans ce cadre, j'ai développé des séquences appropriées pour l'évaluation de ces propriétés de l'aorte ainsi que des protocoles de recherches spécifiques pour l'étude des anévrismes et/ou dissections de l'aorte abdominale, ou de l'aorte thoracique, notamment dans le cadre de suivi de syndromes génétiques ou de patients porteurs de bicuspidie aortique. Parmi les paramètres étudiés, la compliance et la distensibilité aortiques sont deux paramètres associés à l'élasticité de l'aorte. Nos travaux sur l'évaluation automatisée de la compliance aortique sur des populations à risques (entre autres des patients porteurs de syndromes liés au système cardio-vasculaire) [11,32] ont été intégrés dans des études plus vastes (comprenant des informations cliniques, biologiques, d'imagerie et de génétique) [15, 25, 27], certaines en collaborations avec l'APHP et le Collège de France (INSERM U36). Nous avons aussi montré que chez des sujets sains, la compliance aortique varie en fonction de l'âge, alors que le sexe et le tabac n'ont aucune influence sur ce paramètre [100]. De plus, la mesure de la distensibilité aortique est bien corrélée à une autre méthode non-invasive de mesure de l'élasticité de l'aorte, utilisant une technique d'impédance bioélectrique [35]. Cette étude a été effectuée en collaboration avec le laboratoire LISA et le CHU d'Angers. Un autre paramètre d'élasticité est la vitesse de l'onde de flux du sang, définie à partir d'IRM anatomiques et codées en vitesse de flux. Une méthode semi-automatique a été mise au point pour calculer ce paramètre, et le confronter à la compliance aortique. L'augmentation de la vitesse de l'onde de flux est liée à une diminution de la compliance aortique, et donc à une augmentation de la rigidité de l'aorte [30]. L'étude de l'élasticité de l'aorte en routine clinique est actuellement mise en place pour des examens concernant des syndromes familiaux de pathologie de l'aorte thoracique. L'IRM procure la possibilité d'acquisitions tridimensionnelles codées en vitesse de flux, permettant d'extraire de nombreux paramètres, comme la vitesse maximale du flux sanguin (en 3D), la vitesse radiale maximale (pour étudier les contraintes au niveau de la paroi), le débit sanguin instantané, la fraction de reflux, ainsi qu'une estimation, pour l'instant visuelle, de la forme tridimensionnelle du flux (flux laminaire, hélicoïdal ou turbulent) [43]. Par rapport aux sujets sains, la vitesse du flux sanguin maximale augmente significativement pour les patients porteurs d'une bicuspidie et diminue significativement pour les patients porteurs de la mutation MYH11 [79]. Actuellement, nos recherches se concentrent sur l'étude de la vitesse radiale, et de son impact dans l'évolution d'anévrisme de l'aorte thoracique, en particulier dans le cas de bicuspidie aortique. Un atout majeur de l'IRM est de pouvoir positionner les plans d'acquisition selon n'importe quelle orientation. Ainsi, l'utilisation d'une série de plans perpendiculaires à l'axe de l'aorte doit permettre une reconstruction 4D de celle-ci, sans effet de volume partiel. La collaboration avec le laboratoire MOIVRE de l'Université de Sherbrooke (Canada) a fournit des premiers résultats satisfaisants quant à la segmentation automatique de la lumière de l'aorte [44]. La segmentation automatique du thrombus et de la paroi de l'aorte s'avère plus difficile. Une amélioration de l'algorithme permet une segmentation semi-automatique générique (avec une interaction minime de l'utilisateur) de la lumière aortique et de la paroi aortique, aussi bien sur des IRM que sur des images tomodensitométriques de l'aorte, où les contraintes ne sont pas les mêmes. L'évaluation de l'élasticité de la paroi, ainsi que la modélisation du flux sanguin, seront intégrées dans la représentation 3D de l'aorte, pour associer la déformation de l'aorte à l'amplitude et l'orientation du flux sanguin, dans le but de rechercher de zones de fragilité, dites de " stress ". L'IRM permet une étude fiable des sinus de Valsalva en faisant l'acquisition des images selon un plan perpendiculaire à l'axe de l'aorte. Cependant, il n'y a pas actuellement de consensus sur les mesures à considérer à partir de ce plan pour évaluer les sinus, ou les anévrismes localisés sur un seul sinus. Le développement d'une méthode automatique de segmentation des sinus de Valsalva [45] procure une mesure et précise des différentes longueurs entre les commissures, les cuspides et le centre des sinus (lui aussi localisé automatiquement) [80,101]. Les mesures obtenues avec cet outil seront confrontées aux diamètres mesurés manuellement sur des images en coupe sagittale (IRM de types SSFP (en respiration libre ou en apnée), écho de spin (en respiration libre) et Turbo spin-echo (en apnée)).
39

Caractérisation du cerveau humain : application à la biométrie

Aloui, Kamel 17 December 2012 (has links) (PDF)
D'une manière générale, la biométrie a pour objectif d'établir ou de vérifier l'identité d'individu, notamment à partir de ces caractéristiques physiques ou comportementales. Cette pratique tend à remplacer les méthodes traditionnelles basées sur la connaissance, à savoir un mot de passe ou un code PIN ou basées sur les possessions telles qu'une pièce d'identité ou un badge. Au quotidien, plusieurs modalités biométriques ont été développées dans une certaine mesure, dont les produits sont disponibles et déjà utilisés dans des nombreuses applications. La reconnaissance biométrique est un domaine de recherche qui ne cesse pas d'évoluer et la recherche des nouvelles modalités de hautes performances est d'actualité. L'objectif de notre thèse consiste à développer et d'évaluer de nouvelles modalités biométriques basées sur des caractéristiques cachées, infalsifiables et ne pouvant pas être modifiées volontairement. C'est dans ce contexte que nous introduisons une nouvelle modalité biométrique utilisant les caractéristiques du cerveau humain et la faisabilité d'une telle modalité a fait l'objet de notre étude. À cet effet, des images volumiques cérébrales, obtenues par IRM (Imagerie par Résonance Magnétique) sont utilisées pour en extraire les informations pertinentes et générer par la suite des codes biométriques du cerveau, appelés " BrainCode ", qui serviront à l'identification ou à l'authentification d'un individu. Ainsi, nous avons élaboré trois techniques de reconnaissance biométrique. La première technique utilise l'information de la texture d'une image numérique du cerveau comme signature individuelle, alors que la deuxième est basée sur l'utilisation des caractéristiques géométriques et morphologiques du cerveau. Enfin, la dernière technique explorée se base sur la fusion des caractéristiques géométriques et les caractéristiques de la texture du cerveau. Ces nouvelles techniques biométriques nécessitent évidemment l'acquisition des images IRM du cerveau en considérant, uniquement des personnes saines et adultes.Les résultats obtenus ont conduit à des performances de reconnaissance intéressantes. Plus précisément, la première technique, basée sur l'analyse de texture et la génération d'un " BrainCode " du cerveau, permet d'obtenir une précision de vérification de l'ordre de 97,53% avec un FAR = 1,5%, FRR = 3,41% et un EER = 2,72%. La deuxième technique, utilisant un modèle géométrique du cerveau, appelé " MGC " (Modèle Géométrique du Cerveau), nous arrivons à une précision maximale de l'ordre de 98,80% avec un FAR = 0,09%, un FRR = 2,31% et un EER = 1,92%. Enfin, la fusion des caractéristiques géométriques et de texture, permet d'atteindre une précision de l'ordre de 99,43% avec un FAR = 0,32% et un FRR = 0,72%. Dans cette étude, nous nous sommes aussi intéressés à l'étude de la robustesse des approches proposées par rapport au bruit
40

Recalage multi-modal automatique : technique de multi-résolution parallèle appliquée à la TEP et l'IRM / Multi-modal automatic registration : A parallel multi-resolution approach applied to PET-MRI

Bernier, Michaël January 2012 (has links)
Résumé : Le recalage automatique des images issues de la tomographie par émission de positrons (TEP) et de l’imagerie par résonance magnétique (IRM) du petit animal pose un problème difficile à résoudre, tant sur l’aspect de la précision, du taux de réussite et de convergence que sur la rapidité d’exécution. En fait, la plupart des techniques de recalage actuelles sont développées et appliquées aux cerveaux humains, mais ne sont pas aussi efficaces lorsqu’appliquées sur des données animales. L’anisotropie impor¬tante des voxels (résolution fine dans le plan de l’acquisition, mais grande épaisseur de coupe) et la dégradation des images associée à ce type d’acquisition s’additionne au manque d’information d’intensité et de complexité anatomique de ce type de jeu de données. Ce mémoire met l’accent sur les techniques multimodales de recalage automatique et de leurs limites, appliquées particulièrement à la TEP et l’IRM du petit animal. Dans l’article principal présenté dans ce mémoire, nous proposons une mesure qui utilise un recalage multirésolution en parallèle (imbriqué dans la fonction d’énergie) au lieu d’une approche classique de multirésolution séquentielle, influen¬çant directement la procédure du recalage. En combinant les niveaux de basse et haute résolution des images, nous nous assurons une plus grande insensibilité par rapport au bruit, d’une ouverture accrue permettant une meilleure convergence et rapidité d’exécution. L’article démontre que notre nouvelle approche automatique est un algorithme de recalage robuste et efficace avec un taux de réussite élevé. Nous présentons également dans ce mémoire certains détails d’implantation de l’outil, qui a été créé par l’auteur de ce document, reposant sur le recalage classique et la nouvelle méthode décrite dans ce mémoire.||Abstract: Automatic registration of small animal Positron Emission Tomography (PET) and Magnetic Resonance Imaging (MRI) data represents a difficult problem in terms of convergence speed, accuracy and success rate. In fact, most existing registration methods are developed and applied to human brain volumes but these are not as effective for small animal data because of the lack of intensity information in the images and often the large anisotropy in voxel dimensions (very small in-plane resolution and large slice thickness). This master thesis focuses on multi-modal automatic registration techniques and their limitations, especially applied to PET-MRI registration. In the main article of this master thesis, we propose a new registration measure that combines multi-resolution in parallel (in the same energy function) instead of a classic sequential multi-resolution, which influence the procedure of the registration as well. By combining low and high resolution levels of images, we can gain from the low noise sensitivity and aperture at coarse levels and higher contrast and details at higher levels, which helps convergence accuracy and speed. The paper shows that our new approach is therefore an automatic, robust and efficient registration algorithm with a high success rate. We also present in this document some implementation details on the tool which was created by the author of this thesis based on the classic registration and the new approach described in this thesis.

Page generated in 0.4485 seconds