• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1
  • Tagged with
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Évaluation de la perte du volume cérébral en IRM comme marqueur individuel de neurodégénérescence des patients atteints de sclérose en plaques. / Evaluation of brain volume loss on MRI as an individual marker of neurodegeneration in multiple sclerosis

Durand-Dubief, Françoise 20 December 2011 (has links)
La mesure de la perte du volume cérébral est un marqueur IRM de la neurodégénérescence dans la sclérose en plaques. Les techniques actuelles permettent de quantifier soit directement la perte de volume cérébral entre deux examens, soit de la mesurer indirectement à partir du volume cérébral de chaque examen. La fiabilité de ces techniques reste difficile à évaluer en l’absence de gold standard. Ce travail a consisté premièrement, en une étude de reproductibilité réalisée chez 9 patients à partir d’acquisitions semestrielles (3 IRM), sur deux machines différentes et post-traitées par sept algorithmes : BBSI, FreeSurfer, Intégration Jacobienne, KNBSI, un algorithme Segmentation / Classification, SIENA et SIENAX. Deuxièmement, un suivi longitudinal et prospectif a été effectué chez 90 patients SEP. L’étude des variabilités inter-techniques et inter-sites a montré que les techniques de mesures indirectes (Segmentation/Classification, FreeSurfer) et SIENAX fournissaient des pourcentages d’atrophie hétérogènes. A l’inverse, les techniques de mesures directes telles que BBSI, KNBSI, Intégration Jacobienne et à un moindre degré SIENA obtenaient des résultats reproductibles. Toutefois BBSI, KNBSI et l’Intégration Jacobienne obtenaient des pourcentages faibles, suggérant une possible sous-estimation de l’atrophie. L’évaluation de la perte du volume cérébral par Intégration Jacobienne a montré sur 2½ ans de suivi, une atrophie de 1,21% pour les 90 patients et de 1,55%, 1,51%, 0,84%, 1,21% respectivement pour les patients CIS, RR, SP et PP. A l’avenir l’évaluation de la perte de volume cérébral impose des défis d’ordre technique afin d’améliorer la fiabilité des algorithmes actuels. / Brain volume loss is currently a MRI marker of neurodegeneration in MS. The available algorithms for its quantification perfom either direct measurements, or indirect measurements. Their reliability remains difficult to assess especially since there is no gold standard technique. This work consisted first, in a reproducibility study performed on nine patients’ biannual MRI acquisitions (3 time points). These acquisitions were performed on two different MRI systems. Post-processing was applied using seven algorithms: BBSI, FreeSurfer, Jacobian Integration, KNBSI, an algorithm based on segmentation/classification, SIENA and SIENAX. Second, a longitudinal and prospective study was performed in 90 MS patients. The study of inter-technique and inter-site variabilities showed that direct measurement techniques and SIENAX provided heterogeneous values of atrophy. In contrast, indirect measurement algorithms such as BBSI, KNBSI, Jacobian Integration and to a lesser extent SIENA obtained reproducible results. However BBSI, KNBSI and Jacobian Integration algorithms showed lower percentages, suggesting a possible underestimation of atrophy. The evaluation of brain volume loss by Jacobian Integration has shown an atrophy rate of 1.21% over 2 ½ years of the 90 patients’ follow up, and of 1.55%, 1.51%, 0.84%, 1.21% for CIS, RR, SP and PP patients respectively. Jacobian Integration showed its importance in individual monitoring. In the future, assessing brain volume loss requires overcoming of some technical challenges to improve the reliability of the currently available algorithms.

Page generated in 0.1173 seconds