• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2
  • Tagged with
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Développement d'algorithmes de reconstruction statistique appliqués en tomographie rayons-X assistée par ordinateur

Thibaudeau, Christian January 2010 (has links)
La tomodensitométrie (TDM) permet d'obtenir, et ce de façon non invasive, une image tridimensionnelle de l'anatomie interne d'un sujet. Elle constitue l'évolution logique de la radiographie et permet l'observation d'un volume sous différents plans (sagittal, coronal, axial ou n'importe quel autre plan). La TDM peut avantageusement compléter la tomographie d'émission par positrons (TEP), un outil de prédilection utilisé en recherche biomédicale et pour le diagnostic du cancer. La TEP fournit une information fonctionnelle, physiologique et métabolique, permettant la localisation et la quantification de radiotraceurs à l'intérieur du corps humain. Cette dernière possède une sensibilité inégalée, mais peut néanmoins souffrir d'une faible résolution spatiale et d'un manque de repère anatomique selon le radiotraceur utilisé. La combinaison, ou fusion, des images TEP et TDM permet d'obtenir cette localisation anatomique de la distribution du radiotraceur. L'image TDM représente une carte de l'atténuation subie par les rayons-X lors de leur passage à travers les tissus. Elle permet donc aussi d'améliorer la quantification de l'image TEP en offrant la possibilité de corriger pour l'atténuation. L'image TDM s'obtient par la transformation de profils d'atténuation en une image cartésienne pouvant être interprétée par l'humain. Si la qualité de cette image est fortement influencée par les performances de l'appareil, elle dépend aussi grandement de la capacité de l'algorithme de reconstruction à obtenir une représentation fidèle du milieu imagé. Les techniques de reconstruction standards, basées sur la rétroprojection filtrée (FBP, filtered back-projection), reposent sur un modèle mathématiquement parfait de la géométrie d'acquisition. Une alternative à cette méthode étalon est appelée reconstruction statistique, ou itérative. Elle permet d'obtenir de meilleurs résultats en présence de bruit ou d'une quantité limitée d'information et peut virtuellement s'adapter à toutes formes de géométrie d'acquisition. Le présent mémoire se consacre à l'étude de ces algorithmes statistiques en imagerie TDM et à leur implantation logicielle. Le prototype d'imageur TEP/TDM basé sur la technologie LabPET[indice supérieur TM] de l'Université de Sherbrooke possède tous les pré-requis pour bénéficier de ces nombreux avantages.
2

Reconstruction statistique 3D à partir d’un faible nombre de projections : application : coronarographie RX rotationnelle / 3D statistical reconstruction from a small number of projections. application : XR rotational coronarography

Oukili, Ahmed 16 December 2015 (has links)
La problématique de cette thèse concerne la reconstruction statistique itérative 3D de l'arbre coronaire, à partir d'un nombre très réduit d'angiogrammes coronariens (5 images). Pendant un examen rotationnel d'angiographie RX, seules les projections correspondant à la même phase cardiaque sont sélectionnées afin de vérifier la condition de non variabilité spatio-temporelle de l'objet à reconstruire (reconstruction statique). Le nombre restreint de projections complique cette reconstruction, considérée alors comme un problème inverse mal posé. La résolution d'un tel problème nécessite une procédure de régularisation. Pour ce faire, nous avons opté pour le formalisme bayésien en considérant la reconstruction comme le champ aléatoire maximisant la probabilité a posteriori (MAP), composée d'un terme quadratique de vraisemblance (attache aux données) et un a priori de Gibbs (à priori markovien basé sur une interprétation partielle de l'objet à reconstruire). La maximisation MAP adoptant un algorithme d'optimisation numérique nous a permis d'introduire une contrainte de lissage avec préservation de contours des reconstructions en choisissant adéquatement les fonctions de potentiel associées à l'énergie à priori. Dans ce manuscrit, nous avons discuté en détail des trois principales composantes d'une reconstruction statistique MAP performante, à savoir (1) l'élaboration d'un modèle physique précis du processus d'acquisition, (2) l'adoption d'un modèle à priori approprié et (3) la définition d'un algorithme d'optimisation itératif efficace. Cette discussion nous a conduit à proposer deux algorithmes itératifs MAP, MAP-MNR et MAP-ARTUR-GC, que nous avons testés et évalués sur des données simulées réalistes (données patient issues d'une acquisition CT- 64 multi-barrettes). / The problematic of this thesis concerns the statistical iterative 3D reconstruction of coronary tree from a very few number of coronary angiograms (5 images). During RX rotational angiographic exam, only projections corresponding to the same cardiac phase are selected in order to check the condition of space and time non-variability of the object to reconstruct (static reconstruction). The limited number of projections complicates the reconstruction, considered then as an illness inverse problem. The answer to a similar problem needs a regularization process. To do so, we choose baysian formalism considering the reconstruction as a random field maximizing the posterior probability (MAP), composed by quadratic likelihood terms (attached to data) and Gibbs prior (prior markovian based on a partial interpretation of the object to reconstruct). The MAP maximizing allowed us using a numerical optimization algorithm, to introduce a smoothing constraint and preserve the edges on the reconstruction while choosing wisely the potential functions associated to prior energy. In this paper, we have discussed in details the three components of efficient statistical reconstruction MAP, which are : 1- the construction of precise physical model of acquisition process; 2- the selection of an appropriate prior model; and 3- the definition of an efficient iterative optimization algorithm. This discussion lead us to propose two iterative algorithms MAP, MAP-MNR and MAP-ARTUR-GC, which we have tested and evaluated on realistic simulated data (Patient data from 64-slice CT).

Page generated in 0.13 seconds