La tomographie d’émission par positrons (TEP) est un outil qui permet, grâce à l’injection d’une dose de radiotraceur, de diagnostiquer et caractériser différents problèmes de santé, dont le cancer et les pathologies cardiaques. Pour exploiter cette modalité de l’imagerie médicale à son plein potentiel, plusieurs éléments, dont chacun comporte son lot de défis, doivent être réunis. La conversion des données fournies par la caméra TEP en une image interprétable par un spécialiste, dénommé la reconstruction TEP, est un sous-problème particulièrement intéressant. Ce problème a déjà été abordé à maintes reprises dans la littérature, et ce, dans plusieurs contextes différents. Parmi ceux-ci, la reconstruction d’une acquisition où le sujet, ou une partie de ce dernier, est en mouvement engendre, à cause des caractéristiques inhérentes de cette modalité, des données contaminées par ce même mouvement. Cette contamination peut, si elle n’est pas prise en compte, modifier l’image reconstruite et en fausser l’interprétation. Plusieurs méthodes ont été développées pour atténuer, voire éradiquer, la contamination de l’image reconstruite. Parmi celles-ci, il existe une sous- famille de méthodes spécialement conçues pour s’attaquer aux biais induits par des mouvements cycliques. En effet, les mouvements de type cyclique, i.e. le mouvement cardiaque ou respiratoire, possèdent une propriété particulière qui peut, moyennant certaines hypothèses, être exploitée dans la phase de reconstruction. Différentes approches ont été présentées dans la littérature pour exploiter cette particularité et chacune d’entre-elles offre son lot d’avantages et d’inconvénients. Afin d’obtenir des images de qualité semblable à celle obtenue à partir d’un sujet immobile, toutes ces approches nécessitent d’augmenter la dose de radiotraceur injectée dans le sujet. Cette augmentation sera dénommé le facteur de compensation de dose. L’objectif de cette maîtrise est d’étudier ces approches afin de diminuer le facteur de compensation de dose. Pour y parvenir, un compte-rendu sur l’état de l’art de cette problématique sera présenté. Ce compte-rendu est divisé en trois volets : une étude des propriétés théoriques de chacune de ces approches, une comparaison numérique de leurs performances et une revue des lacunes qui persistent dans ce domaine. L’analyse des propriétés théoriques a débouché sur la création d’une nouvelle variante d’une des approches. L’introduction de cette nouvelle méthode, dont la résolution est explicitée, permet d’établir des parallèles théoriques avec l’approche originelle. La comparaison, en terme de vitesse de convergence, de ces variantes semble indiquer que le nouveau modèle offre un gain en vitesse de reconstruction, et ce, sans perte de qualité. La caractérisation des modèles représentant chaque approche, résultant de leur analyse théorique, a permis de motiver l’utilisation de solveurs généraux. Une méthodologie a été développée pour effectuer la comparaison numérique des per-formances. Les résultats des tests de performance permettent de déceler une lacune commune à certaines approches. Une hypothèse sur la source de cet inconvénient de même que quelques arguments la soutenant sont formulés.
Identifer | oai:union.ndltd.org:usherbrooke.ca/oai:savoirs.usherbrooke.ca:11143/6903 |
Date | January 2015 |
Creators | Toussaint, Maxime |
Contributors | Dussault, Jean-Pierre, Lecomte, Roger |
Publisher | Université de Sherbrooke |
Source Sets | Université de Sherbrooke |
Language | French |
Detected Language | French |
Type | Mémoire |
Rights | © Maxime Toussaint, Attribution - Pas d’Utilisation Commerciale - Pas de Modification 2.5 Canada, http://creativecommons.org/licenses/by-nc-nd/2.5/ca/ |
Page generated in 0.0016 seconds