• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 8
  • 1
  • Tagged with
  • 9
  • 9
  • 9
  • 9
  • 5
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Reconstruction multidimensionnelle de type mouvement cyclique en tomographie d'émission par positions: revue et nouvelle approche

Toussaint, Maxime January 2015 (has links)
La tomographie d’émission par positrons (TEP) est un outil qui permet, grâce à l’injection d’une dose de radiotraceur, de diagnostiquer et caractériser différents problèmes de santé, dont le cancer et les pathologies cardiaques. Pour exploiter cette modalité de l’imagerie médicale à son plein potentiel, plusieurs éléments, dont chacun comporte son lot de défis, doivent être réunis. La conversion des données fournies par la caméra TEP en une image interprétable par un spécialiste, dénommé la reconstruction TEP, est un sous-problème particulièrement intéressant. Ce problème a déjà été abordé à maintes reprises dans la littérature, et ce, dans plusieurs contextes différents. Parmi ceux-ci, la reconstruction d’une acquisition où le sujet, ou une partie de ce dernier, est en mouvement engendre, à cause des caractéristiques inhérentes de cette modalité, des données contaminées par ce même mouvement. Cette contamination peut, si elle n’est pas prise en compte, modifier l’image reconstruite et en fausser l’interprétation. Plusieurs méthodes ont été développées pour atténuer, voire éradiquer, la contamination de l’image reconstruite. Parmi celles-ci, il existe une sous- famille de méthodes spécialement conçues pour s’attaquer aux biais induits par des mouvements cycliques. En effet, les mouvements de type cyclique, i.e. le mouvement cardiaque ou respiratoire, possèdent une propriété particulière qui peut, moyennant certaines hypothèses, être exploitée dans la phase de reconstruction. Différentes approches ont été présentées dans la littérature pour exploiter cette particularité et chacune d’entre-elles offre son lot d’avantages et d’inconvénients. Afin d’obtenir des images de qualité semblable à celle obtenue à partir d’un sujet immobile, toutes ces approches nécessitent d’augmenter la dose de radiotraceur injectée dans le sujet. Cette augmentation sera dénommé le facteur de compensation de dose. L’objectif de cette maîtrise est d’étudier ces approches afin de diminuer le facteur de compensation de dose. Pour y parvenir, un compte-rendu sur l’état de l’art de cette problématique sera présenté. Ce compte-rendu est divisé en trois volets : une étude des propriétés théoriques de chacune de ces approches, une comparaison numérique de leurs performances et une revue des lacunes qui persistent dans ce domaine. L’analyse des propriétés théoriques a débouché sur la création d’une nouvelle variante d’une des approches. L’introduction de cette nouvelle méthode, dont la résolution est explicitée, permet d’établir des parallèles théoriques avec l’approche originelle. La comparaison, en terme de vitesse de convergence, de ces variantes semble indiquer que le nouveau modèle offre un gain en vitesse de reconstruction, et ce, sans perte de qualité. La caractérisation des modèles représentant chaque approche, résultant de leur analyse théorique, a permis de motiver l’utilisation de solveurs généraux. Une méthodologie a été développée pour effectuer la comparaison numérique des per-formances. Les résultats des tests de performance permettent de déceler une lacune commune à certaines approches. Une hypothèse sur la source de cet inconvénient de même que quelques arguments la soutenant sont formulés.
2

Compteur microfluidique de radioactivité sanguine

Mélançon-Emond, Jean-Nicolas January 2015 (has links)
Les études pharmacocinétiques réalisées grâce à la tomographie d’émission par positrons chez le petit animal requièrent la mesure de la concentration du radiotraceur dans le sang, la fonction d’entrée, pendant la séquence d’imagerie. Un détecteur de positrons placé sur une canule prélevant le sang de l’animal a été démontré comme un moyen avantageux de mesurer la fonction d’entrée chez les rongeurs, mais souffre d’une efficacité de détection limitée. Une nouvelle génération de compteur a été développée afin de surmonter ce problème. Des cartouches microfluidiques, fabriquées par impression 3D dans un matériau biocompatible, remplacent les cathéters traditionnellement utilisés et permettent de diminuer la perte d’énergie des positrons dans les parois. De plus, un circuit de différentiation, implanté via une topologie d’amplificateur d’instrumentation, permet la suppression du bruit induit par le fluide conducteur présent entre une paire de détecteurs opposés. Le système est ainsi beaucoup moins vulnérable que ses prédécesseurs aux interférences électromagnétiques présentes dans l’environnement expérimental. L’efficacité de détection du système utilisant un seul détecteur avec un cathéter PE-50 a été caractérisée comme étant de 17,3 % pour le [indice supérieur 18]F, 25,2 % pour le [indice supérieur 11]C et 1,3 % pour le [indice supérieur 99m]Tc, soit des augmentations de facteurs 4, 2 et 6,5 respectivement, lorsque comparé au système en cathéter antérieur. Une caractérisation subséquente à deux détecteurs a vu les efficacités de détection du [indice supérieur 18]F et du [indice supérieur 11]C augmenter d’un facteur 1,9, soit presque doubler. Une diffusion du liquide hors du microcanal a été observée lors de l’utilisation des cartouches microfluidiques, ce qui modifie le volume de détection au cours de l’acquisition et rend impossible la détermination de l’efficacité de détection avec un microcanal. Bien que ceci démontre que la technologie d’impression 3D choisie est inadaptée à l’utilisation dans une application microfluidique, de récents développements dans le domaine font de la stéréolithographie un remplacement fort prometteur pour la fabrication de microcanaux. L’utilisation de cathéters de polyimide avec parois très minces, comme alternative à la microfluidique, a entraîné des augmentations d’efficacité de détection de 3,2 % et 5,7 % pour les isotopes [indice supérieur 18]F et [indice supérieur 11]C respectivement. L’effet du cathéter de polyimide est encore plus marquant avec le [indice supérieur 99m]Tc, faisant passer l’efficacité de détection de 1,0 % à 1,8 %. Ce fort gain s’explique par la détection d’électrons de conversion de faible énergie, indétectables avec un cathéter traditionnel. De plus, l’utilisation d’un unique cathéter élimine la complexité inhérente au raccord entre un cathéter et une composante microfluidique. L’appareil développé permettra une mesure plus précise de la fonction d’entrée et, utilisé de pair avec des techniques d’imagerie moléculaire, facilitera les études pharmacocinétiques visant le développement de nouveaux traitements et radiotraceurs.
3

Développement d’un modèle de suivi en imagerie TEP de la cardiotoxicité induite par chimiothérapie chez la souris

Gascon, Suzanne January 2015 (has links)
Le cancer est la première cause de décès au Canada et le cancer du sein est la forme la plus courante de cancer chez la femme. Le traitement privilégié lors d’un diagnostic de cancer du sein est l’utilisation de la doxorubicine, un agent de chimiothérapie de la famille des anthracyclines. Cet agent grandement utilisé en clinique permet de traiter différents types de cancer et possède un large spectre d’action. Cependant, son utilisation est limitée par l’apparition d’effets secondaires, lesquels peuvent se manifester longtemps après l’arrêt des traitements. L’un de ces effets particulièrement nocifs est le développement d’une cardiotoxicité, qui est dépendante de la dose et conduit à une insuffisance cardiaque congestive et irréversible. Les techniques utilisées en clinique pour déterminer le développement d’une cardiotoxicité reposent principalement sur l’évaluation de la fraction d’éjection du ventricule gauche (FEVG). Le projet comprend deux objectifs; 1) développer un modèle de cardiotoxicité, induite par l’administration de doxorubicine, chez la souris; 2) effectuer un suivi longitudinal par tomographie d’émission par positrons (TEP) afin de vérifier si certains paramètres métaboliques ou physiologiques permettraient de prédire le développement de la cardiotoxicité. Le suivi est effectué avec deux traceurs, le [indice supérieur 11]C-acétoacétate ([indice supérieur 11]C-AcAc), permettant d’évaluer à la fois la captation et la clairance du traceur par le coeur, mais semble avoir l’avantage de mettre en évidence l’insuffisance cardiaque sans avoir recours à un test à l’effort, comme le [indice supérieur 11]C-acétate. Le deuxième traceur est le [indice supérieur 18]F-FDG, couramment utilisé pour les examens cliniques, il permet de mesurer la consommation de glucose par le tissu cardiaque ainsi que la FEVG. Les deux traceurs ont été analysés à l’aide de modèles pharmacocinétiques afin de vérifier si les changements observés permettent de prédire hâtivement le développement de la cardiotoxicité, avant d’atteindre un état de non-retour. Les travaux réalisés ont permis de mettre au point un modèle de cardiotoxicité chez la souris suite à l’administration de chimiothérapie. Les résultats obtenus démontrent que des changements révélant le développement d’insuffisance cardiaque peuvent être observés hâtivement par une diminution de la captation myocardique et de la clairance du [indice supérieur 11]C-AcAc, indice de la perfusion et du métabolisme oxydatif myocardique, suivi d’une augmentation du taux de transfert du glucose vers le coeur qui arrive au même moment que la diminution de la FEVG.
4

Conception d’un procédé de microfabrication pour l’assemblage 3D puce-à-puce de circuits intégrés hétérogènes à des fins de prototypage

Maurais, Luc January 2018 (has links)
L’utilisation de photodiodes avalanche monophotoniques (PAMP) pour une utilisation au sein d’imageur préclinique par tomographie d’émission par positrons est d’intérêt. En effet, l’utilisation de ces photodétecteurs intégrés au CMOS est poussée par leurs excellentes performances de résolution en temps ainsi que leur haute sensibilité. Cependant, l’utilisation de ces détecteurs nécessite également un circuit intégré de contrôle visant à protéger les photodiodes de courants trop élevés lors de déclenchement d’avalanches et de contrôler leurs temps mort. Ces circuits de plus en plus sophistiqués nécessitent un espace significatif diminuant ainsi la surface photosensible à la surface de la puce et diminuant leurs sensibilités. L’assemblage 3D puce-à-puce est donc nécessaire dans le but d’augmenter la surface photosensible et de ne pas limiter les fonctionnalités de contrôles électroniques individuelles à chaque PAMP. Ce document présente le développement d’un procédé d’assemblage 3D puce-à-puce visant l’intégration de matrices de PAMP. Les étapes de microfabrication nécessaires visent l’intégration d’interconnexions verticales au travers du substrat (TSV) permettant de transmettre les signaux d’une couche à l’autre et le collage 3D de ceux-ci. De plus, des mesures de caractéristiques de bruits ont été effectuées sur des puces ayant subi certaines étapes de microfabrication du procédé d’assemblage 3D. Ces mesures ont été effectuées dans le but de déterminer l’impact potentiel du procédé d’assemblage sur les performances des PAMP intégrés en 3D.
5

Réalisation d’un convertisseur temps-numérique pour une application de détection monophotonique

Desaulniers Lamy, Étienne January 2015 (has links)
Le Groupe de recherche en appareillage médical de Sherbrooke possède une expertise unique dans la conception de scanners à tomographie d’émission par positrons. Le fonctionnement de la tomographie d’émission par positrons repose sur la détection de photons d’annihilation colinéaires par un agencement de cristaux scintillateurs, photodétecteurs, convertisseurs temps-numérique et électronique de traitement. Une partie du groupe de recherche s’oriente vers l’utilisation des matrices de photodiodes à avalanches opérées en mode Geiger, afin d’obtenir une meilleure résolution temporelle du système et un seuil de détection plus faible que les générations précédentes,ce qui permet de détecter les premiers photons émis par le cristal scintillateur. Le convertisseur temps-numérique (TDC) développé se veut un bloc polyvalent et réutilisable mesurant des intervalles de temps avec grande précision. Son développement cible des applications de détection monophotoniques avec estampilles temporelles comme la tomographie optique dffuse, les caméras 3D ou la tomographie d’émission par positrons. Il s’intègre ici dans un circuit intégré en CMOS 130 nm assemblé verticalement avec plusieurs gaufres et dédié à la détection en tomographie d’émission par positron. La méthodologie de conception du convertisseur temps-numérique s’inspire d’une approche en signaux mixtes avec suprématie du numérique. En simulation, le TDC développé arbore une résolution de 14,5 ps, une non-linéarité différentielle de 1 bits de poids faible, une non-linéarité intégrale de 2,2 bits de poids faible, une fréquence de conversion de 11,1 millions d’échantillons par seconde, une plage dynamique de 5 ns, une puissance moyenne consommée en moyenne de 4,5 mW et une taille de 0,029 mm². Un mécanisme pour améliorer la résolution du TDC a été intégré dans un exemplaire du TDC. Son utilisation a permis d’obtenir une résolution de 12,6 ps sur un exemplaire du circuit fabriqué. Ces travaux ont permis d’explorer l’architecture en oscillateur vernier avec anneaux et d’en faire ressortir plus clairement les avantages, les inconvénients et les écueils à surveiller lors de la conception.
6

Identification de cristaux dans un phoswich par la méthode de mesure de temps au dessus d'un seuil (ToT) pour le scanner LabPET II

Bouziri, Haithem January 2014 (has links)
La performance d’un scanner TEP se mesure par sa sensibilité, son contraste et sa résolution spatiale. Cette dernière doit être idéalement uniforme dans tout le champ de vue utile (CDV) du scanner. Cependant, le problème de parallaxe dû à l’éloignement de la source du centre de CDV, entraîne une dégradation de la résolution spatiale radiale. Ce problème est très présent dans les scanners avec une grande densité de détecteurs et de petit diamètre notamment dans le LabPET II, le scanner en cours de développement à l’Université de Sherbrooke par le Groupe de recherche en appareillage médicale de Sherbrooke (GRAMS) et le Centre d’imagerie moléculaire de Sherbrooke (CIMS), avec [tilde]37 000 détecteurs pour un CDV de 16 cm de diamètre et 12 cm de longueur axiale. Chaque détecteur a une surface de 1,2[indice supérieur *] 1,2 mm[indice supérieur 2] et une longueur supérieure à 10 mm. La mesure de profondeur d’interaction (PDI) demeure très utile pour résoudre le problème de parallaxe. La PDI peut être réalisée par l’assemblage de deux cristaux en phoswich, tout en gardant la même longueur totale pour assurer une bonne efficacité de détection, et puis, le cristal dans lequel une interaction est faite sera déterminé à l’aide d’algorithme d’identification de cristaux. Pour le traitement des signaux issus des modules de détection, un ASIC de 64 canaux a été développé. L’ASIC utilise une nouvelle technique de mesure de temps à doubles seuils inspirée de la technique de mesure de temps au-dessus d’un seuil (ToT). Cette technique repose sur l’utilisation de deux discriminateurs à seuil afin de déterminer le temps d’arrivée du photon d’annihilation et son énergie. Le temps d’arrivée est estimé par le moment de discrimination du signal avec le premier discriminateur. Tandis que l’énergie du signal est calculée par la différence des moments de discrimination du signal avec le premier et le deuxième discriminateur. Cette différence de temps est non linéaire en fonction de l’énergie. Donc une correction d’énergie est faite pour déterminer le spectre d’énergie. Les seuils des discriminateurs sont méticuleusement choisis afin de minimiser l’erreur sur les temps de croisement. Cette méthode de ToT à doubles seuils est une technique innovatrice pour identifier les cristaux qui ont scintillés [i.e. scintillé] dans un scanner TEP. Avec une erreur inférieure à 5%, cette technique discrimine entre un LGS045ns et un LYSO40ns. Malgré le taux d’erreur élevé comparé à d’autres méthodes d’identification, cette technique possède l’avantage d’être facilement intégrable dans l’ASIC du LabPET II.
7

Conception d’un circuit de lecture à étampes temporelles multiples pour un photodétecteur destiné à la tomographie d’émission par positrons

Lemaire, William January 2018 (has links)
La médecine moderne fait usage de divers appareils pour faciliter le diagnostic et le traitement des maladies. Parmi ceux-ci, l’imagerie par tomographie d’émission par positrons (TEP) se démarque par sa capacité d’imager des processus biologiques spécifiques comme le métabolisme du glucose. Cette caractéristique permet de mettre en évidence des signes distinctifs des maladies comme le cancer à l’aide de radiotraceurs capables de cibler certaines cellules. Dans le but de favoriser de meilleurs diagnostics et de mener des recherches de pointe dans le domaine médical, la qualité des images produites par les appareils TEP doit être améliorée. Les avancées des dernières années ont permis d’améliorer la résolution spatiale des images jusqu’à pratiquement atteindre la limite théorique imposée par le déplacement du positron lors du processus de désintégration. Depuis, les travaux s’orientent plutôt vers l’amélioration du contraste de l’image en intégrant la mesure du temps de vol (TdV) dans l’algorithme de reconstruction. Le défi dans cette mesure réside dans la conception d’un photodétecteur avec une résolution temporelle suffisante pour localiser le lieu d’émission du radiotraceur entre deux détecteurs coïncidents. La plupart des photodétecteurs actuels utilisent un seuil sur le nombre de photons de scintillation observé pour déterminer le temps d’arrivée des photons d’annihilation dans le scintillateur. Cependant, plusieurs travaux ont démontré qu’une meilleure résolution temporelle est atteignable en pondérant adéquatement l’information temporelle numérisée de plusieurs photons de scintillation à la place de n’en considérer qu’un seul. Dans le but d’améliorer la résolution temporelle des photodétecteurs, l’utilisation d’un estimateur statistique combinant l’information de plusieurs photons de scintillation se révèle une méthode prometteuse en considérant les résultats théoriques. Cependant, une implémentation matérielle pouvant être intégrée à un appareil TEP reste à être démontrée. Les travaux de recherche présentés dans ce mémoire portent sur l’intégration d’un tel estimateur statistique à un photodétecteur pour la TEP. Ces travaux ont mené au développement d’une chaine d’acquisition qui comporte 1) un circuit de lecture, 2) une trieuse, 3) un filtre de bruit thermique et 4) un estimateur statistique du temps d’interaction basé sur le Best Linear Unbiased Estimator (BLUE). L’intégration de cette chaine à même le circuit intégré du photodétecteur de 1 x 1 mm2 en CMOS 65 nm permet de réduire la bande passante de 250 Mbit/s à 0,5 Mbit/s et le temps mort de 68,6 μs à 1024 ns. Des simulations démontrent l’atteinte d’une résolution temporelle qui s’approche de la limite inférieure théorique (appelée borne de Cramér-Rao) quant à la résolution temporelle atteignable par ce photodétecteur.
8

Les algorithmes de haute résolution en tomographie d'émission par positrons : développement et accélération sur les cartes graphiques

Nassiri, Moulay Ali 05 1900 (has links)
La tomographie d’émission par positrons (TEP) est une modalité d’imagerie moléculaire utilisant des radiotraceurs marqués par des isotopes émetteurs de positrons permettant de quantifier et de sonder des processus biologiques et physiologiques. Cette modalité est surtout utilisée actuellement en oncologie, mais elle est aussi utilisée de plus en plus en cardiologie, en neurologie et en pharmacologie. En fait, c’est une modalité qui est intrinsèquement capable d’offrir avec une meilleure sensibilité des informations fonctionnelles sur le métabolisme cellulaire. Les limites de cette modalité sont surtout la faible résolution spatiale et le manque d’exactitude de la quantification. Par ailleurs, afin de dépasser ces limites qui constituent un obstacle pour élargir le champ des applications cliniques de la TEP, les nouveaux systèmes d’acquisition sont équipés d’un grand nombre de petits détecteurs ayant des meilleures performances de détection. La reconstruction de l’image se fait en utilisant les algorithmes stochastiques itératifs mieux adaptés aux acquisitions à faibles statistiques. De ce fait, le temps de reconstruction est devenu trop long pour une utilisation en milieu clinique. Ainsi, pour réduire ce temps, on les données d’acquisition sont compressées et des versions accélérées d’algorithmes stochastiques itératifs qui sont généralement moins exactes sont utilisées. Les performances améliorées par l’augmentation de nombre des détecteurs sont donc limitées par les contraintes de temps de calcul. Afin de sortir de cette boucle et permettre l’utilisation des algorithmes de reconstruction robustes, de nombreux travaux ont été effectués pour accélérer ces algorithmes sur les dispositifs GPU (Graphics Processing Units) de calcul haute performance. Dans ce travail, nous avons rejoint cet effort de la communauté scientifique pour développer et introduire en clinique l’utilisation des algorithmes de reconstruction puissants qui améliorent la résolution spatiale et l’exactitude de la quantification en TEP. Nous avons d’abord travaillé sur le développement des stratégies pour accélérer sur les dispositifs GPU la reconstruction des images TEP à partir des données d’acquisition en mode liste. En fait, le mode liste offre de nombreux avantages par rapport à la reconstruction à partir des sinogrammes, entre autres : il permet d’implanter facilement et avec précision la correction du mouvement et le temps de vol (TOF : Time-Of Flight) pour améliorer l’exactitude de la quantification. Il permet aussi d’utiliser les fonctions de bases spatio-temporelles pour effectuer la reconstruction 4D afin d’estimer les paramètres cinétiques des métabolismes avec exactitude. Cependant, d’une part, l’utilisation de ce mode est très limitée en clinique, et d’autre part, il est surtout utilisé pour estimer la valeur normalisée de captation SUV qui est une grandeur semi-quantitative limitant le caractère fonctionnel de la TEP. Nos contributions sont les suivantes : - Le développement d’une nouvelle stratégie visant à accélérer sur les dispositifs GPU l’algorithme 3D LM-OSEM (List Mode Ordered-Subset Expectation-Maximization), y compris le calcul de la matrice de sensibilité intégrant les facteurs d’atténuation du patient et les coefficients de normalisation des détecteurs. Le temps de calcul obtenu est non seulement compatible avec une utilisation clinique des algorithmes 3D LM-OSEM, mais il permet également d’envisager des reconstructions rapides pour les applications TEP avancées telles que les études dynamiques en temps réel et des reconstructions d’images paramétriques à partir des données d’acquisitions directement. - Le développement et l’implantation sur GPU de l’approche Multigrilles/Multitrames pour accélérer l’algorithme LMEM (List-Mode Expectation-Maximization). L’objectif est de développer une nouvelle stratégie pour accélérer l’algorithme de référence LMEM qui est un algorithme convergent et puissant, mais qui a l’inconvénient de converger très lentement. Les résultats obtenus permettent d’entrevoir des reconstructions en temps quasi-réel que ce soit pour les examens utilisant un grand nombre de données d’acquisition aussi bien que pour les acquisitions dynamiques synchronisées. Par ailleurs, en clinique, la quantification est souvent faite à partir de données d’acquisition en sinogrammes généralement compressés. Mais des travaux antérieurs ont montré que cette approche pour accélérer la reconstruction diminue l’exactitude de la quantification et dégrade la résolution spatiale. Pour cette raison, nous avons parallélisé et implémenté sur GPU l’algorithme AW-LOR-OSEM (Attenuation-Weighted Line-of-Response-OSEM) ; une version de l’algorithme 3D OSEM qui effectue la reconstruction à partir de sinogrammes sans compression de données en intégrant les corrections de l’atténuation et de la normalisation dans les matrices de sensibilité. Nous avons comparé deux approches d’implantation : dans la première, la matrice système (MS) est calculée en temps réel au cours de la reconstruction, tandis que la seconde implantation utilise une MS pré- calculée avec une meilleure exactitude. Les résultats montrent que la première implantation offre une efficacité de calcul environ deux fois meilleure que celle obtenue dans la deuxième implantation. Les temps de reconstruction rapportés sont compatibles avec une utilisation clinique de ces deux stratégies. / Positron emission tomography (PET) is a molecular imaging modality that uses radiotracers labeled with positron emitting isotopes in order to quantify many biological processes. The clinical applications of this modality are largely in oncology, but it has a potential to be a reference exam for many diseases in cardiology, neurology and pharmacology. In fact, it is intrinsically able to offer the functional information of cellular metabolism with a good sensitivity. The principal limitations of this modality are the limited spatial resolution and the limited accuracy of the quantification. To overcome these limits, the recent PET systems use a huge number of small detectors with better performances. The image reconstruction is also done using accurate algorithms such as the iterative stochastic algorithms. But as a consequence, the time of reconstruction becomes too long for a clinical use. So the acquired data are compressed and the accelerated versions of iterative stochastic algorithms which generally are non convergent are used to perform the reconstruction. Consequently, the obtained performance is compromised. In order to be able to use the complex reconstruction algorithms in clinical applications for the new PET systems, many previous studies were aiming to accelerate these algorithms on GPU devices. Therefore, in this thesis, we joined the effort of researchers for developing and introducing for routine clinical use the accurate reconstruction algorithms that improve the spatial resolution and the accuracy of quantification for PET. Therefore, we first worked to develop the new strategies for accelerating on GPU devices the reconstruction from list mode acquisition. In fact, this mode offers many advantages over the histogram-mode, such as motion correction, the possibility of using time-of-flight (TOF) information to improve the quantification accuracy, the possibility of using temporal basis functions to perform 4D reconstruction and extract kinetic parameters with better accuracy directly from the acquired data. But, one of the main obstacles that limits the use of list-mode reconstruction approach for routine clinical use is the relatively long reconstruction time. To overcome this obstacle we : developed a new strategy to accelerate on GPU devices fully 3D list mode ordered-subset expectation-maximization (LM-OSEM) algorithm, including the calculation of the sensitivity matrix that accounts for the patient-specific attenuation and normalisation corrections. The reported reconstruction are not only compatible with a clinical use of 3D LM-OSEM algorithms, but also lets us envision fast reconstructions for advanced PET applications such as real time dynamic studies and parametric image reconstructions. developed and implemented on GPU a multigrid/multiframe approach of an expectation-maximization algorithm for list-mode acquisitions (MGMF-LMEM). The objective is to develop new strategies to accelerate the reconstruction of gold standard LMEM (list-mode expectation-maximization) algorithm which converges slowly. The GPU-based MGMF-LMEM algorithm processed data at a rate close to one million of events per second per iteration, and permits to perform near real-time reconstructions for large acquisitions or low-count acquisitions such as gated studies. Moreover, for clinical use, the quantification is often done from acquired data organized in sinograms. This data is generally compressed in order to accelerate reconstruction. But previous works have shown that this approach to accelerate the reconstruction decreases the accuracy of quantification and the spatial resolution. The ordered-subset expectation-maximization (OSEM) is the most used reconstruction algorithm from sinograms in clinic. Thus, we parallelized and implemented the attenuation-weighted line-of-response OSEM (AW-LOR-OSEM) algorithm which allows a PET image reconstruction from sinograms without any data compression and incorporates the attenuation and normalization corrections in the sensitivity matrices as weight factors. We compared two strategies of implementation: in the first, the system matrix (SM) is calculated on the fly during the reconstruction, while the second implementation uses a precalculated SM more accurately. The results show that the computational efficiency is about twice better for the implementation using calculated SM on-the-fly than the implementation using pre-calculated SM, but the reported reconstruction times are compatible with a clinical use for both strategies.
9

Évaluation objective de la douleur chronique secondaire à l’arthrose chez le chat

Guillot, Martin 12 1900 (has links)
La prévalence de l’arthrose féline augmente fortement avec l’âge atteignant plus de 80% des chats de plus de 11 ans. L'arthrose induit une douleur chronique s’exprimant par des changements de comportements et une diminution de la mobilité. Il n'existe aucun outil validé pour évaluer la douleur chronique associée à l’arthrose chez le chat. Conséquemment, aucun traitement ciblant cette douleur n’a pu être validé. Notre hypothèse de recherche est que la douleur arthrosique chez le chat induit des handicaps fonctionnels, des changements neurophysiologiques et un état d'hypersensibilité qu'il faut évaluer pour quantifier de manière fiable cette douleur et ses répercussions sur la qualité de vie de l'animal. Nos objectifs étaient 1) de développer des outils adaptés aux chats mesurant les handicaps fonctionnels grâce à des outils cinématiques, cinétiques et de suivi de l'activité motrice ; 2) de caractériser les changements fonctionnels et neurophysiologiques secondaires à la douleur arthrosique et de tester avec ces outils un traitement analgésique à base d'anti-inflammatoire non stéroïdien ; 3) de développer une technique adaptée aux chats pouvant caractériser la présence du phénomène de sensibilisation centrale à l'aide d'une évaluation de la sommation temporelle mécanique ; 4) de tester la possibilité de mesurer le métabolisme glucidique cérébral par tomographie d’émission par positrons comme marqueur des changements supraspinaux secondaires à la chronicisation de la douleur. Grâce au développement d’outils de mesure de douleur chronique objectifs, sensibles et répétables nous avons caractérisé la douleur chez les chats arthrosiques. Ils présentent des signes de boiterie quantifiée par une diminution de l’amplitude de l’articulation ou par une diminution de la force verticale d’appui au sol et une diminution de l’activité motrice quotidienne. Ces deux derniers outils ont permis de démontrer qu’un anti-inflammatoire non stéroïdien (le méloxicam) administré pendant quatre semaines réduit la douleur arthrosique. De plus, grâce au développement de tests sensoriels quantitatifs et à l'utilisation d'imagerie cérébrale fonctionnelle, nous avons démontré pour la première fois que la douleur arthrosique conduisait à des modifications du système nerveux central chez le chat. Particulièrement, les chats arthrosiques développent le phénomène de sensibilisation centrale mis en évidence par un seuil de retrait aux filament de von Frey diminué (mesure réflexe) mais aussi par une facilitation de la sommation temporelle mécanique (mesure tenant compte de la composante cognitive et émotionnelle de la douleur). L'augmentation du métabolisme cérébral dans le cortex somatosensoriel secondaire, le thalamus et la substance grise périaqueducale, souligne aussi l'importance des changements liés à la chronicisation de la douleur. Un traitement analgésique adapté à l’arthrose permettra d’améliorer la qualité de vie des chats atteints, offrira une option thérapeutique valide aux praticiens vétérinaires, et profitera aux propriétaires qui retrouveront un chat actif et sociable. La découverte de l'implication du phénomène de sensibilisation central combiné à l'investigation des changements cérébraux secondaires à la douleur chronique associée à l'arthrose par imagerie fonctionnelle ouvre de nouvelles avenues de recherche chez le chat (développement et/ou validation de traitements adaptés à l'état d'hypersensibilité) et les humains (potentiel modèle naturel de douleur chronique associée à l'arthrose). / Feline osteoarthritis prevalence increases with age, up to 80% in cats aged 11 years old and more. Osteoarthritis is associated with chronic pain expressing as altered behaviour and a decrease in mobility. Currently, there is no validated technique to evaluate osteoarthritis-associated chronic pain in cats. This situation leads to an absence of approved medication for the treatment of OA-associated chronic pain in cats. Our hypothesis states that osteoarthritis-associated pain in cats is expressed as physical disabilities, neurophysiologic changes, hypersensibility, which need to be assessed to quantify adequately this pain and its impact on quality of life. Our objectives were 1) to develop a cat adapted method to assess physical disabilities using kinematics, kinetics and motor activity evaluations; 2) to describe functional and neurophysiologic changes related to osteoarthritis-associated pain, and to test a non steroidal anti-inflammatory based analgesic treatment; 3) to develop a cat adapted method to detect central sensitisation using mechanical temporal summation; 4) to test the feasibility of measuring carbohydrate brain metabolism using positron emission tomography as a marker of supraspinal changes-associated with pain chronicity. Using objective chronic pain evaluation tools determined as sensitive and repeatable, we characterized feline osteoarthritis-associated pain. Cats afflicted with osteoarthritis presented lameness characterised by decreased joint amplitude, or decreased peak ground reaction vertical force, and decreased motor activity. Using the two latter tools, we demonstrated the efficacy of a non steroidal anti-inflammatory (meloxicam) to alleviate osteoarthritis-associated pain after four weeks of administration. Moreover, using quantitative sensory testing and brain functional imaging, we demonstrated for the first time, that osteoarthritis-associated pain in cats led to central nervous system changes. Specially, cats afflicted with osteoarthritis developed central sensitisation as indicated by a decreased von Frey withdrawal threshold (a reflex evaluation), and also by a facilitated mechanical temporal summation (an approach allowing to take into account affective and cognitive dimensions of pain). The increase of brain metabolism in the secondary somatosensory cortex, thalamus and periaqueductal grey matter also highlighted the importance of pain chronicity related changes. Using an analgesic treatment built to alleviate osteoarthritis-associated pain will improve cats quality of life, will help veterinarians, and will benefit owners who will retrieve an active and social cat. Demonstrating both the importance of central sensitisation and assessment of brain changes related to osteoarthritis-associated chronic pain using brain functional imaging opens new research opportunities in cats (development and/or validation of hypersensitivity related treatments), and humans (potential natural model of osteoarthritis-associated pain).

Page generated in 0.5558 seconds