• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 48
  • 7
  • 2
  • Tagged with
  • 52
  • 52
  • 42
  • 41
  • 24
  • 19
  • 15
  • 12
  • 12
  • 8
  • 8
  • 8
  • 8
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Études expérimentale et numérique du colmatage de filtre plissé / Experimental and numerical study of pleated filters clogging

Gervais, Pierre-Colin 19 February 2013 (has links)
L'utilisation de filtres plissés dans le domaine du traitement de l'air est extrêmement fréquente en raison de leur simplicité d'utilisation et de maintenance. Néanmoins, au cours du colmatage, la perte de charge augmente considérablement avec le dépôt de particules. Par conséquent le débit de filtration n'est plus maintenu et une détérioration des médias peut se produire. Il est essentiel de caractériser cette évolution en fonction des conditions opératoires pour mieux concevoir ces équipements. Les travaux ont consisté en une étude expérimentale de l'influence des conditions opératoires sur la géométrie du dépôt par des observations en Tomographie d'Émission MonoPhotonique. Une approche numérique a consisté, dans un premier temps, en une étude de la perméabilité de médias bien caractérisés afin de valider le code GeoDict. Dans un deuxième temps, une étude de la vitesse de l'air a été entreprise sur les médias plissés. La confrontation des résultats numériques avec les données expérimentales nous a permis une validation du code dans les gammes de propriétés des médias et de vitesses typiques. Concernant les médias bimodaux, l'acquisition rapide de données a permis de tester différentes corrélations analytiques afin de classifier les modèles existants d'une manière qui facilite leur utilisation. Si les résultats expérimentaux obtenus sur la localisation du dépôt préférentiel initial dans les filtres plissés sont encourageants, notamment vis-à-vis des simulations d'écoulement réalisées avec GeoDict, ceux issus des acquisitions sur les filtres précolmatés sont à prendre avec prudence et suggèrent d'apporter un certain nombre d'amélioration à notre technique / Pleated filters are widely used in air treatments because of the advantageous effective surface to overall dimension ratio they offer. Their major drawback though resides in their reduced lifetime which still needs to be controlled. Indeed, when clogging, the pressure drop considerably increases, the filtration flow is then no longer maintained which might lead to the deterioration of the media. It is then crucial to characterize the evolution of the pressure drop under operating conditions in order to best design these equipments. Part of our work consisted in studying how the operating conditions influence the geometry of the deposit. To do so, we used Single-Photon Emission Computed Tomography (SPECT), a non-destructive imaging technique that keeps intact the particle structuring. The visualization of aerosol deposit at the beginning of the filtration process allows observing preferential particle deposition on the whole height of the pleat. A numerical approach was used to study the permeability of bimodal fibrous media and we experimentally studied the local velocity as well as the biphasic flow inside pleated filter media. Comparison between experiments and simulations allowed us to validate the Geodict code for a wide range of media properties and velocities. Regarding bimodal fibrous media, the fast data acquisition has allowed testing several existing models which resulted in classifying them in a unique way. If the experimental results on the initial deposition in pleated filters are encouraging, those related to beforehand clogging point to several improvements regarding the technique we used
42

Validation de la plate-forme de simulation GATE en Tomographie d'Emission Monophotonique et application au développement d'un algorithme de reconstruction 3D complète

Lazaro, Delphine 30 October 2003 (has links) (PDF)
Les simulations Monte-Carlo représentent actuellement en imagerie médicale nucléaire un outil puissant d'aide à la conception et à l'optimisation des détecteurs, et à l'évaluation des algorithmes de reconstruction et des méthodes de corrections des effets physiques. Parmi les nombreux simulateurs disponibles aujourd'hui, aucun n'est considéré comme standard en imagerie nucléaire, ce qui a motivé le développement d'une nouvelle plate-forme de simulation Monte-Carlo générique (GATE), basée sur GEANT4 et dédiée aux applications SPECT/PET. Au cours de cette thèse, nous avons participé au développement de la plate-forme GATE dans le cadre d'une collaboration internationale. Nous avons validé GATE en SPECT en modélisant deux gamma-caméras de conception différente, l'une dédiée à l'imagerie du petit animal et l'autre utilisée en routine clinique (Philips AXIS), et en comparant les résultats issus des simulations GATE avec les données acquises expérimentalement. Les résultats des simulations reproduisent avec précision les performances des deux gamma-caméras mesurées. La plate-forme GATE a ensuite été employée pour développer une nouvelle méthode de reconstruction 3D (F3DMC), consistant à calculer par simulation Monte-Carlo la matrice de transition utilisée dans un algorithme de reconstruction itératif (ici, ML-EM), en y incluant les principaux effets physiques perturbant le processus de formation de l'image. Les résultats de F3DMC sont comparés aux résultats obtenus avec trois autres méthodes de reconstruction plus classiques (FBP, MLEM, MLEMC) pour différents fantômes simulés. Les résultats de cette étude montrent que F3DMC permet d'améliorer l'efficacité de reconstruction, la résolution spatiale et le rapport signal-sur-bruit avec une quantification satisfaisante des images. Ces résultats devront être confirmés par des études cliniques et ouvrent la voie vers une méthode de reconstruction unifiée, pouvant être appliquée aussi bien en SPECT qu'en PET.
43

Optimisation et validation d'un algorithme de reconstruction 3D en tomographie d'émission monophotonique à l'aide de la plate forme de simulation GATE

El Bitar, Z. 05 December 2006 (has links) (PDF)
Les simulations de Monte-Carlo, bien que consommatrices en temps de calcul, restent un outil puissant qui permet d'évaluer les méthodes de correction des effets physiques en imagerie médicale.<br />Nous avons optimisé et validé une méthode de reconstruction baptisée F3DMC (Fully 3D Monte Carlo) dans laquelle les effets physiques perturbant le processus de formation de l'image en tomographie d'émission monophotonique sont modélisés par des méthodes de Monte-Carlo et intégrés dans la matrice-système. Le logiciel de simulation de Monte-Carlo utilisé est GATE. Nous avons validé GATE en SPECT en modélisant la gamma-caméra (Philips AXIS) utilisé en routine clinique. Des techniques de seuillage, filtrage par analyse en composantes principales et de reconstruction ciblée (régions fonctionnelles, régions hybrides) ont été testées pour améliorer la précision de la matrice-système et réduire le nombre de photons ainsi que le temps de calcul nécessaires. Les infrastructures de la grille EGEE ont été utilisées pour déployer les simulations GATE afin de réduire leur temps de calcul. Les résultats obtenus avec F3DMC sont comparés avec les méthodes de reconstruction (FBP, ML-EM, ML-EMC) pour un fantôme simulé et avec la méthode OSEM-C pour un fantôme réel. Les résultats de cette étude montrent que la méthode F3DMC ainsi que ses variantes permettent d'améliorer la restauration des rapports d'activité et le rapport signal sur bruit. L'utilisation de la grille de calcul EGEE a permis d'obtenir un gain de l'ordre de 300 en temps de calcul. Dans la suite, ces résultats doivent être confirmés par des études sur des fantômes complexes et des patients et ouvrent la voie vers une méthode de reconstruction unifiée, pouvant être appliquée aussi bien en SPECT qu'en PET.
44

Modélisation de photodétecteurs à base de matrices de diodes avalanche monophotoniques pour tomographie d'émission par positrons

Corbeil Therrien, Audrey January 2013 (has links)
La tomographie d'émission par positrons (TEP) est un outil précieux en recherche préclinique et pour le diagnostic médical. Cette technique permet d'obtenir une image quantitative de fonctions métaboliques spécifiques par la détection de photons d'annihilation. La détection des ces photons se fait à l'aide de deux composantes. D'abord, un scintillateur convertit l'énergie du photon 511 keV en photons du spectre visible. Ensuite, un photodétecteur convertit l'énergie lumineuse en signal électrique. Récemment, les photodiodes avalanche monophotoniques (PAMP) disposées en matrice suscitent beaucoup d'intérêt pour la TEP. Ces matrices forment des détecteurs sensibles, robustes, compacts et avec une résolution en temps hors pair. Ces qualités en font un photodétecteur prometteur pour la TEP, mais il faut optimiser les paramètres de la matrice et de l'électronique de lecture afin d'atteindre les performances optimales pour la TEP. L'optimisation de la matrice devient rapidement une opération difficile, car les différents paramètres interagissent de manière complexe avec les processus d'avalanche et de génération de bruit. Enfin, l'électronique de lecture pour les matrices de PAMP demeure encore rudimentaire et il serait profitable d'analyser différentes stratégies de lecture. Pour répondre à cette question, la solution la plus économique est d'utiliser un simulateur pour converger vers la configuration donnant les meilleures performances. Les travaux de ce mémoire présentent le développement d'un tel simulateur. Celui-ci modélise le comportement d'une matrice de PAMP en se basant sur les équations de physique des semiconducteurs et des modèles probabilistes. Il inclut les trois principales sources de bruit, soit le bruit thermique, les déclenchements intempestifs corrélés et la diaphonie optique. Le simulateur permet aussi de tester et de comparer de nouvelles approches pour l'électronique de lecture plus adaptées à ce type de détecteur. Au final, le simulateur vise à quantifier l'impact des paramètres du photodétecteur sur la résolution en énergie et la résolution en temps et ainsi optimiser les performances de la matrice de PAMP. Par exemple, l'augmentation du ratio de surface active améliore les performances, mais seulement jusqu'à un certain point. D'autres phénomènes liés à la surface active, comme le bruit thermique, provoquent une dégradation du résultat. Le simulateur nous permet de trouver un compromis entre ces deux extrêmes. Les simulations avec les paramètres initiaux démontrent une efficacité de détection de 16,7 %, une résolution en énergie de 14,2 % LMH et une résolution en temps de 0.478 ns LMH. Enfin, le simulateur proposé, bien qu'il vise une application en TEP, peut être adapté pour d'autres applications en modifiant la source de photons et en adaptant les objectifs de performances.
45

Correction de l'atténuation et de la réponse géométrique d'un détecteur en tomographie d'émission sur colis de déchets nucléaires

Thierry, Raphaël 29 October 1999 (has links) (PDF)
La tomographie d'émission multiphotonique est une technique de contrôle non destructif appliquée au contrôle des colis de déchets radioactifs. Les rayonnements gammas émis sont détectés sur la gamme [50 keV, 2 MeV] par un germanium hyper pur, de haute résolution en énergie, ce qui permet d'établir une carte détaillée des radioéléments contenus dans le colis. A partir des différents points de mesures situés dans un plan transaxial au colis, un algorithme de reconstruction permet d'estimer la distribution de l'activité. Une modélisation algébrique du processus a été développée afin de pouvoir corriger des phénomènes perturbateurs, en particulier l'atténuation et la réponse géométrique du détecteur. L'atténuation à travers les matériaux constituant le colis est le phénomène prépondérant : elle permet une quantification précise de l'activité. Sa prise en compte est réalisée grâce à une carte d'atténuation obtenue par un tomographe de transmission. La réponse géométrique de détection, opérant un flou sur le faisceau de détection, est modélisée analytiquement. La bonne modélisation de ces phénomènes est primordiale : elle conditionne, dans une grande partie, la qualité de l'image et sa quantification. La reconstruction des images, nécessitant la résolution de systèmes matriciels creux, est réalisée par des algorithmes itératifs. Du fait du caractère "mal-posé" de la reconstruction tomographique, il est nécessaire d'utiliser une régularisation : la stabilisation des méthodes s'opère par l'introduction d'information a priori sur la solution. Le critère à minimiser choisi est celui du Maximum A Posteriori. Sa résolution est envisagée par un algorithme de régularisation semi-quadratique : il permet la préservation les discontinuités naturelles, et évite ainsi le surlissage global de l'image. Elle est évaluée sur des fantômes réels et des colis de déchets. Enfin l'échantillonnage efficace des mesures est abordé.
46

Conception des circuits de polarisation des détecteurs et de maintien de la tension de base du LabPET II

Panier, Sylvain January 2014 (has links)
Par le passé, la collaboration entre le Centre d'Imagerie Médicale de Sherbrooke (CIMS) et le Groupe de Recherche en Appareillage Médicale de Sherbrooke (GRAMS) a permis de développer le scanner LabPET. Celui-ci fut le premier scanner de Tomographie d'Émission par Positrons (TEP) commercial utilisant des photodiodes à effet avalanche (PDA) comme détecteur. Depuis, cette collaboration a permis de faire évoluer le scanner afin d'améliorer cette modalité d'imagerie et d'y ajouter la tomodensitométrie (TDM). Les attentes pour la prochaine génération du scanner sont donc grandes. Cette nouvelle génération du scanner, le LabPET II, verra les deux modalités nativement intégrées et elles utiliseront la même chaine de détection. Ce scanner se verra doté de nouveaux détecteurs organisés en matrices de 64 cristaux de 1,1 par 1,1 mm². Cette nouvelle matrice, associée à ses deux matrices de 32 PDA, a prouvé sa capacité à fournir une résolution spatiale inférieure au millimètre. L'utilisation de ce nouveau module de détection pourra donc permettre au LabPET II d'être le premier scanner bimodal (TEP/TDM) commercial atteignant une résolution submillimétrique. Ce scanner permettra de s'approcher un peu plus de la résolution spatiale ultime en TEP tout en permettant une bonne localisation anatomique grâce à l'ajout d'une imagerie TDM rudimentaire. Pour atteindre ces objectifs, une intégration complète de l'électronique frontale a été nécessaire. Dans les versions précédentes, seuls les préamplificateurs de charge et les filtres de mise en forme étaient intégrés; dans cette nouvelle version, toute l'électronique analogique ainsi que la numérisation et les liens de communications devront être intégrés. Pour ce faire, la technique de temps de survol au-dessus d'un seuil (ou ToT pour «Time-over-Threshold») a été préférée à la solution utilisée par le LabPET I qui nécessitait un convertisseur analogique-numérique par canal. La contrepartie de cette solution est l'obligation de maintenir la tension de base à une valeur fixe et commune à tous les canaux. Le circuit de polarisation des PDA a aussi dû être intégré dans l'ASIC, car il occupait énormément de place sur la carte d'électronique frontale du LabPET 1. Dans ce mémoire seront décrits la conception, l'intégration et les tests de ces deux circuits du système. Ils ont démontré leur efficacité tout en n'occupant que très peu de place dans le circuit intégré spécialisé (ASIC) du «module de détection». Au vu des sources bibliographiques recensées, le module de détection du LabPET II devrait être l'un de ceux ayant la plus forte densité de canaux (environ 45 par centimètre carré) et le seul combinant électronique analogique faible bruit, numérique et haute tension (~450 V). La réalisation de cette nouvelle génération devrait permettre au partenariat CIMS/GRAMS de réaffirmer leur position de leader dans le domaine en améliorant les outils d'imagerie à la disposition des chercheurs en médecine préclinique.
47

Conception, reconstruction et évaluation d'une géométrie de collimation multi-focale en tomographie d'émission monophotonique préclinique

Benoit, Didier 05 December 2013 (has links) (PDF)
La tomographie d'émission monophotonique (TEMP) dédiée au petit animal est une technique d'imagerie nucléaire qui joue un rôle important en imagerie moléculaire. Les systèmes TEMP, à l'aide de collimateurs pinholes ou multi-pinholes, peuvent atteindre des résolutions spatiales submillimétriques et une haute sensibilité pour un petit champ de vue, ce qui est particulièrement attractif pour imager des souris. Une géométrie de collimation originale a été proposée, dans le cadre d'un projet, appelé SIGAHRS, piloté par la société Biospace. Ce collimateur présente des longueurs focales qui varient spatialement dans le plan transaxial et qui sont fixes dans le plan axial. Une haute résolution spatiale est recherchée au centre du champ de vue, avec un grand champ de vue et une haute sensibilité. Grâce aux simulations Monte Carlo, dont nous pouvons maîtriser tous les paramètres, nous avons étudié cette collimation originale que nous avons positionnée par rapport à un collimateur parallèle et un collimateur monofocal convergent. Afin de générer des données efficacement, nous avons développé un module multi-CPU/GPU qui utilise une technique de lancer de rayons dans le collimateur et qui nous a permis de gagner un facteur ~ 60 en temps de calcul, tout en conservant ~ 90 % du signal, pour l'isotope ⁹⁹^mTc (émettant à 140,5 keV), comparé à une simulation Monte Carlo classique. Cependant, cette approche néglige la pénétration septale et la diffusion dans le collimateur. Les données simulées ont ensuite été reconstruites avec l'algorithme OSEM. Nous avons développé quatre méthodes de projection (une projection simple (S-RT), une projection avec volume d'intersection (S-RT-IV), une projection avec calcul de l'angle solide (S-RT-SA) et une projection tenant compte de la profondeur d'interaction (S-RT-SA-D)). Nous avons aussi modélisé une PSF dans l'espace image, anisotrope et non-stationnaire, en nous inspirant de la littérature existante. Nous avons étudié le conditionnement de la matrice système pour chaque projecteur et collimateur, et nous avons comparé les images reconstruites pour chacun des collimateurs et pour chacun des projecteurs. Nous avons montré que le collimateur original proposé est le système le moins bien conditionné. Nous avons aussi montré que la modélisation de la PSF dans l'image ainsi que de la profondeur d'intéraction améliorent la qualité des images reconstruites ainsi que le recouvrement de contraste. Cependant, ces méthodes introduisent des artefacts de bord. Comparé aux systèmes existants, nous montrons que ce nouveau collimateur a un grand champ de vue (~ 70 mm dans le plan transaxial), avec une résolution de 1,0 mm dans le meilleur des cas, mais qu'il a une sensibilité relativement faible (1,32x10⁻² %).
48

Conception, reconstruction et évaluation d'une géométrie de collimation multi-focale en tomographie d'émission monophotonique préclinique / Design, reconstruction and evaluation of multi-focal collimation in single photon emission computed tomography for small-animal imaging

Benoit, Didier 05 December 2013 (has links)
La tomographie d'émission monophotonique (TEMP) dédiée au petit animal est une technique d'imagerie nucléaire qui joue un rôle important en imagerie moléculaire. Les systèmes TEMP, à l'aide de collimateurs pinholes ou multi-pinholes, peuvent atteindre des résolutions spatiales submillimétriques et une haute sensibilité pour un petit champ de vue, ce qui est particulièrement attractif pour imager des souris. Une géométrie de collimation originale a été proposée, dans le cadre d'un projet, appelé SIGAHRS, piloté par la société Biospace. Ce collimateur présente des longueurs focales qui varient spatialement dans le plan transaxial et qui sont fixes dans le plan axial. Une haute résolution spatiale est recherchée au centre du champ de vue, avec un grand champ de vue et une haute sensibilité. Grâce aux simulations Monte Carlo, dont nous pouvons maîtriser tous les paramètres, nous avons étudié cette collimation originale que nous avons positionnée par rapport à un collimateur parallèle et un collimateur monofocal convergent. Afin de générer des données efficacement, nous avons développé un module multi-CPU/GPU qui utilise une technique de lancer de rayons dans le collimateur et qui nous a permis de gagner un facteur ~ 60 en temps de calcul, tout en conservant ~ 90 % du signal, pour l'isotope ⁹⁹^mTc (émettant à 140,5 keV), comparé à une simulation Monte Carlo classique. Cependant, cette approche néglige la pénétration septale et la diffusion dans le collimateur. Les données simulées ont ensuite été reconstruites avec l'algorithme OSEM. Nous avons développé quatre méthodes de projection (une projection simple (S-RT), une projection avec volume d'intersection (S-RT-IV), une projection avec calcul de l'angle solide (S-RT-SA) et une projection tenant compte de la profondeur d'interaction (S-RT-SA-D)). Nous avons aussi modélisé une PSF dans l'espace image, anisotrope et non-stationnaire, en nous inspirant de la littérature existante. Nous avons étudié le conditionnement de la matrice système pour chaque projecteur et collimateur, et nous avons comparé les images reconstruites pour chacun des collimateurs et pour chacun des projecteurs. Nous avons montré que le collimateur original proposé est le système le moins bien conditionné. Nous avons aussi montré que la modélisation de la PSF dans l'image ainsi que de la profondeur d'intéraction améliorent la qualité des images reconstruites ainsi que le recouvrement de contraste. Cependant, ces méthodes introduisent des artefacts de bord. Comparé aux systèmes existants, nous montrons que ce nouveau collimateur a un grand champ de vue (~ 70 mm dans le plan transaxial), avec une résolution de 1,0 mm dans le meilleur des cas, mais qu'il a une sensibilité relativement faible (1,32x10⁻² %). / Small animal single photon emission computed tomography (SPECT) is a nuclear medicine imaging technique that plays an important role in molecular imaging. SPECT systems using pinhole or multi-pinhole collimator can achieve submillimetric spatial resolution and high sensitivity in a small field of view, which is particularly appropriate for imaging mice. In our work, we studied a new collimator dedicated to small animal SPECT, in the context of a project called SIGAHRS, led by the Biospace company. In this collimator, focal lengths vary spatially in the transaxial plane and are fixed in the axial plane. This design aims at achieving high spatial resolution in the center of the field of view, with a large field of view and high sensitivity. Using Monte Carlo simulations, where all parameters can be controlled, we studied this new collimator geometry and compared it to a parallel collimator and a cone-beam collimator. To speed up the simulations, we developed a multi-CPU/GPU module that uses a technique of ray tracing. Using this approach, the acceleration factor was ~ 60 and we restored ~ 90 % of the signal for ⁹⁹^mTc (140.5 keV emission), compared to a classical Monte Carlo simulation. The 10 % difference is due to the fact that the multi-CPU/GPU module neglects the septal penetration and scatter in the collimator. We demonstrated that the data acquired with the new collimator could be reconstructed without artifact using an OSEM algorithm. We developed four forward projectors (simple projector (S-RT), projector accounting for the surface of the detecting pixel (S-RT-IV), projection modeling the solid angle (S-RT-SA) of the projection tube, and projector modeling the depth of interaction (S-RT-SA-D)). We also modeled the point spread function of the collimator in the image domain, using an anisotropic non-stationary function. To characterize the reconstruction, we studied the conditioning number of the system matrix for each projector and each collimator. We showed that the new collimator was more ill-conditioned than a parallel collimator or a cone-beam collimator. We showed that the image based PSF and the modeling of the depth of interaction improved the quality of the images, but edge artefacts were introduced when modeling the PSF in the image domain. Compared to existing systems, we showed that this new collimator has a large field of view (~ 70 mm in the transaxial plane) with a resolution of 1.0 mm in the best case but suffers from a relatively low sensitivity (1.32x10⁻² %).
49

Conception d'un circuit d'étouffement pour photodiodes à avalanche en mode Geiger pour intégration hétérogène 3D

Boisvert, Alexandre January 2014 (has links)
Le Groupe de Recherche en Appareillage Médical de Sherbrooke (GRAMS) travaille actuellement sur un programme de recherche portant sur des photodiodes à avalanche monophotoniques (PAMP) opérées en mode Geiger en vue d'une application à la tomographie d’émission par positrons (TEP). Pour opérer dans ce mode, la PAMP, ou SPAD selon l’acronyme anglais (Single Photon Avalanche Diode), requiert un circuit d'étouffement (CE) pour, d’une part, arrêter l’avalanche pouvant causer sa destruction et, d’autre part, la réinitialiser en mode d’attente d’un nouveau photon. Le rôle de ce CE comprend également une électronique de communication vers les étages de traitement avancé de signaux. La performance temporelle optimale du CE est réalisée lorsqu’il est juxtaposé à la PAMP. Cependant, cela entraîne une réduction de la surface photosensible ; un élément crucial en imagerie. L’intégration 3D, à base d'interconnexions verticales, offr une solution élégante et performante à cette problématique par l’empilement de circuits intégrés possédant différentes fonctions (PAMP, CE et traitement avancé de signaux). Dans l’approche proposée, des circuits d’étouffement de 50 [mu]m x 50 [mu]m réalisés sur une technologie CMOS 130 nm 3D Tezzaron, contenant chacun 112 transistors, sont matricés afin de correspondre à une matrice de PAMP localisée sur une couche électronique supérieure. Chaque circuit d'étouffement possède une gigue temporelle de 7,47 ps RMS selon des simulations faites avec le logiciel Cadence. Le CE a la flexibilité d'ajuster les temps d'étouffement et de recharge pour la PAMP tout en présentant une faible consommation de puissance ( ~ 0,33 mW à 33 Mcps). La conception du PAMP nécessite de supporter des tensions supérieures aux 3,3 V de la technologie. Pour répondre à ce problème, des transistors à drain étendu (DEMOS) ont été réalisés. En raison de retards de production par les fabricants, les circuits n’ont pu être testés physiquement par des mesures. Les résultats de ce mémoire sont par conséquent basés sur des résultats de simulations avec le logiciel Cadence.
50

Validation de la simulation Monte-Carlo de la gamma-caméra petit animal Biospace sur la grille de calcul légère CiGri. Application à l'évaluation de l'algorithme de l'inversion analytique de la transformée de Radon atténuée

Aoun, Joe 30 October 2009 (has links) (PDF)
Les Simulations Monte-Carlo SMC représentent actuellement en imagerie médicale nucléaire un outil puissant d'aide à la conception et à l'optimisation des détecteurs, et à l'évaluation des algorithmes de reconstruction et des méthodes de correction des effets physiques responsables de la dégradation des images reconstruites (atténuation, diffusion, etc.). L'inconvénient majeur des simulations Monte-Carlo réside dans le temps de calcul important qu'elles nécessitent. Au cours de cette thèse, nous avons tiré parti de la plate-forme de SMC GATE (Geant4 Application for Tomographic Emission) dédiée aux examens SPECT/PET pour une modélisation réaliste des phénomènes physiques, et de la grille de calcul légère CiGri (CIMENT Grid) afin de réduire le temps de calcul. Le premier objectif de cette thèse consiste à modéliser la gamma-caméra Biospace dédiée à l'imagerie petit animal à l'aide du logiciel GATE. Le modèle de la gamma-caméra est validé en comparant les résultats issus des simulations GATE avec les données acquises expérimentalement. Les résultats des simulations reproduisent avec précision les performances mesurées de la gamma-caméra. Le modèle validé est ensuite utilisé pour l'évaluation de l'algorithme de Novikov-Natterer de reconstruction analytique de la transformée de Radon atténuée. Les résultats de cette étude montrent que l'algorithme de reconstruction de Novikov-Natterer permet d'améliorer les images d'un point de vue qualitatif et quantitatif par rapport à la méthode analytique standard FBP

Page generated in 0.4836 seconds