• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 26
  • 2
  • 1
  • Tagged with
  • 29
  • 29
  • 20
  • 15
  • 13
  • 12
  • 11
  • 10
  • 10
  • 9
  • 8
  • 7
  • 7
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Validation de la simulation Monte-Carlo de la gamma-caméra petit animal Biospace sur la grille légère CiGri. Application à l'évaluation de l'algorithme de l'inversion analytique de la transformée de Radon atténuée

Aoun, Joe 30 October 2009 (has links) (PDF)
Les simulations Monte-Carlo SMC représentent actuellement en imagerie médicale nucléaire un outil puissant d'aide à la conception et à l'optimisation des détecteurs, et à l'évaluation des algorithmes de reconstruction et des méthodes de correction des effets physiques responsables de la dégradation des images reconstruites (atténuation, diffusion, etc...). L'inconvénient majeur des simulations Monte-Carlo réside dans le temps de calcul important qu'elles nécessitent. Au cours de cette thèse, nous avons tiré parti de la plate-forme de SMC GATE (Geant4 Application for Tomographic Emission) dédiée aux examens SPECT/PET pour une modélisation réaliste des phénomènes physiques, et de la grille de calcul légère CiGri (Ciment Grid) afin de réduire le temps de calcul. Le premier objectif de cette thèse consiste à modéliser la gamma-caméra Biospace dédiée à l'imagerie petit animal à l'aide du logiciel GATE. Le modèle de la gamma-caméra est validé en comparant les résultats issus des simulations GATE avec les données acquises expérimentalement. Les résultats des simulations reproduisent avec précision les performances mesurées de la gamma-caméra. Le modèle validé est ensuite utilisé pour l'évaluation de l'algorithme de Novikov-Natterer de reconstruction analytique de la transformée de Radon atténuée. Les résultats de cette étude montrent que l'algorithme de reconstruction de Novikov-Natterer permet d'améliorer les images d'un point de vue qualitatif et quantitatif par rapport à la méthode analytique standard FBP.
12

Études expérimentale et numérique du colmatage de filtre plissé / Experimental and numerical study of pleated filters clogging

Gervais, Pierre-Colin 19 February 2013 (has links)
L'utilisation de filtres plissés dans le domaine du traitement de l'air est extrêmement fréquente en raison de leur simplicité d'utilisation et de maintenance. Néanmoins, au cours du colmatage, la perte de charge augmente considérablement avec le dépôt de particules. Par conséquent le débit de filtration n'est plus maintenu et une détérioration des médias peut se produire. Il est essentiel de caractériser cette évolution en fonction des conditions opératoires pour mieux concevoir ces équipements. Les travaux ont consisté en une étude expérimentale de l'influence des conditions opératoires sur la géométrie du dépôt par des observations en Tomographie d'Émission MonoPhotonique. Une approche numérique a consisté, dans un premier temps, en une étude de la perméabilité de médias bien caractérisés afin de valider le code GeoDict. Dans un deuxième temps, une étude de la vitesse de l'air a été entreprise sur les médias plissés. La confrontation des résultats numériques avec les données expérimentales nous a permis une validation du code dans les gammes de propriétés des médias et de vitesses typiques. Concernant les médias bimodaux, l'acquisition rapide de données a permis de tester différentes corrélations analytiques afin de classifier les modèles existants d'une manière qui facilite leur utilisation. Si les résultats expérimentaux obtenus sur la localisation du dépôt préférentiel initial dans les filtres plissés sont encourageants, notamment vis-à-vis des simulations d'écoulement réalisées avec GeoDict, ceux issus des acquisitions sur les filtres précolmatés sont à prendre avec prudence et suggèrent d'apporter un certain nombre d'amélioration à notre technique / Pleated filters are widely used in air treatments because of the advantageous effective surface to overall dimension ratio they offer. Their major drawback though resides in their reduced lifetime which still needs to be controlled. Indeed, when clogging, the pressure drop considerably increases, the filtration flow is then no longer maintained which might lead to the deterioration of the media. It is then crucial to characterize the evolution of the pressure drop under operating conditions in order to best design these equipments. Part of our work consisted in studying how the operating conditions influence the geometry of the deposit. To do so, we used Single-Photon Emission Computed Tomography (SPECT), a non-destructive imaging technique that keeps intact the particle structuring. The visualization of aerosol deposit at the beginning of the filtration process allows observing preferential particle deposition on the whole height of the pleat. A numerical approach was used to study the permeability of bimodal fibrous media and we experimentally studied the local velocity as well as the biphasic flow inside pleated filter media. Comparison between experiments and simulations allowed us to validate the Geodict code for a wide range of media properties and velocities. Regarding bimodal fibrous media, the fast data acquisition has allowed testing several existing models which resulted in classifying them in a unique way. If the experimental results on the initial deposition in pleated filters are encouraging, those related to beforehand clogging point to several improvements regarding the technique we used
13

Validation de la plate-forme de simulation GATE en Tomographie d'Emission Monophotonique et application au développement d'un algorithme de reconstruction 3D complète

Lazaro, Delphine 30 October 2003 (has links) (PDF)
Les simulations Monte-Carlo représentent actuellement en imagerie médicale nucléaire un outil puissant d'aide à la conception et à l'optimisation des détecteurs, et à l'évaluation des algorithmes de reconstruction et des méthodes de corrections des effets physiques. Parmi les nombreux simulateurs disponibles aujourd'hui, aucun n'est considéré comme standard en imagerie nucléaire, ce qui a motivé le développement d'une nouvelle plate-forme de simulation Monte-Carlo générique (GATE), basée sur GEANT4 et dédiée aux applications SPECT/PET. Au cours de cette thèse, nous avons participé au développement de la plate-forme GATE dans le cadre d'une collaboration internationale. Nous avons validé GATE en SPECT en modélisant deux gamma-caméras de conception différente, l'une dédiée à l'imagerie du petit animal et l'autre utilisée en routine clinique (Philips AXIS), et en comparant les résultats issus des simulations GATE avec les données acquises expérimentalement. Les résultats des simulations reproduisent avec précision les performances des deux gamma-caméras mesurées. La plate-forme GATE a ensuite été employée pour développer une nouvelle méthode de reconstruction 3D (F3DMC), consistant à calculer par simulation Monte-Carlo la matrice de transition utilisée dans un algorithme de reconstruction itératif (ici, ML-EM), en y incluant les principaux effets physiques perturbant le processus de formation de l'image. Les résultats de F3DMC sont comparés aux résultats obtenus avec trois autres méthodes de reconstruction plus classiques (FBP, MLEM, MLEMC) pour différents fantômes simulés. Les résultats de cette étude montrent que F3DMC permet d'améliorer l'efficacité de reconstruction, la résolution spatiale et le rapport signal-sur-bruit avec une quantification satisfaisante des images. Ces résultats devront être confirmés par des études cliniques et ouvrent la voie vers une méthode de reconstruction unifiée, pouvant être appliquée aussi bien en SPECT qu'en PET.
14

Optimisation et validation d'un algorithme de reconstruction 3D en tomographie d'émission monophotonique à l'aide de la plate forme de simulation GATE

El Bitar, Z. 05 December 2006 (has links) (PDF)
Les simulations de Monte-Carlo, bien que consommatrices en temps de calcul, restent un outil puissant qui permet d'évaluer les méthodes de correction des effets physiques en imagerie médicale.<br />Nous avons optimisé et validé une méthode de reconstruction baptisée F3DMC (Fully 3D Monte Carlo) dans laquelle les effets physiques perturbant le processus de formation de l'image en tomographie d'émission monophotonique sont modélisés par des méthodes de Monte-Carlo et intégrés dans la matrice-système. Le logiciel de simulation de Monte-Carlo utilisé est GATE. Nous avons validé GATE en SPECT en modélisant la gamma-caméra (Philips AXIS) utilisé en routine clinique. Des techniques de seuillage, filtrage par analyse en composantes principales et de reconstruction ciblée (régions fonctionnelles, régions hybrides) ont été testées pour améliorer la précision de la matrice-système et réduire le nombre de photons ainsi que le temps de calcul nécessaires. Les infrastructures de la grille EGEE ont été utilisées pour déployer les simulations GATE afin de réduire leur temps de calcul. Les résultats obtenus avec F3DMC sont comparés avec les méthodes de reconstruction (FBP, ML-EM, ML-EMC) pour un fantôme simulé et avec la méthode OSEM-C pour un fantôme réel. Les résultats de cette étude montrent que la méthode F3DMC ainsi que ses variantes permettent d'améliorer la restauration des rapports d'activité et le rapport signal sur bruit. L'utilisation de la grille de calcul EGEE a permis d'obtenir un gain de l'ordre de 300 en temps de calcul. Dans la suite, ces résultats doivent être confirmés par des études sur des fantômes complexes et des patients et ouvrent la voie vers une méthode de reconstruction unifiée, pouvant être appliquée aussi bien en SPECT qu'en PET.
15

La tomoscintigraphie pulmonaire de perfusion couplée à la tomodensitométrie en imagerie hybride dans le diagnostic de l'embolie pulmonaire comparaison à la scintigraphie pulmonaire planaire de ventilation /perfusion /

Revel, Cédric Marie, Pierre-Yves. January 2007 (has links) (PDF)
Reproduction de : Thèse d'exercice : Médecine : Nancy 1 : 2007. / Titre provenant de l'écran-titre.
16

Tomoscintigraphie de perfusion cérébrale dans l'épilepsie lobaire temporale pharmacorésistante comparaison des différentes méthodes d'analyse /

Ben Mahmoud, Sinan Marie, Pierre-Yves. January 2007 (has links) (PDF)
Reproduction de : Thèse d'exercice : Médecine : Nancy 1 : 2007. / Titre provenant de l'écran-titre.
17

Modélisation de photodétecteurs à base de matrices de diodes avalanche monophotoniques pour tomographie d'émission par positrons

Corbeil Therrien, Audrey January 2013 (has links)
La tomographie d'émission par positrons (TEP) est un outil précieux en recherche préclinique et pour le diagnostic médical. Cette technique permet d'obtenir une image quantitative de fonctions métaboliques spécifiques par la détection de photons d'annihilation. La détection des ces photons se fait à l'aide de deux composantes. D'abord, un scintillateur convertit l'énergie du photon 511 keV en photons du spectre visible. Ensuite, un photodétecteur convertit l'énergie lumineuse en signal électrique. Récemment, les photodiodes avalanche monophotoniques (PAMP) disposées en matrice suscitent beaucoup d'intérêt pour la TEP. Ces matrices forment des détecteurs sensibles, robustes, compacts et avec une résolution en temps hors pair. Ces qualités en font un photodétecteur prometteur pour la TEP, mais il faut optimiser les paramètres de la matrice et de l'électronique de lecture afin d'atteindre les performances optimales pour la TEP. L'optimisation de la matrice devient rapidement une opération difficile, car les différents paramètres interagissent de manière complexe avec les processus d'avalanche et de génération de bruit. Enfin, l'électronique de lecture pour les matrices de PAMP demeure encore rudimentaire et il serait profitable d'analyser différentes stratégies de lecture. Pour répondre à cette question, la solution la plus économique est d'utiliser un simulateur pour converger vers la configuration donnant les meilleures performances. Les travaux de ce mémoire présentent le développement d'un tel simulateur. Celui-ci modélise le comportement d'une matrice de PAMP en se basant sur les équations de physique des semiconducteurs et des modèles probabilistes. Il inclut les trois principales sources de bruit, soit le bruit thermique, les déclenchements intempestifs corrélés et la diaphonie optique. Le simulateur permet aussi de tester et de comparer de nouvelles approches pour l'électronique de lecture plus adaptées à ce type de détecteur. Au final, le simulateur vise à quantifier l'impact des paramètres du photodétecteur sur la résolution en énergie et la résolution en temps et ainsi optimiser les performances de la matrice de PAMP. Par exemple, l'augmentation du ratio de surface active améliore les performances, mais seulement jusqu'à un certain point. D'autres phénomènes liés à la surface active, comme le bruit thermique, provoquent une dégradation du résultat. Le simulateur nous permet de trouver un compromis entre ces deux extrêmes. Les simulations avec les paramètres initiaux démontrent une efficacité de détection de 16,7 %, une résolution en énergie de 14,2 % LMH et une résolution en temps de 0.478 ns LMH. Enfin, le simulateur proposé, bien qu'il vise une application en TEP, peut être adapté pour d'autres applications en modifiant la source de photons et en adaptant les objectifs de performances.
18

Conception, reconstruction et évaluation d'une géométrie de collimation multi-focale en tomographie d'émission monophotonique préclinique

Benoit, Didier 05 December 2013 (has links) (PDF)
La tomographie d'émission monophotonique (TEMP) dédiée au petit animal est une technique d'imagerie nucléaire qui joue un rôle important en imagerie moléculaire. Les systèmes TEMP, à l'aide de collimateurs pinholes ou multi-pinholes, peuvent atteindre des résolutions spatiales submillimétriques et une haute sensibilité pour un petit champ de vue, ce qui est particulièrement attractif pour imager des souris. Une géométrie de collimation originale a été proposée, dans le cadre d'un projet, appelé SIGAHRS, piloté par la société Biospace. Ce collimateur présente des longueurs focales qui varient spatialement dans le plan transaxial et qui sont fixes dans le plan axial. Une haute résolution spatiale est recherchée au centre du champ de vue, avec un grand champ de vue et une haute sensibilité. Grâce aux simulations Monte Carlo, dont nous pouvons maîtriser tous les paramètres, nous avons étudié cette collimation originale que nous avons positionnée par rapport à un collimateur parallèle et un collimateur monofocal convergent. Afin de générer des données efficacement, nous avons développé un module multi-CPU/GPU qui utilise une technique de lancer de rayons dans le collimateur et qui nous a permis de gagner un facteur ~ 60 en temps de calcul, tout en conservant ~ 90 % du signal, pour l'isotope ⁹⁹^mTc (émettant à 140,5 keV), comparé à une simulation Monte Carlo classique. Cependant, cette approche néglige la pénétration septale et la diffusion dans le collimateur. Les données simulées ont ensuite été reconstruites avec l'algorithme OSEM. Nous avons développé quatre méthodes de projection (une projection simple (S-RT), une projection avec volume d'intersection (S-RT-IV), une projection avec calcul de l'angle solide (S-RT-SA) et une projection tenant compte de la profondeur d'interaction (S-RT-SA-D)). Nous avons aussi modélisé une PSF dans l'espace image, anisotrope et non-stationnaire, en nous inspirant de la littérature existante. Nous avons étudié le conditionnement de la matrice système pour chaque projecteur et collimateur, et nous avons comparé les images reconstruites pour chacun des collimateurs et pour chacun des projecteurs. Nous avons montré que le collimateur original proposé est le système le moins bien conditionné. Nous avons aussi montré que la modélisation de la PSF dans l'image ainsi que de la profondeur d'intéraction améliorent la qualité des images reconstruites ainsi que le recouvrement de contraste. Cependant, ces méthodes introduisent des artefacts de bord. Comparé aux systèmes existants, nous montrons que ce nouveau collimateur a un grand champ de vue (~ 70 mm dans le plan transaxial), avec une résolution de 1,0 mm dans le meilleur des cas, mais qu'il a une sensibilité relativement faible (1,32x10⁻² %).
19

Conception d’un circuit de lecture à étampes temporelles multiples pour un photodétecteur destiné à la tomographie d’émission par positrons

Lemaire, William January 2018 (has links)
La médecine moderne fait usage de divers appareils pour faciliter le diagnostic et le traitement des maladies. Parmi ceux-ci, l’imagerie par tomographie d’émission par positrons (TEP) se démarque par sa capacité d’imager des processus biologiques spécifiques comme le métabolisme du glucose. Cette caractéristique permet de mettre en évidence des signes distinctifs des maladies comme le cancer à l’aide de radiotraceurs capables de cibler certaines cellules. Dans le but de favoriser de meilleurs diagnostics et de mener des recherches de pointe dans le domaine médical, la qualité des images produites par les appareils TEP doit être améliorée. Les avancées des dernières années ont permis d’améliorer la résolution spatiale des images jusqu’à pratiquement atteindre la limite théorique imposée par le déplacement du positron lors du processus de désintégration. Depuis, les travaux s’orientent plutôt vers l’amélioration du contraste de l’image en intégrant la mesure du temps de vol (TdV) dans l’algorithme de reconstruction. Le défi dans cette mesure réside dans la conception d’un photodétecteur avec une résolution temporelle suffisante pour localiser le lieu d’émission du radiotraceur entre deux détecteurs coïncidents. La plupart des photodétecteurs actuels utilisent un seuil sur le nombre de photons de scintillation observé pour déterminer le temps d’arrivée des photons d’annihilation dans le scintillateur. Cependant, plusieurs travaux ont démontré qu’une meilleure résolution temporelle est atteignable en pondérant adéquatement l’information temporelle numérisée de plusieurs photons de scintillation à la place de n’en considérer qu’un seul. Dans le but d’améliorer la résolution temporelle des photodétecteurs, l’utilisation d’un estimateur statistique combinant l’information de plusieurs photons de scintillation se révèle une méthode prometteuse en considérant les résultats théoriques. Cependant, une implémentation matérielle pouvant être intégrée à un appareil TEP reste à être démontrée. Les travaux de recherche présentés dans ce mémoire portent sur l’intégration d’un tel estimateur statistique à un photodétecteur pour la TEP. Ces travaux ont mené au développement d’une chaine d’acquisition qui comporte 1) un circuit de lecture, 2) une trieuse, 3) un filtre de bruit thermique et 4) un estimateur statistique du temps d’interaction basé sur le Best Linear Unbiased Estimator (BLUE). L’intégration de cette chaine à même le circuit intégré du photodétecteur de 1 x 1 mm2 en CMOS 65 nm permet de réduire la bande passante de 250 Mbit/s à 0,5 Mbit/s et le temps mort de 68,6 μs à 1024 ns. Des simulations démontrent l’atteinte d’une résolution temporelle qui s’approche de la limite inférieure théorique (appelée borne de Cramér-Rao) quant à la résolution temporelle atteignable par ce photodétecteur.
20

Conception, reconstruction et évaluation d'une géométrie de collimation multi-focale en tomographie d'émission monophotonique préclinique / Design, reconstruction and evaluation of multi-focal collimation in single photon emission computed tomography for small-animal imaging

Benoit, Didier 05 December 2013 (has links)
La tomographie d'émission monophotonique (TEMP) dédiée au petit animal est une technique d'imagerie nucléaire qui joue un rôle important en imagerie moléculaire. Les systèmes TEMP, à l'aide de collimateurs pinholes ou multi-pinholes, peuvent atteindre des résolutions spatiales submillimétriques et une haute sensibilité pour un petit champ de vue, ce qui est particulièrement attractif pour imager des souris. Une géométrie de collimation originale a été proposée, dans le cadre d'un projet, appelé SIGAHRS, piloté par la société Biospace. Ce collimateur présente des longueurs focales qui varient spatialement dans le plan transaxial et qui sont fixes dans le plan axial. Une haute résolution spatiale est recherchée au centre du champ de vue, avec un grand champ de vue et une haute sensibilité. Grâce aux simulations Monte Carlo, dont nous pouvons maîtriser tous les paramètres, nous avons étudié cette collimation originale que nous avons positionnée par rapport à un collimateur parallèle et un collimateur monofocal convergent. Afin de générer des données efficacement, nous avons développé un module multi-CPU/GPU qui utilise une technique de lancer de rayons dans le collimateur et qui nous a permis de gagner un facteur ~ 60 en temps de calcul, tout en conservant ~ 90 % du signal, pour l'isotope ⁹⁹^mTc (émettant à 140,5 keV), comparé à une simulation Monte Carlo classique. Cependant, cette approche néglige la pénétration septale et la diffusion dans le collimateur. Les données simulées ont ensuite été reconstruites avec l'algorithme OSEM. Nous avons développé quatre méthodes de projection (une projection simple (S-RT), une projection avec volume d'intersection (S-RT-IV), une projection avec calcul de l'angle solide (S-RT-SA) et une projection tenant compte de la profondeur d'interaction (S-RT-SA-D)). Nous avons aussi modélisé une PSF dans l'espace image, anisotrope et non-stationnaire, en nous inspirant de la littérature existante. Nous avons étudié le conditionnement de la matrice système pour chaque projecteur et collimateur, et nous avons comparé les images reconstruites pour chacun des collimateurs et pour chacun des projecteurs. Nous avons montré que le collimateur original proposé est le système le moins bien conditionné. Nous avons aussi montré que la modélisation de la PSF dans l'image ainsi que de la profondeur d'intéraction améliorent la qualité des images reconstruites ainsi que le recouvrement de contraste. Cependant, ces méthodes introduisent des artefacts de bord. Comparé aux systèmes existants, nous montrons que ce nouveau collimateur a un grand champ de vue (~ 70 mm dans le plan transaxial), avec une résolution de 1,0 mm dans le meilleur des cas, mais qu'il a une sensibilité relativement faible (1,32x10⁻² %). / Small animal single photon emission computed tomography (SPECT) is a nuclear medicine imaging technique that plays an important role in molecular imaging. SPECT systems using pinhole or multi-pinhole collimator can achieve submillimetric spatial resolution and high sensitivity in a small field of view, which is particularly appropriate for imaging mice. In our work, we studied a new collimator dedicated to small animal SPECT, in the context of a project called SIGAHRS, led by the Biospace company. In this collimator, focal lengths vary spatially in the transaxial plane and are fixed in the axial plane. This design aims at achieving high spatial resolution in the center of the field of view, with a large field of view and high sensitivity. Using Monte Carlo simulations, where all parameters can be controlled, we studied this new collimator geometry and compared it to a parallel collimator and a cone-beam collimator. To speed up the simulations, we developed a multi-CPU/GPU module that uses a technique of ray tracing. Using this approach, the acceleration factor was ~ 60 and we restored ~ 90 % of the signal for ⁹⁹^mTc (140.5 keV emission), compared to a classical Monte Carlo simulation. The 10 % difference is due to the fact that the multi-CPU/GPU module neglects the septal penetration and scatter in the collimator. We demonstrated that the data acquired with the new collimator could be reconstructed without artifact using an OSEM algorithm. We developed four forward projectors (simple projector (S-RT), projector accounting for the surface of the detecting pixel (S-RT-IV), projection modeling the solid angle (S-RT-SA) of the projection tube, and projector modeling the depth of interaction (S-RT-SA-D)). We also modeled the point spread function of the collimator in the image domain, using an anisotropic non-stationary function. To characterize the reconstruction, we studied the conditioning number of the system matrix for each projector and each collimator. We showed that the new collimator was more ill-conditioned than a parallel collimator or a cone-beam collimator. We showed that the image based PSF and the modeling of the depth of interaction improved the quality of the images, but edge artefacts were introduced when modeling the PSF in the image domain. Compared to existing systems, we showed that this new collimator has a large field of view (~ 70 mm in the transaxial plane) with a resolution of 1.0 mm in the best case but suffers from a relatively low sensitivity (1.32x10⁻² %).

Page generated in 0.0438 seconds