• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 523
  • 314
  • 129
  • 76
  • 51
  • 7
  • Tagged with
  • 1084
  • 470
  • 255
  • 195
  • 171
  • 149
  • 131
  • 126
  • 120
  • 116
  • 97
  • 90
  • 89
  • 87
  • 86
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
471

Optimisation et validation d'un algorithme de reconstruction 3D en tomographie d'émission monophotonique à l'aide de la plateforme de simulation GATE

El Bitar, Zihad 05 December 2006 (has links) (PDF)
Les simulations de Monte-Carlo, bien que consommatrices en temps de calcul, restent un outil puissant qui permet d'évaluer les méthodes de correction des effets physiques en imagerie médicale. Nous avons optimisé et validé une méthode de reconstruction baptisée F3DMC (Fully3D Monte CARLO) dans laquelle les effets physiques perturbant le processus de formation de l'image en tomographie d'émission monophotonique sont modélisés par des méthodes de Monte-Carlo et intégrés dans la matrice-système. Le logiciel de simulation de Monte-Carlo utilidé est GATE. Nous avons validé GATE en SPECT en modélisant la gamma-caméra (Philips AXIS) utilisé en routine clinique. Des techniques de seuillage, filtrage par analyse en composantes principales et de reconstruction ciblée (régions fonctionnelles, région hybrides) ont été testées pour améliorer la précision de la matrice-système et réduire le nombre de photons ainsi que le temps de calcul nécessaires. Les infrastructures de la grille EGEE ont été utilisées pour déployer les simulations GATE afin de réduire leur temps de calcul. Les résultats obtenus avec F3DMC sont comparés avec les méthodes de reconstruction (FBP,ML-EM,ML-EMC) pour un fantôme simulé et avec la méthode OSEM-C pour un fantôme réel. Les résultats de cette étude montrent que la méthode F3DMC ainsi que ses variantes permettent d'améliorer la restauration des rapports d'activité et le rapport signal sur bruit. L'utilisation de la grille de calcul EGEE a permis d'obtenir un gain de l'ordre de 300 en temps de calcul. Dans la suite, ces résultats doivent être confirmés par des études sur des fantômes complexes et des patients et ouvrent la voie vers une méthode de reconstruction unifiée, pouvant être appliquée aussi bien en SPECT qu'en PET.
472

Formation de caldera par fluage d'un système hydrothermal volcanique

Barde-Cabusson, Stéphanie 25 June 2007 (has links) (PDF)
L'influence d'un système hydrothermal au sein d'un édifice volcanique est un concept encore peu étudiée au regard de son importance pour la stabilité d'un volcan. Ce travail s'intéresse à la relation entre système hydrothermal et tectonique à travers l'étude des déformations engendrées dans un cône volcanique par le fluage de roches affectées par l'altération hydrothermale. La présence de ces argiles, ductiles à l'échelle de temps considérée, modifie profondément le comportement d'un édifice volcanique au cours de son évolution, pouvant conduire à la formation de grandes structures d'effondrement de type caldera. La confrontation de modèles analogiques avec la géologie et les données géophysiques nous permet de contraindre dans ce sens l'interprétation des structures d'effondrement observées par exemple sur Nuku Hiva (Polynésie française) et sur le Piton de la Fournaise (Ile de la Réunion). La modélisation analogique montre également que la formation du plancher plat d'une caldera peut être le résultat d'un processus syneffondrement, ne nécessitant pas de resurfaçage postérieur par érosion ou mise en place de nouveaux produits éruptifs. Les expériences nous permettent d'identifier la pente du cône et la diminution des contraintes latérales sur l'édifice comme les paramètres prépondérants à l'origine de la déformation. Les variations de ces paramètres sont déterminantes pour la morphologie de la caldera.
473

Méthodes d'automatisation de la détection des lésions vasculaires dans des images de tomodensitométrie

Zuluaga Valencia, Maria Alejandra 12 January 2011 (has links) (PDF)
Les travaux de cette thèse sont consacrés à la détection et le diagnostic des lésions vasculaires, particulièrement dans le cas la maladie coronaire. La maladie coronaire continue à être la première cause de mortalité dans les pays industrialisés. En général, l'identification des lésions vasculaires est abordée en essayant de modéliser les anormalités (lésions). Le principal inconvénient de cette approche est que les lésions sont très hétérogènes, ce qui rend difficile la détection de nouvelles lésions qui n'ont pas été prises en compte par le modèle. Dans cette thèse, nous proposons de ne pas modéliser directement les lésions, mais de supposer que les lésions sont des événements anormaux qui se manifestent comme points avec une faible densité de probabilité. Nous proposons l'utilisation de deux méthodes de classification basées sur les Machines à Vecteurs de Support (SVM) pour résoudre le problème de détection du niveau de densité. Le principal avantage de ces deux méthodes est que la phase d'apprentissage ne requiert pas de données étiquetées représentant les lésions. La première méthode est complètement non supervisée, alors que la seconde exige des étiquettes seulement pour les cas qu'on appelle sains ou normaux. L'utilisation des algorithmes de classification sélectionnés nécessite des descripteurs tels que les anomalies soient représentées comme des points avec une densité de probabilité faible. A cette fin, nous avons développé une métrique basée sur l'intensité de l'image, que nous avons appelée concentric rings. Cette métrique est sensible à la quasi-symétrie des profils d'intensité des vaisseaux sains, mais aussi aux écarts par rapport à cette symétrie, observés dans des cas pathologiques. De plus, nous avons sélectionné plusieurs autres descripteurs candidats à utiliser comme entrée pour les classifieurs. Des expériences sur des données synthétiques et des données de CT cardiaques démontrent que notre métrique a une bonne performance dans la détection d'anomalies, lorsqu'elle est utilisée avec les classifeurs retenus. Une combinaison de plusieurs descripteurs candidats avec la métrique concentric rings peut améliorer la performance de la détection. Nous avons défini un schéma non supervisé de sélection de descripteurs qui permet de déterminer un sous-ensemble optimal de descripteurs. Nous avons confronté les résultats de détection réalisée en utilisant le sous-ensemble de descripteurs sélectionné par notre méthode avec les performances obtenues avec des sous-ensembles sélectionnés par des méthodes supervisées existantes. Ces expériences montrent qu'une combinaison de descripteurs bien choisis améliore effectivement les performances des classifieurs et que les meilleurs résultats s'obtiennent avec le sous-ensemble sélectionné par notre méthode, en association avec les algorithmes de détection retenus. Finalement, nous proposons de réaliser un recalage local entre deux images représentant différentes phases du cycle cardiaque, afin de confronter les résultats de détection dans ces images (phases). L'objectif ici est non seulement d'attirer l'attention du praticien sur les anomalies détectées comme lésions potentielles, mais aussi de l'aider à conforter son diagnostic en visualisant automatiquement la même région reconstruite à différents instants du cycle cardiaque.
474

Mesures et états non-gaussiens en information quantique

Morin, Olivier 10 December 2013 (has links) (PDF)
Dans ce travail de thèse nous nous sommes intéressés à une catégorie spécifique d'états quantiques de la lumière : les états non-gaussiens. Ces états ont la particularité de présenter des fonctions de Wigner à valeurs négatives. Cette propriété est indispensable pour réaliser des opérations de calcul quantique mais trouve aussi des applications variées en communication quantique ou métrologie par exemple. Différentes stratégies peuvent être utilisées pour générer de tels états. Ici, les ressources initiales sont des états dit gaussiens produits par des oscillateurs paramétriques optiques en régime continu (i.e. vide comprimé bi-mode et mono-mode). Le caractère non-gaussien ne peut être obtenu que par des phénomènes non-linéaires (hamiltonien sur-quadratique). Dans notre cas, la non-linéarité est induite par des mesures basées sur le comptage de photon (aussi appelées mesures non-gaussiennes). Cette étude est principalement divisée en deux parties. Tout d'abord, la génération d'états non-classiques correspondants à deux types d'encodages de qubits : le photon unique, utilisé en information quantique dite à variables discrètes, et la superposition d'états cohérents (chat de Schrödinger optique), utilisée en information quantique dite à variables continues. Ces états ont ensuite été utilisés pour mettre en \oe{}uvre deux protocoles d'information quantique. Le premier porte sur un témoin d'intrication en photon unique, l'autre sur la génération d'intrication entre deux types d'encodages (aussi appelée intrication hybride).
475

Évaluation comportementale et imagerie d'un nouveau modèle murin de douleur cancéreuse osseuse et exploration du potentiel analgésique des agonistes des récepteurs neurotensinergiques dans ce modèle

Doré-Savard, Louis January 2012 (has links)
Une personne sur trois sera diagnostiquée d'un cancer au cours de sa vie. Malgré les progrès importants dans le développement de traitements anti-cancéreux, de nombreux défis restent à relever pour les scientifiques. Certains des cancers les plus fréquents (sein, prostate, poumon) produisent souvent des métastases osseuses lorsqu'ils atteignent un stade avancé. En plus d'être associées à un pronostic pauvre, ces métastases provoquent chez les patients des douleurs qui figurent parmi les plus difficiles à traiter. Notre étude visait à développer un modèle animal qui serait le plus représentatif possible de la réalité clinique et ce, afin d'évaluer le potentiel de nouveaux traitements anti-douleurs. Nous avons donc mis au point un modèle d'injection de cellules mammaires syngéniques dans le fémur du rat. La tumeur s’est développée sur une période de 3 semaines et sa progression a été suivie à l'aide d’une évaluation comportementale et de différentes techniques d’imagerie (pCT, IRM et TEP). Nous avons pu détecter l'apparition de douleur à l'aide de plusieurs tests comportementaux à partir du jour 14 après l'implantation des cellules tumorales. L'imagerie par résonance magnétique nous a cependant permis de détecter l'apparition d'une tumeur dans la moelle osseuse à partir du jour 8 et la tomodensitométrie a permis de suivre la progression de la dégradation osseuse à partir de ce stade précoce. L’utilisation de divers traceurs de l'activité métabolique tumorale et osseuse en TEP a également permis d'analyser les effets du développement de la tumeur sur l’environnement osseux. Le volume de la tumeur et l'état de dégradation de l'os extraits de la prise d'image ont été corrélés aux niveaux de douleur mesurés chez les animaux. La mise en place de ces outils ouvre la voie à une évaluation améliorée du potentiel de traitements analgésiques ou anticancéreux dans ce modèle. Nous avons donc amorcé une étude portant sur la neurotensine et ses récepteurs NTS1 et NTS2. Nous avons pu observer que l’injection intrathécale de plusieurs analogues de la neurotensine a un bon potentiel analgésique dans notre modèle. Ces analogues et d'autres qui seront testés dans l'avenir pourraient représenter une avenue intéressante pouvant servir de complément aux thérapies actuelles. [symboles non conformes]
476

Construction et expérimentation d'un scanner bimodal TEP/TDM combiné de résolution spatiale submillimétrique pour petits animaux

Bergeron, Mélanie January 2015 (has links)
Résumé : La tomographie d’émission par positrons (TEP) permet une imagerie fonctionnelle et moléculaire qui peut bénéficier de l’utilisation conjointe de la tomodensitométrie (TDM), d’abord pour fournir un support anatomique aux images TEP, mais aussi pour permettre une correction plus précise des images TEP. Les appareils existants sont composés de deux scanners juxtaposés nécessitant un déplacement du sujet entre les deux acquisitions, ce qui peut causer des artéfacts de mouvement dans l’image fusionnée TEP/TDM. De plus, le mode de fonctionnement des scanners TDM, basé sur l’intégration du flux de rayons X, délivre une dose de radiations relativement élevée qui peut interférer avec la réalisation d’études/protocoles d’imagerie longitudinales. La réalisation d’un appareil TEP/TDM partageant le même système de détection basé sur le détecteur LabPET II pourrait remédier à ces problèmes. Dans un premier temps, le module de détection LabPET II a été caractérisé pour la TEP et la TDM. Les premières études d’imagerie TDM avec ce détecteur ont aussi été conduites avec un simulateur. Ce travail a permis de déceler un phénomène de diaphonie optique au sein du module de détection. La recherche d’une solution à ce problème a motivé l’évaluation de nouveaux types de réflecteurs métallisés, donc plus opaques, pour en limiter les effets. Le signal relativement faible détecté en TDM a par la suite mené à explorer des scintillateurs alternatifs présentant un rendement lumineux supérieur. L’un de ces scintillateurs permettra d’améliorer sensiblement les performances du scanner LabPET I et pourrait être retenu pour la génération future de scanners LabPET II. || Abstract : Positron emission tomography (PET) provides functional and molecular imaging capabilities that can benefit from joint use with computed tomography (CT), first to provide anatomical support to PET images, but also to allow a more precise correction of PET images. Existing devices are composed of two back-to-back scanners which require displacing the subject between the two acquisitions, possibly causing motion artifacts in the fused PET/CT images. Moreover, the operation mode of CT scanners based on the X-ray signal integration delivers a relatively high radiation dose that can interfere with longitudinal imaging studies/protocols. The realization of a PET/CT scanner sharing the same detection system for both 511 keV and X-ray photons and based on the LabPET II could remedy these problems. As a first step, a characterization of the detection module LabPET II was performed in PET and CT mode. The first CT imaging studies with this detector were also conducted with a simulator. This work allowed identifying an optical crosstalk phenomenon in the detection module. The search for a solution to this problem has motivated the evaluation of new types of metallized, more opaque, reflectors to limit crosstalk effects. The relatively low signal detected in CT led us to explore alternative scintillators having a higher light output. One of these scintillators will significantly improve the performance of the LabPET I scanner and could be used for the next generation of LabPET II scanners.
477

Développement d’outils quantitatifs pour le suivi par imagerie TEP/TDM de la réponse à la chimiothérapie et de sa toxicité

Croteau, Étienne January 2011 (has links)
L’objectif de ce projet de doctorat est de développer des outils quantitatifs pour le suivi des traitements de chimiothérapie pour le cancer du sein et de leurs effets cardiotoxiques à l’aide de l’imagerie TEP dynamique. L’analyse cinétique en TEP dynamique permet l’évaluation de paramètres biologiques in vivo. Cette analyse peut être utilisé pour caractériser la réponse tumorale à la chimiothérapie et les effets secondaires néfastes qui peuvent en résulter. Le premier article de cette thèse décrit la mise au point des techniques d’analyse cinétique qui utilisent la fonction d’entrée d’un radiotraceur dérivé de l’image dynamique. Des corrections de contamination radioactive externe (épanchement) et de l’effet de volume partiel ont été nécessaires pour standardiser l’analyse cinétique et la rendre quantitative. Le deuxième article porte sur l’évaluation d’un nouveau radiotraceur myocardique. Le [indice supérieur 11]C-acétoacétate, un nouveau radiotraceur basé sur un corps cétonique, a été comparé au [indice supérieur 11]C-acétate, couramment utilisé en imagerie cardiaque TEP. L’utilisation de [indice supérieur 3]H-acétate et [indice supérieur 14]C-acétoacétate ont permis d’élucider la cinétique de ces traceurs depuis la fonction d’entrée et la captation par les mitochondries cardiaques qui reflète la consommation en oxygène, jusqu’à la libération de leurs principaux métabolites réciproques ([indice supérieur 3]H[indice inférieur 2]O et [indice supérieur 14]CO[indice inférieur 2]). Le troisième et dernier article de cette thèse présente l’intégration d’un modèle qui évalue la réserve cardiaque de perfusion et de consommation en oxygène. Un modèle de cardiomyopathie a été établi à l’aide d’un agent chimiothérapeutique contre le cancer du sein, la doxorubicine, reconnu comme étant cardiotoxique. Un protocole de repos/effort a permis d’évaluer la capacité d’augmentation de perfusion et de consommation en oxygène par le coeur. La démonstration d’une réserve cardiaque réduite caractérise la cardiotoxicité. La dernière contribution de cette thèse porte sur la mise au point de méthodes peu invasives pour mesurer la fonction d’entrée en modèle animal avec l’utilisation de l’artère caudale et un compteur microvolumétrique, la bi-modalité TEP/IRM dynamique avec le Gd-DTPA et l’établissement d’un modèle d’évaluation simultané de cardiotoxicité et réponse tumorale chez la souris. Le développement d’outils d’analyse TEP dans l’évaluation de la cardiotoxicité lors de traitements du cancer du sein permet de mieux comprendre la relation entre les dommages mitochondriaux et la diminution de la fraction d’éjection.
478

Compensation du mouvement respiratoire dans les images TEP/TDM thoraciques / Respiratory motion compensation in thoracic PET/CT images

Ouksili, Zehor 26 May 2010 (has links)
Cette thèse traite du mouvement respiratoire dans l'imagerie TEP/TDM. L'imagerie TEP est une modalité à exposition longue très influencée par les mouvements involontaires du patient. Ces mouvements produisent des artéfacts dont les conséquences sont sérieuses pour le diagnostic car les tumeurs paraissent plus larges et moins actives. Cette thèse contribue à la résolution de ce problème. En plus de proposer l'architecture d'un système d'acquisition TEP/TDM synchronisée à la respiration, on y développe trois méthodes de traitement de signal et d'images qui peuvent être appliquées pour résoudre différents sous-problèmes: Une méthode originale de segmentation et caractérisation du signal respiratoire pour découvrir les patterns respiratoires "normaux" du patient, une méthode de reconstruction TDM-4D qui permet d'obtenir des images anatomiques du corps à chaque niveau respiratoire désiré et un algorithme itératif amélioré pour reconstruire des images TEP-4D compensées en mouvement respiratoire. Toutes ces méthodes et algorithmes ont été validés et testés sur des données simulées, des données de fantômes, et des données réelles de patients. / This thesis deals with respiratory motion in PET/CT images. It is well known that PET is a modality that requires a long exposure time. During this time, patients moves and breath. These motions produce undesirable artefacts that alter seriously the images and their precision. This has important consequences when diagnosing thoracic, and particularly pulmonary, cancer. Tumours appear larger than they really are and their activity is weaker. This thesis proposes to contribute to solving these problems.We propose the architecture of an integrated PET/CT acquisition system synchronized to respiration. We also develop signal and image processing methods that can be applied to eliminating respiratory artefacts in CT and PET images. The thesis brings three main contributions : An original respiratory signal segmentation and characterization to detect "normal" respiratory patterns, a 4D-CT reconstruction method that creates 3D images of the whole body for any respiratory level and an enhanced iterative algorithm for reconstructing 4D-PET images without respiratory artefacts. The developed methods have validated and tested on simulated, phantom and real patients' data.
479

Analyse morphologique et homogénéisation numérique : application à la pâte de ciment / Morphological analysis and numerical homogenization : application to cement pastes

Brisard, Sébastien 05 January 2011 (has links)
La popularité des schémas d'homogénéisation classiques, basés sur la solution d'Eshelby du problème de l'inhomogénéité, tient à leur robustesse (des contrastes infinis entre les raideurs des différentes phases sont permis) et leur adaptabilité (les problèmes linéaires aussi bien que non-linéaires peuvent être abordés), la complexité des calculs mis en jeu restant limitée. Le fait qu'ils ne prennent en compte de façon quantitative qu'une quantité restreinte d'informations morphologiques constitue leur principale faiblesse. Ainsi, des problèmes tels que l'influence de la distribution de taille des pores ou l'orientation locale d'inclusions anisotropes leur sont inaccessibles. A l'heure actuelle, seuls de longs calculs complets (par éléments finis/de frontière) permettent d'aborder ces questions. L'objet de ce travail est de mettre au point de nouvelles méthodes d'homogénéisation, de mise en oe uvre plus légère que les éléments finis/de frontière, tout en rendant compte de plus de détails de la microstructure que les techniques basées sur la solution d'Eshelby. Le principe variationnel de Hashin et Shtrikman fournit le cadre mathématique rigoureux dans lequel sont développées deux méthodes. La méthode des inclusions polarisées, tout d'abord, dont le but est le calcul de milieux hétérogènes constitués d'inclusions, plongées dans une matrice homogène. Pour un calcul complet d'une microstructure donnée, il est connu que les méthodes numériques d'homogénéisation par transformée de Fourier rapide (FFT) sont de sérieux compétiteurs des méthodes d'éléments finis/de frontière. Le principe de Hashin et Shtrikman permet de jeter un éclairage nouveau sur ces techniques, et un schéma numérique original d'homogénéisation par FFT est proposé dans un second temps ; il s'avère plus rapide et plus robuste que les schémas existants. L'industrie du ciment pourrait certainement tirer parti de tels schémas d'homogénéisation avancés, puisqu'il est connu que les propriétés macroscopiques des pâtes de ciment dépendent fortement des détails les plus fins (à l'échelle sub-micronique) du réseau poreux (dans la phase CSH{}). Une partie de ce travail est consacrée à la caractérisation de ce réseau à l'aide de deux techniques expérimentales : la diffusion des rayons X aux petits angles, et la microscopie X. L'accent a été placé sur l'interprétation emph{quantitative} de ces expériences, en vue d'améliorer les prédictions des estimations des propriétés mécaniques macroscopiques. Une connexion est établie entre ces deux approches. Cette tentative, encore perfectible, montre que les modèles classiques du CSH{} ne peuvent rendre compte de ces données expérimentales / Classical homogenization schemes, based on the solution to Eshelby's inhomogeneity problem, draw their popularity from the fact that they are both robust (even infinite contrast of the mechanical phases is allowed) and versatile (linear- as well as non-linear mechanical problems can be addressed), while the computations involved are very limited. Their flaw lies in the fact that they incorporate very little morphological information: problems such as the influence of the pore-size distribution, or the local orientation of anisotropic inclusions is out of their reach. Presently, only lengthy full-field calculations (FEM, BEM) can address such issues. The aim of this work is to devise new homogenization techniques, which are not as computationally involved as FEM or BEM calculations, while capturing more details of the microstructure than Eshelby-based techniques. Two methods are developed within the framework of the variational principle of Hashin and Shtrikman, which provides sound mathematical ground. The polarized inclusion method, on the one hand, aims to address composites with inclusions embedded in a homogeneous matrix. On the other hand, FFT-based homogenization techniques are known to alleviate the burden of a full-field calculation carried out with FEM or BEM. With the help of the Hashin and Shtrikman principle, new light is shed on these techniques, and a new, faster and more robust, FFT-based scheme is proposed. The cement industry would certainly benefit from such advanced homogenization schemes, since the macroscopic properties of cement pastes are known to heavily rely on the finest details (at sub-micron length-scales) of the porous network (within the CSH{} phase). Part of this work is devoted to the characterization of this network using two experimental techniques, namely small-angle X-ray scattering and tomography with soft X-ray microscopy. Attempts are made at quantifying the microstructure of CSH{}, in order to improve the estimates of its mechanical properties. A link between these two approaches is established. This attempt, perfectible, shows that popular models for CSH{} cannot account for these experimental data
480

Optimisation de l’extraction de lumière de scintillation dans les matrices de détecteurs pixellisés pour des applications en tomographie d’émission par positrons (TEP) et en tomodensitométrie (TDM) / Optimization of the extraction of scintillation light in pixelated detector arrays for applications in positron emission tomography (PET) and computed tomography (CT)

Loignon-Houle, Francis January 2016 (has links)
Résumé : Les performances de détecteurs à scintillation, composés d’un cristal scintillateur couplé à un photodétecteur, dépendent de façon critique de l’efficacité de la collecte et de l’extraction des photons de scintillation du cristal vers le capteur. Dans les systèmes d’imagerie hautement pixellisés (e.g. TEP, TDM), les scintillateurs doivent être arrangés en matrices compactes avec des facteurs de forme défavorables pour le transport des photons, au détriment des performances du détecteur. Le but du projet est d’optimiser les performances de ces détecteurs pixels par l'identification des sources de pertes de lumière liées aux caractéristiques spectrales, spatiales et angulaires des photons de scintillation incidents sur les faces des scintillateurs. De telles informations acquises par simulation Monte Carlo permettent une pondération adéquate pour l'évaluation de gains atteignables par des méthodes de structuration du scintillateur visant à une extraction de lumière améliorée vers le photodétecteur. Un plan factoriel a permis d'évaluer la magnitude de paramètres affectant la collecte de lumière, notamment l'absorption des matériaux adhésifs assurant l'intégrité matricielle des cristaux ainsi que la performance optique de réflecteurs, tous deux ayant un impact considérable sur le rendement lumineux. D'ailleurs, un réflecteur abondamment utilisé en raison de ses performances optiques exceptionnelles a été caractérisé dans des conditions davantage réalistes par rapport à une immersion dans l'air, où sa réflectivité est toujours rapportée. Une importante perte de réflectivité lorsqu'il est inséré au sein de matrices de scintillateurs a été mise en évidence par simulations puis confirmée expérimentalement. Ceci explique donc les hauts taux de diaphonie observés en plus d'ouvrir la voie à des méthodes d'assemblage en matrices limitant ou tirant profit, selon les applications, de cette transparence insoupçonnée. / Abstract : The performance of scintillation detectors, made up of a scintillating crystal coupled to a photodetector, critically depends on the collection and extraction efficiency of scintillation photons from the crystal by the sensor. In highly pixelated imaging systems (e.g. PET, CT), scintillators must be arranged in compact arrays with form factors detrimental to light transport, deteriorating the detector performance. The goal of the study was to optimize the pixelated detectors performance by identifying the light loss sources related to the spectral, spatial and angular characteristics of the scintillation photons impinging on scintillators faces. Such information acquired by Monte Carlo simulations enables adequate weighting for the evaluation of achievable gains through structuring of the scintillators for enhanced light extraction to the photodetector. The magnitude of parameters affecting the light collection in arrays, such as adhesive materials absorption and reflector opacity that both have high impact on light output, was evaluated through a factorial design. A frequently used reflector because of its outstanding optical performance was characterized in more realistic conditions compared to air immersion in which its reflectivity is always reported. An important reflectivity quenching of the reflector in optically bonded scintillator arrays was discovered by simulation and confirmed experimentally. This explains the high light crosstalk measured in pixelated arrays as well as paving the way to assembling methods limiting or taking advantage, depending on the application, of this unsuspected transparency.

Page generated in 0.0408 seconds