• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 178
  • 65
  • 19
  • Tagged with
  • 263
  • 106
  • 97
  • 50
  • 48
  • 44
  • 38
  • 33
  • 32
  • 29
  • 27
  • 27
  • 26
  • 23
  • 23
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
191

étude de réactions et d'états isobariques analogues dans le système 8He+p, à basse énergie, à l'aide de la cible active MAYA

DEMONCHY, Charles-Edouard 15 December 2003 (has links) (PDF)
Les dévellopements récents des faisceaux exotiques, et en particulier avec le dispositif SPIRAL du GANIL, nous ont permis d'initier l'étude, dans l'9He, de l'inversion de couches déjà observée dans les isotone N=7, pour le 11Be et le 10Li. Une partie du travail est consacré à l'étude et au développement d'un détecteur servant aussi de cible (cible active) appelé MAYA, ainsi qu'au développement des outils informatiques nécessaires à son exploitation. l'9He a été étudier par la détermination des propriétés de ses états isobariques analogues (IAS) dans le 9Li. Les caractéristiques de ces états IAS sont obtenues par l'analyse des résonances dans les sections efficaces de diffusion élastique, du système 8He+p entre 2 et 3.9 MeV/n. Une étude rapide des réaction (p,d) et (p,t) est aussi présenté. Cette étude a permis, par la comparaison des résultats expérimentaux et des calculs de diffusion potentielle avec résonances, une assignation de spin et parité pour deux états de l'9He.
192

Discrimination d'événements par analyse des signaux enregistrés par le projet PICASSO

Archambault, Simon 07 1900 (has links)
La matière sombre est un mystère dans le domaine de l’astrophysique depuis déjà plusieurs années. De nombreuses observations montrent que jusqu’à 85 % de la masse gravitationnelle totale de l’univers serait composée de cette matière de nature inconnue. Une théorie expliquant cette masse manquante considérerait les WIMPs (Weakly Interacting Massive Particles), particules stables, non chargées, prédites par des extensions du modèle standard, comme candidats. Le projet PICASSO (Projet d’Identification des CAndidats Supersymétriques à la matière Sombre) est une expérience qui tente de détecter directement le WIMP. Le projet utilise des détecteurs à gouttelettes de fréon (C4F10) surchauffées. La collision entre un WIMP et le noyau de fluor crée un recul nucléaire qui cause à son tour une transition de phase de la gouttelette liquide à une bulle gazeuse. Le bruit de ce phénomène est alors capté par des senseurs piézoélectriques montés sur les parois des détecteurs. Le WIMP n’est cependant pas la seule particule pouvant causer une telle transition de phase. D’autres particules environnantes peuvent former des bulles, telles les particules alpha où même des rayons gamma . Le système d’acquisition de données (DAQ) est aussi en proie à du bruit électronique qui peut être enregistré, ainsi que sensible à du bruit acoustique extérieur au détecteur. Finalement, des fractures dans le polymère qui tient les gouttelettes en place peut également causer des transitions de phase spontanées. Il faut donc minimiser l’impact de tous ces différents bruit de fond. La pureté du matériel utilisé dans la fabrication des détecteurs devient alors très importante. On fait aussi appel à des méthodes qui impliquent l’utilisation de variables de discrimination développées dans le but d’améliorer les limites d’exclusion de détection du WIMP. / Dark matter has been a mystery for astrophysicists for years now. Numerous observations have shown that up to 85 % of the gravitation mass of the universe is made of this unknown type of matter. One of the theories explaining this missing mass problem considers WIMPs (Weakly Interacting Massive Particles), neutral stable particles predicted by extensions of the standard model, as possible candidates. The PICASSO experiment (Project In Canada to Search for Supersymetric Objects) tries to detect this particle directly. The technique uses superheated droplet detectors, with freon (C4F10) as the active medium. When a WIMP hits the fluorine nucleus, it creates a nuclear recoil, which in turn triggers a phase transition from a liquid droplet to a gaseous bubble. The acoustic noise of this event is then recorded by piezoelectric transducers mounted on the walls of the detector. There are however other particles than the WIMPs that can trigger this phase transition. Alpha particles, or even gamma rays can create bubbles. The Data Acquisition System (DAQ) is also subject to electronic noise that can be picked up, and to acoustic noise coming from an exterior source. Fractures in the polymer holding the droplets in place can also trigger spontaneous phase transitions. There is therefore a need to minimize the impact of these background noises. The level of purity of the ingredients used in detector fabrication then becomes very important. Digital processing methods are also used to develop discrimination variables that improve the limits of detection of the WIMP.
193

Étude des collisions proton-proton dans l’expérience ATLAS avec les détecteurs ATLAS-MPX

Scallon, Olivia 05 1900 (has links)
Les seize détecteurs MPX constituant le réseau ATLAS-MPX ont été placés à différentes positions dans le détecteur ATLAS et sa averne au CERN dans le but de mesurer en emps réel les champs de radiation produits ar des particules primaires (protons des faisceaux) et des particules secondaires (kaons, pions, g, protons) issues des collisions proton-proton. Des films de polyéthylène (PE) et de fluorure de lithium (6LiF) recouvrent les détecteurs afin d’augmenter leur sensibilité aux neutrons produits par les particules primaires et secondaires interagissant avec les matériaux présents dans l’environnement d’ATLAS. La reconnaissance des traces laissées par les particules dans un détecteur ATLAS-MPX se fait à partir des algorithmes du logiciel MAFalda (“Medipix Analysis Framework”) basé sur les librairies et le logiciel d’analyse de données ROOT. Une étude sur le taux d’identifications erronées et le chevauchement d’amas a été faite en reconstruisant les activités des sources 106Ru et 137Cs. L’efficacité de détection des neutrons rapides a été mesurée à l’aide des sources 252Cf et 241AmBe (neutrons d’énergie moyenne de 2.13 et 4.08 MeV respectivement). La moyenne des efficacités de détection mesurées pour les neutrons produits par les sources 252C f et 241AmBe a été calculée pour les convertisseurs 6LiF et PE et donnent (0.8580 ± 0.1490)% et (0.0254 ± 0.0031)% pour LiF et (0.0510 ± 0.0061)% et (0.0591 ± 0.0063)% pour PE à bas et à haut seuil d’énergie respectivement. Une simulation du calcul de l’efficacité de détection des neutrons dans le détecteur MPX a été réalisée avec le logiciel GEANT4. Des données MPX correspondant aux collisions proton-proton à 2.4 TeV et à 7 TeV dans le centre de masse ont été analysées. Les flux détectés d’électrons et de photons sont particulièrement élevés dans les détecteurs MPX01 et MPX14 car ils sont plus près du point de collision. Des flux de neutrons ont été estimés en utilisant les efficacités de détection mesurées. Une corrélation avec la luminosité du LHC a été établie et on prédit que pour les collisions à 14 TeV dans le centre de masse et avec une luminosité de 10^34 cm-1*s-1 il y aura environ 5.1x10^8 ± 1.5x10^7 et 1.6x10^9 ± 6.3x10^7 particules détectées par les détecteurs MPX01 et MPX14 respectivement. / The sixteen detectors forming the ATLAS-MPX network have been placed in different positions inside the ATLAS detector and its cavern at CERN in order to measure, in real time, the radiation fields produced by primary particles (beam protons) and secondary particles (kaons, pions, photons, protons) resulting from the proton-proton collisions. Films of polyethylene (PE) and lithium fluoride (6LiF) cover the detectors so as to increase their sensitivity to neutrons produced by the primary and secondary particles interacting with the materials present in the ATLAS environment. The tracks identification in an ATLAS-MPX detector is obtained with the algorithms of the MAFalda software (Medipix Analysis Framework) based on the libraries and data-analysis software ROOT. A study on the mistag rate and blob overlap was made by reconstructing the activities of 106Ru and 137Cs sources. The fast neutron detection efficiency was measured with the help of 252C f and 241AmBe sources (neutrons with an average energy of 2.13 and 4.08 MeV, respectively). The detection efficiency measured for neutrons produced by 252Cf et 241AmBe sources was calculated for the 6LiF and PE converters. It averaged at low and high energy respectively (0.8580 ± 0.1490)% and (0.0254 ± 0.0031)% for LiF and (0.0510 ± 0.0061)% and (0.0591 ± 0.0063)% for PE. A simulation of the neutron detection efficiency calculation in the MPX detector was carried out with the GEANT4 software. MPX data corresponding to the proton-proton collisions at 2.4 TeV and 7 TeV at the center of mass were analyzed. The detected flux of electrons and photons are particularly high in the MPX01 and MPX14 detectors because they are closer to the point of collision. Fluxes of neutrons were estimated using the measured detection efficiencies. A correlation with the luminosity of the LHC was established. We predict that for 14 TeV collisions at the center of mass, with a luminosity of 1034 cm^2*s^1, the number of particle detected by MPX01 and MPX14 respectively will be about 5.1x10^8 ± 1.5x10^7 and 1.6x10^9 ± 6.3x10^7.
194

Analyse des données et étude systématique de la réponse des détecteurs dans le cadre du projet PICASSO

Giroux, Guillaume January 2008 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
195

Nouvelles limites sur la détection directe de la matière sombre avec l’expérience PICASSO

Piro, Marie-Cécile 06 1900 (has links)
Les observations astronomiques et cosmologiques suggèrent fortement la présence d’une matière exotique, non-relativiste et non-baryonique qui représenterait 26% du contenu de masse-énergie de l’Univers actuel. Cette matière dite sombre et froide serait compo- sée de particules neutres, massives et interagissant faiblement avec la matière ordinaire (WIMP : Weakly Interactive Massive Particles). Le projet PICASSO (Projet d’Identification des CAndidats Supersymétriques de la matière SOmbre) est une des expériences installées dans le site souterrain de SNOLAB à Sudbury en Ontario, qui tente de détecter directement un des candidats de la matière sombre, proposé dans le cadre des extensions supersymétriques du modèle standard : le neutralino. Pour cela, PICASSO utilise des détecteurs à gouttelettes surchauffées de C4F10, basés sur le principe de la chambre à bulles. Les transitions de phase dans les liquides surchauffés peuvent être déclenchées par le recul du 19 F, causé par une collision élastique avec les neutralinos. La nucléation de la gouttelette génère une onde sonore enregistrée par des senseurs piézo-électriques. Cette thèse présentera les récents progrès de l’expérience PICASSO qui ont conduit à une augmentation substantielle de sa sensibilité dans la recherche du neutralino. En effet, de nouvelles procédures de fabrication et de purification ont permis de réduire à un facteur de 10, la contamination majeure des détecteurs, causée par les émetteurs alpha. L’étude de cette contamination dans les détecteurs a permis de localiser la source de ces émetteurs. Les efforts effectués dans le cadre de l’analyse des données, ont permis d’améliorer l’effet de discrimination entre des évènements engendrés par les particules alpha et par les reculs nucléaires. De nouveaux outils d’analyse ont également été implémentés dans le but de discriminer les évènements générés par des particules de ceux générés par des bruits de fond électroniques ou acoustiques. De plus, un mécanisme important de suppression de bruit de fond indésirable à haute température, a permis à l’expérience PICASSO d’être maintenant sensible aux WIMPs de faibles masses. / Astronomical and cosmological observations strongly suggest the presence of an exotic form of non-relativistic, non-baryonic matter that would represent 26% of the actual energy-matter content of the Universe. This so-called cold dark matter would be composed of Weakly Interactive Massive Particles (WIMP). PICASSO (Project In CAnada to Search for Supersymmetric Objects) aims to detect directly one of the dark matter candidates proposed in the framework of supersymmetric extensions of the standard model : the neutralino. The experiment is installed in the SNOLAB underground laboratory at Sudbury (Ontario) and uses superheated C4F10 droplets detectors, a variant of bubble chamber technique. Phase transitions in the superheated liquids are triggered by 19 F recoils caused by the elastic collision with neutralinos and create an acoustic signal which is recorded by piezoelectric sensors. This thesis presents recent progress in PICASSO leading to a substantially increased sensitivity in the search of neutralinos. New fabrication and purification procedures allowed a background reduction of about a factor 10 of the major detectors contamination caused by alpha emitters. Detailed studies allowed to localize these emitters in the detectors. In addition, data analysis efforts were able to improve substantially the discrimination between alpha particle induced events and those created by nuclear recoils. New analysis tools were also developed in order to discriminate between particle induced and non-particle induced events, such as electronic backgrounds and acoustic noise signals. An important new background suppression mechanism at higher temperatures led to the present improved sensitivity of PICASSO at low WIMP masses.
196

Réduction du bruit de fond en vue de la détection de la matière sombre avec le projet PICASSO

Di Marco, Marie January 2004 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
197

Contribution to learning and decision making under uncertainty for Cognitive Radio. / Contribution à l’apprentissage et à la prise de décision, dans des contextes d’incertitude, pour la radio intelligente

Jouini, Wassim 15 June 2012 (has links)
L’allocation des ressources spectrales à des services de communications sans fil, sans cesse plus nombreux et plus gourmands, a récemment mené la communauté radio à vouloir remettre en question la stratégie de répartition des bandes de fréquences imposée depuis plus d’un siècle. En effet une étude rendue publique en 2002 par la commission fédérale des communications aux Etats-Unis (Federal Communications Commission - FCC) mit en évidence une pénurie des ressources spectrales dans une large bande de fréquences comprise entre quelques mégahertz à plusieurs gigahertz. Cependant, cette même étude expliqua cette pénurie par une allocation statique des ressources aux différents services demandeurs plutôt que par une saturation des bandes de fréquences. Cette explication fut par la suite corroborée par de nombreuses mesures d’occupation spectrale, réalisées dans plusieurs pays, qui montrèrent une forte sous-utilisation des bandes de fréquences en fonction du temps et de l’espace, représentant par conséquent autant d’opportunité spectrale inexploitée. Ces constations donnèrent naissance à un domaine en plein effervescence connu sous le nom d’Accès Opportuniste au Spectre (Opportunistic Spectrum Access). Nos travaux suggèrent l’étude de mécanismes d’apprentissage pour la radio intelligente (Cognitive Radio) dans le cadre de l’Accès Opportuniste au Spectre (AOS) afin de permettre à des équipements radio d’exploiter ces opportunités de manière autonome. Pour cela, nous montrons que les problématiques d’AOS peuvent être fidèlement représentées par des modèles d’apprentissage par renforcement. Ainsi, l’équipement radio est modélisé par un agent intelligent capable d’interagir avec son environnement afin d’en collecter des informations. Ces dernières servent à reconnaître, au fur et à mesure des expériences, les meilleurs choix (bandes de fréquences, configurations, etc.) qui s’offrent au système de communication. Nous nous intéressons au modèle particulier des bandits manchots (Multi-Armed Bandit appliqué à l’AOS). Nous discutons, lors d’une phase préliminaire, différentes solutions empruntées au domaine de l’apprentissage machine (Machine Learning). Ensuite, nous élargissons ces résultats à des cadres adaptés à la radio intelligente. Notamment, nous évaluons les performances de ces algorithmes dans le cas de réseaux d’équipements qui collaborent en prenant en compte, dans le modèle suggéré, les erreurs d’observations. On montre de plus que ces algorithmes n’ont pas besoin de connaître la fréquence des erreurs d’observation afin de converger. La vitesse de convergence dépend néanmoins de ces fréquences. Dans un second temps nous concevons un nouvel algorithme d’apprentissage destiné à répondre à des problèmes d’exploitation des ressources spectrales dans des conditions dites de fading. Tous ces travaux présupposent néanmoins la capacité de l’équipement intelligent à détecter efficacement l’activité d’autres utilisateurs sur la bande (utilisateurs prioritaires dits utilisateurs primaires). La principale difficulté réside dans le fait que l’équipement intelligent ne suppose aucune connaissance a priori sur son environnement (niveau du bruit notamment) ou sur les utilisateurs primaires. Afin de lever le doute sur l’efficacité de l’approche suggérée, nous analysons l’impact de ces incertitudes sur le détecteur d’énergie. Ce dernier prend donc le rôle d’observateur et envoie ses observations aux algorithmes d’apprentissage. Nous montrons ainsi qu’il est possible de quantifier les performances de ce détecteur dans des conditions d’incertitude sur le niveau du bruit ce qui le rend utilisable dans le contexte de la radio intelligente. Par conséquent, les algorithmes d’apprentissage utilisés pourront exploiter les résultats du détecteur malgré l’incertitude inhérente liée à l’environnement considéré et aux hypothèses (sévères) d’incertitude liées au problème analysé. / During the last century, most of the meaningful frequency bands were licensed to emerging wireless applications. Because of the static model of frequency allocation, the growing number of spectrum demanding services led to a spectrum scarcity. However, recently, series of measurements on the spectrum utilization showed that the different frequency bands were underutilized (sometimes even unoccupied) and thus that the scarcity of the spectrum resource is virtual and only due to the static allocation of the different bands to specific wireless services. Moreover, the underutilization of the spectrum resource varies on different scales in time and space offering many opportunities to an unlicensed user or network to access the spectrum. Cognitive Radio (CR) and Opportunistic Spectrum Access (OSA) were introduced as possible solutions to alleviate the spectrum scarcity issue.In this dissertation, we aim at enabling CR equipments to exploit autonomously communication opportunities found in their vicinity. For that purpose, we suggest decision making mechanisms designed and/or adapted to answer CR related problems in general, and more specifically, OSA related scenarios. Thus, we argue that OSA scenarios can be modeled as Multi-Armed Bandit (MAB) problems. As a matter of fact, within OSA contexts, CR equipments are assumed to have no prior knowledge on their environment. Acquiring the necessary information relies on a sequential interaction between the CR equipment and its environment. Finally, the CR equipment is modeled as a cognitive agent whose purpose is to learn while providing an improving service to its user. Thus, firstly we analyze the performance of UCB1 algorithm when dealing with OSA problems with imperfect sensing. More specifically, we show that UCB1 can efficiently cope with sensing errors. We prove its convergence to the optimal channel and quantify its loss of performance compared to the case with perfect sensing. Secondly, we combine UCB1 algorithm with collaborative and coordination mechanism to model a secondary network (i.e. several SUs). We show that within this complex scenario, a coordinated learning mechanism can lead to efficient secondary networks. These scenarios assume that a SU can efficiently detect incumbent users’ activity while having no prior knowledge on their characteristics. Usually, energy detection is suggested as a possible approach to handle such task. Unfortunately, energy detection in known to perform poorly when dealing with uncertainty. Consequently, we ventured in this Ph.D. to revisit the problem of energy detection limits under uncertainty. We present new results on its performances as well as its limits when the noise level is uncertain and the uncertainty is modeled by a log-normal distribution (as suggested by Alexander Sonnenschein and Philip M. Fishman in 1992). Within OSA contexts, we address a final problem where a sensor aims at quantifying the quality of a channel in fading environments. In such contexts, UCB1 algorithms seem to fail. Consequently, we designed a new algorithm called Multiplicative UCB (UCB) and prove its convergence. Moreover, we prove that MUCB algorithms are order optimal (i.e., the order of their learning rate is optimal). This last work provides a contribution that goes beyond CR and OSA. As a matter of fact, MUCB algorithms are introduced and solved within a general MAB framework.
198

Etude de la tomographie à comptage de rayons X avec des pixels hybrides en Si et en CdTe et application au suivi longitudinal du carcinome hépatocellulaire chez la souris / Study of X-ray photon counting with Si and CdTe hybrid pixels and application to longitudinal monitoring of hepatocellular carcinoma in mice

Portal, Loriane 29 October 2018 (has links)
Ma thèse de doctorat s’inscrit à l’interface entre la physique expérimentale et la biologie. Ce travail a été développé au sein de l’équipe imXgam du CPPM, qui a construit un prototype de micro-tomographie pour le suivi non-invasif du petit animal, équipé d’une caméra à pixels hybrides XPAD3 fonctionnant en mode comptage de rayons X. Le comptage de rayons X rendu possible par la technologie des pixels hybrides, permet de s’affranchir du bruit électronique et d’augmenter ainsi la détectabilité des tissus faiblement contrastés. Elle présente de plus la capacité d'appliquer à chaque pixel un seuil de détection en énergie permettant d’accéder à l’information spectrale des rayons X détectés et ouvre la voie au développement d’une méthode d’imagerie spectrale dite au K-edge, qui permet de différencier des agents de contraste particuliers. La caméra XPAD3 développée avec un capteur en Si présente une efficacité de détection qui limite son utilisation pour l’imagerie du vivant. Une caméra XPAD3 avec une meilleure efficacité au delà de 25 keV a été assemblée avec des capteurs en CdTe. Dans un premier temps, nous avons effectué une comparaison des caméras XPAD3/Si et XPAD3/CdTe en imagerie d’absorption standard et en imagerie au K-edge. Nous avons ensuite, en collaboration avec des biologistes de l’IBDM, assuré le suivi quantitatif et in vivo sur plusieurs mois, du développement de tumeurs hépatiques chez un modèle spécifique de souris et de l’efficacité d’un traitement ciblant les cellules tumorales. Enfin, nous avons développé un protocole d’acquisition spectrale à faible dose pour réaliser une tomographie spectrale in vivo d’un foie de souris en exploitant le K-edge du baryum. / My PhD thesis is at the interface between experimental physics and biology. This work has been developed within the imXgam team at CPPM, which has built a micro-computed tomography prototype for the non-invasive longitudinal monitoring of small animal, equipped with the XPAD3 hybrid pixel camera that operates in X-ray photon counting mode. X-ray photon counting that has been made possible by hybrid pixels, allows to free images from the electronic noise and thus to increase detectability of weakly contrasted tissues. Moreover, it provides the possibility to set an energy threshold for each pixel that allows to accessing spectral information on the detected X-rays and paving the way to the development of a spectral imaging modality also named K-edge imaging, which allows to differentiate selected contrast agents. Actually, the XPAD3 camera developed with a Si sensor presents a low detective efficiency that limits its use for biomedical imaging. A XPAD3 camera with a better efficiency above 25 keV has been assembled with high-Z CdTe sensors. Firstly, we have performed a comparison of XPAD3/Si and XPAD3/CdTe cameras for standard absorption CT and K-edge imaging. Then, in collaboration with a team of biologists from IBDM, we have carried out the quantitative and in vivo follow-up of hepatic tumour development in a specific mouse model over several months, and of the effectiveness of a treatment targeting these tumour cells. Finally, we have developed a protocol for low dose acquisition of spectral data to realize an in vivo spectral tomography of a mouse liver using the barium spectral signature.
199

Étude des détecteurs planaires pixels durcis aux radiations pour la mise à jour du détecteur de vertex d'ATLAS / Study of planar pixel sensors hardened to radiations for the upgrade of the ATLAS vertex detector

Benoit, Mathieu 10 June 2011 (has links)
Le Large Hadron Collider (LHC), située au CERN, Genève, produit des collisions de protons accélérés à une énergie de 3.5 TeV depuis le 23 Novembre 2009. L’expérience ATLAS enregistre depuis des données et poursuit sa recherche de nouvelle physique à travers l’analyse de la cinématique des événements issues des collisions. L’augmentation prévue de la luminosité sur la période s’étalant de 2011 2020 apportera de nouveaux défis pour le détecteur qui doivent être considérés pour maintenir les bonnes performance de la configuration actuelle. Le détecteur interne sera le sous-détecteur le plus affecté par l’augmentation de la luminosité qui se traduira par une augmentation des dommages occasionnés par la forte radiation et par la multiplication du nombre de traces associées à chaque croisement de faisceau. Les dommages causés par l’irradiation intense entrainera une perte d’efficacité de détection et une réduction du nombre de canaux actifs. Un intense effort de Recherche et Développement (R&D) est présentement en cours pour concevoir un nouveau détecteur pixel plus tolérant aux radiations et au cumul des événements générant un grand nombre de traces à reconstruire. Un premier projet de mise-à-jour du détecteur interne, nommé Insertable B-Layer (IBL) consiste à ajouter un couche de détection entre le tube à vide du faisceau et la première couche de silicium. Le projet SLHC prévoit de remplacer l’ensemble du détecteur interne par une version améliorée plus tolérante aux radiations et aux cumuls des événements. Dans cet ouvrage, je présente une étude utilisant la simulation technologique assisté par ordinateur (TCAD) portant sur les méthodes de conception des détecteurs pixels planaires permettant de réduire les zones inactives des détecteurs et d’augmenter leurs tolérances aux radiations. Les différents modèles physiques disponible ont étés étudiés pour développer un modèle cohérent capablede prédire le fonctionnement des détecteurs pixels planaires après irradiation. La structure d’anneaux de gardes utilisée dans le détecteur interne actuel a été étudié pour obtenir de l’information sur les possible méthodes permettant de réduire l’étendu de la surface occupée par cette structure tout en conservant un fonctionnement stable tout au long de la vie du détecteur dans l’expérience ATLAS. Une campagne de mesures sur des structures pixels fut organisée pour comparer les résultats obtenue grâce à la simulation avec le comportement des structures réelles. Les paramètres de fabrication ainsi que le comportement électrique ont été mesurés et comparés aux simulations pour valider et calibrer le modèle de simulation TCAD. Un modèle a été développé pour expliquer la collection de charge excessive observée dans les détecteurs planaires en silicium lors de leur exposition a une dose extrême de radiations. Finalement, un modèle simple de digitalisation à utiliser pour la simulation de performances détecteurs pixels individuels exposés à des faisceau de haute énergie ou bien de l’ensemble du détecteur interne est présenté. Ce modèle simple permets la comparaison entre les données obtenue en faisceau test aux modèle de transport de charge inclut dans ladigitalisation. Le dommage dû à la radiation , l’amincissement et l’utilisation de structures à bords minces sont autant de structures dont les effets sur la collecte de charges affectent les performance du détecteur. Le modèle de digititalisation fut validé pour un détecteur non-irradié en comparant les résultats obtenues avec les données acquises en test faisceau de haut énergie. Le modèle validé sera utilisé pour produire la première simulation de l’IBL incluant les effets d’amincissement du substrat, de dommages dûes aux radiations et de structure dotés de bords fins. / In this work, is presented a study, using TCAD simulation, of the possible methods of designing of a planar pixel sensors by reducing their inactive area and improving their radiation hardness for use in the Insertable B-Layer (IBL) project and for SLHC upgrade phase for the ATLAS experiment. Different physical models available have been studied to develop a coherent model of radiation damage in silicon that can be used to predict silicon pixel sensor behavior after exposure to radiation. The Multi-Guard Ring Structure,a protection structure used in pixel sensor design was studied to obtain guidelines for the reduction of inactive edges detrimental to detector operation while keeping a good sensor behavior through its lifetime in the ATLAS detector. A campaign of measurement of the sensor’s process parameters and electrical behavior to validate and calibrate the TCAD simulation models and results are also presented. A model for diode charge collection in highly irradiated environment was developed to explain the high charge collection observed in highly irradiated devices. A simple planar pixel sensor digitization model to be used in test beam and full detector system is detailed. It allows for easy comparison between experimental data and prediction by the various radiation damage models available. The digitizer has been validated using test beam data for unirradiated sensors and can be used to produce the first full scale simulation of the ATLAS detector with the IBL that include sensor effects such as slim edge and thinning of the sensor.
200

Quantitative material decomposition methods for X-ray spectral CT / Méthodes de décomposition quantitative des matériaux pour la tomographie spectrale aux rayons X

Su, Ting 28 June 2018 (has links)
La tomographie (CT) aux rayons X joue un rôle important dans l'imagerie non invasive depuis son introduction. Au cours des dernières années, de nombreuses avancées technologiques en tomographie par rayons X ont été observées, notamment la CT spectrale, qui utilise un détecteur à comptage de photons (PCD) pour discriminer les photons transmis correspondant à des bandes d'énergie sélectionnées afin d'obtenir une information spectrale. La CT spectrale permet de surmonter de nombreuses limitations des techniques précédentes et ouvre de nombreuses applications nouvelles, parmi lesquelles la décomposition quantitative des matériaux est le sujet le plus étudié. Un certain nombre de méthodes de décomposition des matériaux ont été rapportées et différents systèmes expérimentaux sont en cours de développement pour la CT spectrale. Selon le type de données sur lequel l'étape de décomposition fonctionne, nous avons les méthodes du domaine des projections (décomposition avant reconstruction) et les méthodes du domaine de l'image reconstruite (décomposition après reconstruction). La décomposition couramment utilisée est basée sur le critère des moindres carrés, nommée proj-LS et méthode ima-LS. Cependant, le problème inverse de la décomposition du matériau est généralement mal posé et les mesures du CT spectral aux rayons X souffrent de bruits de comptage de photons de Poisson. Le critère des moindres carrés peut conduire à un surajustement des données de mesure bruitées. Dans le présent travail, nous avons proposé un critère de moindre log-carré pour la méthode du domaine de projection afin de minimiser les erreurs sur le coefficient d'atténuation linéaire: méthode proj-LLS. De plus, pour réduire l'effet du bruit et lisser les images, nous avons proposé d'ajouter un terme de régularisation par patch pour pénaliser la somme des variations au carré dans chaque zone pour les décompositions des deux domaines, nommées proj-PR-LLS et ima -PR-LS méthode. Les performances des différentes méthodes ont été évaluées par des études de simulation avec des fantômes spécifiques pour différentes applications: (1) Application médicale: identification de l'iode et du calcium. Les résultats de la décomposition des méthodes proposées montrent que le calcium et l'iode peuvent être bien séparés et quantifiés par rapport aux tissus mous. (2) Application industrielle: tri des plastiques avec ou sans retardateur de flamme. Les résultats montrent que 3 types de matériaux ABS avec différents retardateurs de flamme peuvent être séparés lorsque l'épaisseur de l'échantillon est favorable. Enfin, nous avons simulé l'imagerie par CT spectrale avec un fantôme de PMMA rempli de solutions de Fe, Ca et K. Différents paramètres d'acquisition, c'est-à-dire le facteur d'exposition et le nombre de bandes d'énergie, ont été simulés pour étudier leur influence sur la performance de décomposition pour la détermination du fer. / X-ray computed tomography (X-ray CT) plays an important part in non-invasive imaging since its introduction. During the past few years, numerous technological advances in X-ray CT have been observed, including spectral CT, which uses photon counting detectors (PCDs) to discriminate transmitted photons corresponding to selected energy bins in order to obtain spectral information with one single acquisition. Spectral CT enables us to overcome many limitations of the conventional CT techniques and opens up many new application possibilities, among which quantitative material decomposition is the hottest topic. A number of material decomposition methods have been reported and different experimental systems are under development for spectral CT. According to the type of data on which the decomposition step operates, we have projection domain method (decomposition before reconstruction) and image domain method (decomposition after reconstruction). The commonly used decomposition is based on least square criterion, named proj-LS and ima-LS method. However, the inverse problem of material decomposition is usually ill-posed and the X-ray spectral CT measurements suffer from Poisson photon counting noise. The standard LS criterion can lead to overfitting to the noisy measurement data. In the present work, we have proposed a least log-squares criterion for projection domain method to minimize the errors on linear attenuation coefficient: proj-LLS method. Furthermore, to reduce the effect of noise and enforce smoothness, we have proposed to add a patchwise regularization term to penalize the sum of the square variations within each patch for both projection domain and image domain decomposition, named proj-PR-LLS and ima-PR-LS method. The performances of the different methods were evaluated by spectral CT simulation studies with specific phantoms for different applications: (1) Medical application: iodine and calcium identification. The decomposition results of the proposed methods show that calcium and iodine can be well separated and quantified from soft tissues. (2) Industrial application: ABS-flame retardants (FR) plastic sorting. Results show that 3 kinds of ABS materials with different flame retardants can be separated when the sample thickness is favorable. Meanwhile, we simulated spectral CT imaging with a PMMA phantom filled with Fe, Ca and K solutions. Different acquisition parameters, i.e. exposure factor and number of energy bins were simulated to investigate their influence on the performance of the proposed methods for iron determination.

Page generated in 0.3353 seconds