Spelling suggestions: "subject:"laphysique dess articules"" "subject:"laphysique dess d’articules""
101 |
Développement de détecteur gazeux à micropistes pour le trajectographe de l'expérience CMS et mesures de rapports d'embranchement de désintégrations hadroniques du méson B dans l'expérience BaBarZghiche, A. 22 January 2007 (has links) (PDF)
Les détecteurs gazeux à micropistes (MSGC) ont fait l'objet d'un vaste programme de recherche et développement dans le but de les qualifier pour équiper le trajectographe de l'expérience Compact Muon Solenoid (CMS) installée sur l'un des 4 points d'interaction du collisionneur proton proton de 14 TeV: le Large Hadron Collider (LHC) en construction au CERN. Les points étudiés les plus critiques pour que les MSGC et leurs variantes telles que les grilles de multiplication d'électrons (GEM) fonctionnent dans l'environnement difficile du LHC sont: la tenue aux flux de particules très ionisantes, le vieillissement dû aux radiations ainsi que la rapidité du signal pour un déclenchement à 40 MHz. Les paramètres importants pour l'optimisation du gain de ces détecteurs sont le mélange de gaz, la résistivité des substrats qui constituent le support des détecteurs et le métal des pistes. L'étude de ces paramètres a permis de définir le détecteur gazeux qui assure une stabilité de fonctionnement avec un gain constant pendant dix ans de collisions LHC. Il se compose de deux étages de multiplication d'électrons dans le gaz (amplification), associant un détecteur MSGC à un détecteur GEM. <br /> L'expérience BaBar, installée sur l'anneau PEP II à SLAC, a été conçue pour étudier la violation de CP dans le système des mésons B. Les premières collisions e+ e- ont été enregistrées en mai 1999. En août 2006, la luminosité intégrée enregistrée par l'expérience s'élevait à plus de 390 fb-1 dont 350 fb-1 à la résonance Y(4S) correspondant à plus de 385 millions de désintégrations e+ e- -> Y(4S)->BB. Dès les conférences de l'été 2001, la collaboration BaBar avait pu présenter la première observation significative de la violation de CP dans le secteur des B. Avec l'accumulation des données, la précision statistique de cette mesure s'est améliorée de plus qu'un facteur 4 et la précision systématique de près d'un facteur 3. Le grand nombre de désintégrations BB permet aussi de construire un échantillon de données où un premier méson B est totalement reconstruit. Les paramètres du second B sont alors calculés à partir de ceux des faisceaux et du premier B. Grâce à cet échantillon, la détermination du nombre de charme moyen (le nombre de quarks c produits dans les désintégrations des mésons B) avec les mesures inclusives des désintégrations des mésons B- et B0 en mésons D et Ds et baryons charmés Λc a pu être effectuée séparément pour les mésons B chargés et neutres en s'affranchissant d'un grand nombre d'hypothèses ainsi que des erreurs systématiques qui en découlent. Avec le même échantillon de données, la mesure des rapports d'embranchement des modes B- ->D0(* , **)pi - et B 0->D+(* , **)pi- a été effectuée avec une méthode originale dans BaBar, celle de la masse manquante. Dans le système du second B, les rapports d'embranchement ont été mesurés en calculant la masse manquante au pi -, qui est le module du quadrivecteur impulsion manquant (les quadrivecteurs impulsion du Y(4S), du premier méson B et du pi- étant déterminés). Ceci a permis d'améliorer la précision de la mesure en réduisant la contribution des incertitudes systématiques. Cette mesure ainsi que la mesure du taux de charme permettent respectivement de contraindre l'hypothèse de la factorisation dans les calculs de la Heavy Quark Effective Theory (HQET), et les paramètres de la chromodynamique quantique (QCD), tels que le rapport des masses des quarks et l'échelle de renormalisation.
|
102 |
Mesure de la section efficace de production de quarks top en paires dans le canal lepton+jets à D0 et à ATLAS et interprétation en terme de boson de Higgs chargé dans ATLAS.Chevallier, Florent 10 May 2007 (has links) (PDF)
La mise en évidence de nouvelle physique est l'un des enjeux des expériences auprès des grands collisionneurs TeVatron et LHC. Le quark top se place dans ce contexte de recherche. Des mesures de couplages et de propriétés du quark top non conformes aux prédictions théoriques seraient les premiers effets indirects d'une physique non décrite par le Modèle Standard.<br /><br />Le travail décrit dans cette thèse porte sur l'étude de la section efficace de production de quarks top par interaction forte au sein des deux collaborations D0 et ATLAS.<br /><br />Mon travail à D0 a tout d'abord consisté en l'amélioration de la reconstruction des électrons de faible impulsion au sein de jets. Ce nouvel algorithme peut désormais être utilisé pour identifier les jets de quarks b, produits dans les événements top-antitop recherchés. Ce travail s'est poursuivi par une analyse de mesure de la section efficace de production de paires de quarks top, avec 420 pb-1 de données de l'expérience D0. Les résultats de cette analyse sont en accord avec les prédictions du Modèle Standard.<br /><br />Dans l'expérience ATLAS, mon travail a consisté à élaborer une procédure de sélection des événements top-antitop, en adaptant les connaissances et les techniques issues de l'expérience D0 à l'environnement plus exigeant des collisions du LHC. Cette analyse a permis d'identifier les sources d'incertitudes qui auront un impact sur la mesure. Pour une année de fonctionnement du détecteur à basse luminosité, cette section efficace pourrait être mesurée avec une précision de quelques pourcents. Cette sensibilité permettrait de déceler des signes de nouvelle physique. La phénoménologie des événements top-antitop est modifiée par la présence de bosons de Higgs chargés apparaissant dans des modèles standard non minimaux. L'analyse effectuée dans ce nouveau cadre théorique a ainsi montré qu'une découverte serait possible pour certaines régions de l'espace des paramètres.
|
103 |
Mesure de la section efficace de production de paires de quarks top dans le canal tau+jets dans l'expérience CMS auprès du LHCFerro, Cristina 14 May 2012 (has links) (PDF)
Cette thèse a pour sujet la mesure de la section efficace de production de paires de quarks top-antitop dans l'expérience CMS auprès du LHC. L'état final considéré est le canal semi-leptonique "tau+jets". Un boson W issu de la désintégration du quark top se désintègre en un tau hadronique et neutrino tandis que le second boson W se désintègre en une paire quark-antiquark. La conduite de cette analyse a nécessité le développement d'un nouveau mode de déclenchement des données (trigger) incluant la présence de quatre jets dont un identifié en tant que tau hadronique. La configuration de ce trigger ainsi que son efficacité ont été étudiés dans cette thèse. Un échantillon de données correspondant à 3.9 fb−1 a été enregistré avec ce trigger et analysé. Les leptons taus ont été reconstruits grâce à un algorithme identifiant leurs résonances intermédiaires tandis que les jets de quarks beaux issus de la désintégration des quarks tops ont été identifiés grâce à l'algorithme "probabilité par jet". Cet algorithme pour lequel j'ai mis en oeuvre une procédure de calibration depuis 2009 utilise le paramètre d'impact des traces de particules chargées pour calculer leur probabilité de venir du vertex primaire. Des études de performance de cet algorithme sont également présentées dans cette thèse. Afin de séparer le signal de l'important bruit de fond majoritairement constitué des processus multijets QCD et W+jets un réseau de neurones utilisant des variables dites d'environnement (aplanarité, HT, M(τ,jets), énergie transverse manquante...) a été développé. La section efficace a été extraite à l'aide d'un ajustement par méthode du maximum de vraisemblance de la sortie du réseau de neurones. Les incertitudes systématiques ont fait l'objet d'une étude détaillée. La valeur de la section efficace mesurée, σ(top-antitop) = 156 ± 12 (stat.) ± 33 (syst.) ± 3 (lumi) pb, est en accord avec la section efficace prédite par le modèle standard.
|
104 |
Mesure de la section efficace de production de paires de quarks top dans le canal tau+jets dans l'expérience CMS auprès du LHC / Measurement of the tt production cross section in the tau+jets channel in pp collisions at √S=7TeV [sqrt(S)=7TeV]Ferro, Cristina 14 May 2012 (has links)
Cette thèse a pour sujet la mesure de la section efficace de production de paires de quarks top-antitop dans l’expérience CMS auprès du LHC. L’état final considéré est le canal semi-leptonique ”tau+jets”. Un boson W issu de la désintégration du quark top se désintègre en un tau hadronique et neutrino tandis que le second boson W se désintègre en une paire quark-antiquark. La conduite de cette analyse a nécessité le développement d’un nouveau mode de déclenchement des données (trigger) incluant la présence de quatre jets dont un identifié en tant que tau hadronique. La configuration de ce trigger ainsi que son efficacité ont été étudiés dans cette thèse. Un échantillon de données correspondant à 3.9 fb−1 a été enregistré avec ce trigger et analysé. Les leptons taus ont été reconstruits grâce à un algorithme identifiant leurs résonances intermédiaires tandis que les jets de quarks beaux issus de la désintégration des quarks tops ont été identifiés grâce à l’algorithme ”probabilité par jet”. Cet algorithme pour lequel j’ai mis en oeuvre une procédure de calibration depuis 2009 utilise le paramètre d’impact des traces de particules chargées pour calculer leur probabilité de venir du vertex primaire. Des études de performance de cet algorithme sont également présentées dans cette thèse. Afin de séparer le signal de l’important bruit de fond majoritairement constitué des processus multijets QCD et W+jets un réseau de neurones utilisant des variables dites d’environnement (aplanarité, HT, M(τ,jets), énergie transverse manquante...) a été développé. La section efficace a été extraite à l’aide d’un ajustement par méthode du maximum de vraisemblance de la sortie du réseau de neurones. Les incertitudes systématiques ont fait l’objet d’une étude détaillée. La valeur de la section efficace mesurée, σ(top-antitop) = 156 ± 12 (stat.) ± 33 (syst.) ± 3 (lumi) pb, est en accord avec la section efficace prédite par le modèle standard. / In this thesis we present the first measurement in the CMS experiment of the top-antitop production cross section in the tau+jets final state. To perform this measurement we designed a specific trigger requiring the presence of four jets, one of them being identified as an hadronic tau. The performance of this trigger has been studied in this thesis. A dataset of 3.9 fb-1 was collected with this trigger and analyzed. At offline level we needed to apply a sophisticated tau identification technique to identify the tau jets, based on the reconstruction of the intermediate resonances of the hadronic tau decay modes. Another crucial point was the b-jet identification, both to identify the b-jets in the final state and to modelize the background using a data driven technique. The studies done on the b-tag algorithms along the PhD period are also presented with particular attention to the ”Jet Probability” algorithm. It is the algorithm for which I performed the calibration since 2009 as well as the one used to tag the b-jets from the top decays. A neural network has been developed to separate the top-antitop events from the W+jets and multijet backgrounds. A binned likelihood fit to the neural network output distribution is done in order to extract the signal contribution from the background. A detailed estimation of the systematic uncertainties on the cross section measurement is also presented. The result for the cross section measurement, σ(tt) = 156 ± 12 (stat.) ± 33 (syst.) ± 3 (lumi) pb, is in perfect agreement with the standard model expectation.
|
105 |
Conception d'un ADC de résolution 8 bits basse consommation et 2 GHz de fréquence d'échantillonnage en technologie CMOS 180 nm / Design of an 8 bit low power 2 GHz sampling rate ADC on 180 nm CMOS processPuech, Gabriel 20 December 2017 (has links)
Après un rappel du contexte dans lequel ce travail de recherche a été conduit, le 1er chapitre présente les caractéristiques communes aux convertisseurs analogiques numériques (ADC) avec leurs figures de mérites. Un état de l’art exhaustif sur les ADC réalisés et plus particulièrement avec le nœud technologique CMOS 1 180 nm y est présenté. Ce travail préliminaire permet de donner un aperçu du défi relevé. Les architectures multi-étapes à échantillonnage analogique ont été éliminées de l’étude du fait des limitations de la technologie pour les contraintes de performances de l’ADC. Le chapitre 2 présente plus en détail les différentes implémentations possibles d’une famille d’ADC à échantillonnage numérique, les flash. Le portage de l’architecture TIQ est détaillé dans ce chapitre. Le chapitre 3 détaille l’étude et le portage en CMOS 180 nm des ADC à échantillonnage numérique à repliement de signal. Cette première partie conclut par le choix de l’architecture flash. La conception des briques de bases de l’ADC flash est détaillée dans les chapitres constituant la partie II du document. Le chapitre 4 est dédié à l’étude et au portage en CMOS 180 nm des étages de comparateurs latchés responsables de l’échantillonnage à 2 GHz de l’ADC flash. La non linéarité ramenée en entrée de l’architecture retenue ayant défini les contraintes sur l’étage de pré-amplification, celui ci est présenté dans le chapitre 5. Le chapitre 5, présente les différentes charges actives étudiées pour l’étage de pré-amplification. Le passage en différentiel passif avec le comparateur full différentiel et l’architecture retenue y sont détaillés. La technique du QV et son portage sur l’architecture de préamplificateur retenu sont présentés. Le décodeur thermométrique 2 binaire est présenté dans le chapitre 6. Deux implémentations de cette logique de décodage sont étudiées et portées. L’une est réalisée à partir d’un code de description matériel (VHDL) et la synthèse de cellules numériques en logique CMOS pull-up pull-down 3 . L’autre est réalisé à partir de multiplexeurs 1 bit et des flip flop à verrou en logique Pass gates complémentaire. Le chapitre 7 présente les limitations et l’implémentation de l’interpolation avec l’emploi des pré-amplificateurs et du comparateur latché retenus. L’étude de l’insertion de paires de suiveurs en drain commun, nécessaire à la polarisation des étages de pré-amplification y est présentée. Enfin, les analyses de tirage de Monte Carlo en mismatch 4 des résistances comme échelle de références sont comparées pour différents dimensionnements et topologies. Le synoptique global de l’ADC est présenté avec les cellules et techniques retenues. L’approche bottom-up incontournable pour la conception de circuits analogiques ou full custom présentée dans cette deuxième partie conclut sur le choix de concevoir un ASIC de preuve de concept. Ce dernier contient ainsi les briques de bases ayant une valeur ajoutée et potentiellement critiques pour la conversion de signaux. L’approche Top-down pour la conception est ainsi détaillée dans la 3e partie en partant du synoptique global de l’ASIC de preuve de concept envoyé en fonderie de circuit multi projet BuBlC1. contenant les cellules critiques à tester. La conception front-end de l’ASIC BuBlC1 avec notamment l’arbre d’horloge et les pads d’entrées sorties est présentée dans le chapitre 8. La phase de back-end avec les layouts des cellules retenues dans la partie II ainsi que leur intégration dans des ensembles (clusters) est présentée dans le chapitre 9 avec le padring et l’intégration finale des macro-ensembles (Cores analogiques et numériques). / After a a brief recall of the context this research work have been carried, the 1st chapter present the common analog to digital converters (ADC) characteristics with their figures of merit (FoM). A relevant state of the art on realized ADC architectures is presented. A particular emphasis has been done on 180 nm CMOS process node. This preliminary work gives a pertinent overview of the faced challenge. Multi step analog sampling architectures have been avoided from the study because of the transistors limited frequency performances. Chapter 2 presents the different implementations of the Flash digital sampling ADC family architecture. The TIQ architecture embedding in the 180 nm CMOS process are detailed in this chapter. Chapter 3 details the study and the design of an other digital sampling ADC family architecture on 180 nm CMOS process i.e. the signal folding architecture. This 1st part of the document conclude with the choice of the Flash ADC architecture. The building bloc design for this ADC are detailed in the following chapters constituting the part II. Chapter 4 is dedicated to the study and the design on 180 nm CMOS process of the latch comparator responsible of the 2 GHz sampling constraint of the overall ADC. As the retained comparator architecture input refereed non linearity defined the gain constraints of the preamplifier stage, the preamplifier is presented in the next chapter. Chapter 5 present the different characteristics and techniques of the quantifier stage. The comparator preamplifier stage with its different actives loads, its passive full differential transposition and the retained architecture are detailed. The QV technique and its embedding in the retained preamplifier architecture are presented. The thermometric 1 to binary encoder tree is presented in chapter 6. Two implementations of this encoding are studied and design on the Front-End (FE) level. The 1st one is a pipelined Wallace tree realized with a register transfer level (RTL) code on VHDL hardware description language. The synthesis flow on CMOS pull-up pull-down 2 combinatorial logic and rising edge flip flops are used for this architecture. The other architecture is designed using 1 bits multiplexers combinatorial pipelined with pass gated D latches with a full custom schematic implementation. Chapter 7 presents the limitations and the embedding of the interpolation with the retained preamplifier and comparator latch. The study of common drain source follower (CDSF) pairs insertion, mandatory for the biasing of the preamplifier input stage to reach the 8 bits resolution is studied with details. Finally, Monte Carlo sampling mismatch 3 analysis on the resistor references are studied by comparing different topologies and sizing. The overall ADC synoptic is presented with the retained cells and techniques. The bottom-up design approach, mandatory for analog and full-custom design, exposed in this 2nd part conclude on the choice to design a proof of concept ASIC (BuBlC1) including all the critical piece of circuits of the overall ADC with added value and potentially critical for signal conversion. The top-down approach for this ASIC design is detailed in the IIIrd part with the overall ASIC synoptic of the BuBlC1 ASIC sent to multi project wafer (MPW) foundry run integrating all the critical cells.The FE design of this ASIC with its clock tree and its input/output PAD are presented in chapter 8. The Back-End design with the retained cells layout in part II with the cells integration in clusters are presented in chapter 9 with the pad-ring and final integration in digital and analog macro-cells cores.
|
106 |
Exploration of 6-dimensional models with non trivial topology and their predictions for fermions masses and mixings, neutrino physics, flavour changing interactions and CP violationMollet, Simon 08 June 2016 (has links)
In this thesis, we study several scenarios which go beyond the Standard Model of particle physics with the aim of gaining a better understanding for the multiplication of fermion families, their masses and mixings pattern and its relation to CP violation. The common feature of the models we envisaged (and the guiding principle of the thesis) is the introduction of extra space dimensions. In a first attempt to explain the fermion mass structure, we elaborate on a model with two extra-dimensions and a Nielsen- Olesen vortex background established on it. In this framework, three families in 4D can be seen as different modes of a single generation in 6D, while their extra-dimensional wavefunctions turn out highly constrained by the dynamics, which allows to determined the mass matrices with few parameters. Moreover, with a few additional hypotheses only, it is possible to simultaneously account for the striking differences between neutrinos and charged fermions. After a summary of the model, we illustrate this with the explicit formulation of a benchmark model which reproduces convincingly all the mass and mixing parameters of the Standard Model, taking advantage of new, more precise numerical solutions of the field equations, and including the recent measurements of the Standard Model scalar boson mass and of the neutrino heta_13 mixing angle (the latter has however been correctly predicted by the model before its first measurement). We then turn to the predictions which mainly concern the neutrino and gauge sectors. In the former, we remind the Majorana nature, and the natural tendency for inverted hierarchy pattern with an almost maximally suppressed neutrinoless double beta decay. On the other hand, we predict new (neutral) gauge bosons whose couplings to fermions are not flavour-diagonal but are however constrained (in their strength and their flavour structure) by the 6D anatomy of the theory. We compare their detectability in precision low energy processes and at colliders (especially at the LHC), and show that in the simplest geometries at least, the bounds from the former exclude interesting phenomenology for the latter. Nevertheless, we turn to more phenomenological effective Lagrangians with the same overall structure and in which we are able to lower the mass scale of the new bosons to a reachable energy, and thus analyse the possible signatures for LHC.In the last part of this work, we turn to the issue of CP violation and show how in certain 6D models with non simply connected topologies, it is possible to generate a non negligible CP violation at the 4D level in a pure gauge approach. We carefully study how the 4D CP symmetry is related to particular transformations of the original 6D theory and subsequently show how an incompatibility of such transformations with the compactification scheme can lead to an effective CP breaking. As a proof of concept, we build a toy model with two extra-dimensions compactified on a flat torus and end in 4D with a light neutral fermion with a non zero electric dipole moment.Dans cette thèse, nous étudions plusieurs scénarios au-delà du Modèle Standard de la physique des particules à la recherche d'une meilleure compréhension de la multiplication des familles de fermions, de leurs masses et de leurs mélanges, ainsi que la relation à laviolation de CP.La caractéristique commune à tous les modèles envisagés (et le concept sous-jacent à toute la thèse) est l'introduction de nouvelles dimensions spatiales. Dans une première tentative pour expliquer le spectre des fermions, nous développons un modèle où une structure de vortex à la Nielsen-Olesen est établie sur deux dimensions supplémentaires. Dans ce cadre, les trois familles à 4D peuvent être vues comme différents modes d'une unique génération à 6D, tandis que leur fonctions d'onde extra-dimensionnelles s'avèrent fortement contraintes par la dynamique ;ceci permet d'établir les matrices de masses en terme d'un petit nombre de paramètres. De plus, grâce à quelques hypothèses additionnelles seulement, il est possible de justifier simultanément les différences marquées entre neutrinos et fermions chargés. Nous synthétisons le modèle et l'illustrons en en formulant une réalisation particulière qui parvient à reproduire de manière convaincante tous les paramètres de masse et de mélange du Modèle Standard. Pour l'occasion, nous exploitons de nouvelles solutions aux équations des champs, numériquement plus précises, et prenons en compte les mesures récentes de la masse du boson scalaire et de l'angle de mélange heta_13 pour les neutrinos (le modèle avait cependant prédit ce dernier avant qu'il ne soit mesuré pour la première fois). Nous nous tournons ensuite vers les prédictions du modèle et qui concernent principalement le secteur des neutrinos et celui des bosons de jauge. Pour le premier, nous rappelons la nature "Majorana" des neutrinos, ainsi que la tendance naturelle à une hiérarchie inverse avec une suppression quasi maximale de la double désintégration bêta sans neutrino. D'autre part, nous prédisons de nouveaux bosons de jauge (neutres) dont les couplages aux fermions ne sont pas diagonaux dans l'espace des saveurs mais sont contraints (autant en terme de valeurs qu'en termes de structure) par l'anatomie de la théorie à 6D. Nous comparons leurs détections potentielles dans les processus de précision à basse énergie et auprès des collisionneurs (en particulier au LHC). Nous montrons que, dans les géométries les plus simples du moins, les limites imposées par les premiers excluent toute phénoménologie intéressante du côté des seconds. Toutefois, en nous tournantvers des Lagrangiens effectifs qui conservent la même structure d'ensemble mais ouvrent à une étude plus phénoménologique, nous sommes capables de réduire l'échelle de masse de ces nouveaux bosons jusqu'à une énergie accessible, et donc d'en analyser de potentielles signatures au LHC.Dans la dernière partie de ce travail, nous nous intéressons à la question de la violation de CP et montrons comment dans certains modèles à 6D avec une topologie non-simplement connexe, il est possible de générer une violation de CP non négligeable à 4D dans une approche de "pure jauge". Nous étudions attentivement comment la symétrie CP à 4D est reliée à des transformations particulières de la théorie originale à 6D, suite à quoi nous montrons comment l'incompatibilité de ces transformations avec la façon dont sont "compactifiées" les dimensions supplémentaires peut conduire à une brisure effective de CP. Pour illustrer la faisabilité de notre approche, nous élaborons un "modèle jouet" où deux dimensions supplémentaires sont compactifiées sur un tore plat, et obtenons à 4D un fermion neutre léger et qui possède un moment électrique dipolaire non nul. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
|
107 |
Mechanical Study of Silicon Strip Detector Modules During Quality Control for the ATLAS Phase-II Detector UpgradeDemontigny, Gabriel 03 1900 (has links)
Suite à la détection du très attendu boson de Higgs, le Grand Collisionneur de Hadrons (LHC) ainsi que le détecteur ATLAS se prépare pour une importante mise à niveau. Prévu pour le LHC à Haute Luminosité (HL-LHC), le ITk (Inner TracKer), un trajectomètre pour particules chargées fait de silicium, est la mise à niveau du détecteur interne du détecteur ATLAS. Une phase de test des modules de détecteur du ITk est cruciale puisque le détecteur sera inaccessible pour environ 10 ans suite à l’installation. Ce mémoire se concentrera sur les tests effectués sur un sous-ensemble du détecteur ITk, soit le détecteur ITk Strip. Pour détecter les bris prématurés sur les 20 000 modules qui seront produits, une procédure de cyclage thermique sera mise en oeuvre, où les modules seront refroidis et réchauffés pour recréer les 10 ans d’opération. Ces tests seront effectués dans une enceinte appelé coldbox. Le thème de ce mémoire est le calcul du stress mécanique dans les modules ITk Strip induit par la procédure de cyclage thermique à l’aide de la méthode des éléments finis. Le premier résultat obtenu est que le stress induit dans le module installé dans le coldbox est causé par le vide appliqué sous le module pour le tenir en place. De plus, le stress maximal durant le cyclage thermique est grandement dépendant de l’épaisseur du joint sous-vide utilisé. Ainsi, un joint plus mince cause un stress plus faible. Finalement, le stress dans le coldbox est entre 20 MPa et 100 MPa variant avec l’épaisseur du joint, ce qui est en accord avec le stress calculé pour une disposition semblable au détecteur final, donnant un stress de 64.8MPa. Il est donc possible de conclure que le coldbox est un bon candidat pour effectuer le cyclage thermique. / Following the great achievement by the ATLAS experiment at the Large Hadron Col- lider (LHC) that is the detection of the long-awaited Higgs boson, an upgrade of the LHC is planned, requiring an upgrade of ATLAS. Planned for the High-Luminosity LHC, the ITk (Inner TracKer), an all-silicon charged particle tracker, is the upgrade of the current ATLAS Inner Detector. Testing of the detector modules comprised in the ITk is crucial because the detector will be inaccessible for approximately 10 years following the installation. In this thesis, the focus will be kept on a subset of the ITk detector, namely the ITk Strip detector. To detect premature failure in the 20 000 Strip modules that will be produced, a series of tests will be performed, one of which will be the thermal cycling, where modules are monitored while being thermally cycled to replicate 10 years of operating conditions. These tests will occur in a special enclosure known as a coldbox. The subject of this work is to study the induced mechanical stress in future ITk Strip detector modules due to thermal cycling using Finite Element Analysis. Our first result is that the stress created in the module is mostly due to the vacuum applied to hold the module. Moreover, the maximum stress felt during thermal cycling is highly dependent on the thickness of the vacuum seal used: A thinner seal causes a lower stress. Finally, the stress in the module in our thermal cycling setup is between ∼ 20 MPa and ∼ 100 MPa depend- ing on the selected seal thickness, which is consistent with the stress expected in the final detector design which is approximately 64.8MPa. We can then conclude that the proposed design for the coldbox is a good candidate to perform thermal cycling.
|
108 |
Searching for supersymmetry using deep learning with the ATLAS detectorGagnon, Louis-Guillaume 07 1900 (has links)
Le Modèle Standard de la physique des particules (MS) est une théorie
fondamentale de la nature dont la validité a été largement établie par
diverses expériences. Par contre, quelques problèmes théoriques et
expérimentaux subsistent, ce qui motive la recherche de théories
alternatives. La Supersymétrie (SUSY), famille de théories dans
laquelle une nouvelle particule est associée à chaque particules du
MS, est une des théories ayant les meilleures motivations pour étendre
la portée du modèle. Par exemple, plusieurs théories supersymétriques
prédisent de nouvelles particules stables et interagissant seulement
par la force faible, ce qui pourrait expliquer les observations
astronomiques de la matière sombre. La découverte de SUSY
représenterait aussi une importante étape dans le chemin vers une
théorie unifiée de l'univers. Les recherches de supersymétrie sont au
coeur du programme expérimental de la collaboration ATLAS, qui
exploite un détecteur de particules installé au Grand Collisioneur de
Hadrons (LHC) au CERN à Genève, mais à ce jours aucune preuve en
faveur de la supersymétrie n'a été enregistrée par les présentes
analyses, largement basées sur des techniques simples et bien
comprises.
Cette thèse documente l'implémentation d'une nouvelle approche à la
recherche de particules basée sur l'apprentissage profond, utilisant
seulement les quadri-impulsions comme variables discriminatoires;
cette analyse utilise l'ensemble complet de données d'ATLAS enregistré
en 2015-2018. Les problèmes de la naturalité du MS et de la matière
sombre orientent la recherche vers les partenaires supersymétriques du
gluon (le gluino), des quarks de troisième génération (stop et
sbottom), ainsi que des bosons de gauge (le neutralino). Plusieurs
techniques récentes sont employées, telles que l'utilisation directe
des quadri-impulsions reconstruites à partir des données enregistrées
par le détecteur ATLAS ainsi que la paramétrisation d'un réseau de
neurone avec les masses des particules recherchées, ce qui permet
d'atteindre une performance optimale quelle que soit l'hypothèse de
masses. Cette méthode améliore la signification statistique par un
facteur 85 par rapport au dernier résultat d'ATLAS pour certaines
hypothèses de masses, et ce avec la même luminosité.
Aucun excès signifif au-delà du Modèle Standard n'est observé. Les
masses du gluino en deçà de 2.45 TeV et du neutralino en deça de
1.7 TeV sont exclues à un niveau de confiance de 95%, ce qui étend
largement les limites précédentes sur deux modèles de productions de
paires de gluinos faisant intervenir des stops et des sbottoms,
respectivement. / The Standard Model of particle physics (SM) is a fundamental theory of
nature whose validity has been extensively confirmed by
experiments. However, some theoretical and experimental problems
subsist, which motivates searches for alternative theories to
supersede it. Supersymmetry (SUSY), which associate new fundamental
particles to each SM particle, is one of the best-motivated such
theory and could solve some of the biggest outstanding problems with
the SM. For example, many SUSY scenarios predict stable neutral
particles that could explain observations of dark matter in the
universe. The discovery of SUSY would also represent a huge step towards a
unified theory of the universe. Searches for SUSY are at the heart of
the experimental program of the ATLAS collaboration, which exploits a
state-of-the-art particle detector installed at the Large Hadron
Collider (LHC) at CERN in Geneva. The probability to observe many
supersymmetric particles went up when the LHC ramped up
its collision energy to 13~TeV, the highest ever achieved in
laboratory, but so far no evidence for SUSY has been recorded by
current searches, which are mostly based on well-known simple
techniques such as counting experiments.
This thesis documents the implementation of a novel deep
learning-based approach using only the four-momenta of selected
physics objects, and its application to the search for supersymmetric
particles using the full ATLAS 2015-2018
dataset. Motivated by naturalness considerations as well as by the
problem of dark matter, the search focuses on finding evidence for
supersymmetric partners of the gluon (the gluino), third generation
quarks (the stop and the sbottom), and gauge bosons (the neutralino).
Many recently introduced physics-specific machine learning
developments are employed, such as directly using detector-recorded
energies and momenta of produced particles instead of first deriving a
restricted set of physically motivated variables and parametrizing the
classification model with the masses of the particles searched for,
which allows optimal sensitivity for all mass hypothesis. This method
improves the statistical significance of the search by up to 85 times
that of the previous ATLAS analysis for some mass hypotheses, after
accounting for the luminosity difference.
No significant excesses above the SM background are recorded. Gluino
masses below 2.45 TeV and neutralino masses below 1.7 TeV are excluded
at the 95% confidence level, greatly increasing the previous limit on
two simplified models of gluino pair production with off-shell stops
and sbottoms, respectively.
|
109 |
Calibration of the sensitivity of perfluorocarbon mixtures to nuclear recoilSavoie, Jeremy 08 1900 (has links)
L’expérience PICO fait partie des chefs de file mondiaux dans la tentative de détection
directe de la matière sombre. Cette expérience se spécialise dans l’utilisation des détecteurs à
liquide surchauffé pour y parvenir. Le futur détecteur de la collaboration, PICO-500, tentera
de détecter les WIMPs (Weakly Interacting Massive Particle) une fois construit dans le
laboratoire sous-terrain SNOLAB. Ce détecteur utilisera un mélange de perfluorocarbone
comme fluide actif, une nouveauté pour les chambres à bulles. L’utilisation d’un mélange
présente des avantages importants dans la conception du détecteur. Celle-ci permettra de
diminuer les contraintes d’ingénierie tout en offrant une sensibilité de détection importante.
La chambre à bulles PICO-0.1 est utilisée principalement pour la calibration de perfluorocarbone.
À l’aide du tandem situé à l’Université de Montréal et d’une cible de vanadium-51,
j’ai pu envoyer des neutrons monoénergétiques afin d’évaluer l’énergie de seuil de la formation
de bulles dans ce mélange. Le modèle de Seitz décrivant la formation des bulles a été
bien étudié dans le cadre de fluide pur, mais pas dans le cas de mélange de perfluorocarbone.
Ce type de calibration effectuée avec le détecteur PICO-0.1 nous a permis de confirmer
la validité du modèle de Seitz et que les effets du transport de masse peut être négligés
pour ce mélange. La vérification de cette hypothèse était cruciale à la compréhension de la
dynamique impliquée dans la formation des bulles et nécessaire pour l’utilisation du futur
détecteur PICO-500. / The PICO experiment is one of the world’s leading experiments in the effort to directly
detect dark matter. This experiment specializes in the use of superheated liquid detectors
for that end. The future PICO detector, PICO-500, will attempt to detect WIMPs (Weakly
Interacting Massive Particle) once it will be built at the underground laboratory SNOLAB.
This detector will use a mixture of perfluorocarbon as an active fluid, a novelty for bubble
chambers in dark matter searches. The use of mixture presents important advantages in the
design of this detector. This will allow to lessen some of the engineering constraints while
still offering a high sensitivity.
The PICO-0.1 bubble chamber is mainly used for the calibration of perfluorocarbon.
With the help of the Université de Montréal’s tandem and a target of vanadium-51, I was
able to send monoenergetic neutrons to evaluate the threshold energy of bubble nucleation
of this mixture. The Seitz model describing bubble formation has been widely studied in
the context of pure fluid, but not in the case of perfluorocarbon mixture. This type of
calibration with PICO-0.1 has allowed us to confirm that the Seitz model still apply and
that the effects of mass transport can be neglected for this mixture. The verification of this
hypothesis was crucial to the understanding of the dynamics implicated in bubble formation
and was necessary for the future use of PICO-500.
|
110 |
Photon elastic scattering background events in the SuperCDMS SNOLAB experimentHassan, Noah 10 1900 (has links)
Alors que la nouvelle génération de détecteurs directs de matière sombre est en cours de construction, dans l’espoir de trouver de la matière sombre avec une masse inférieure au GeV, il est important de comprendre comment le rayonnement naturel peut produire un fond d’interactions à faible énergie. Cette thèse s’intéressera à la simulation de la diffusion élastique des rayons γ, une source possible de fonds pour les détecteurs de matière sombre sub-GeV. La simulation utilise le logiciel SuperSim basé sur Geant4 afin de modéliser l’expérience SuperCDMS SNOLAB. Une version modifiée du G4JAEAElasticScatteringModel appelée CDMSJAEAElasticScatteringModel a été mise en oeuvre dans SuperSim afin de simuler les mécanismes de diffusion de photon élastiques Rayleigh, nucléaire Thomson et Delbrück. Le CDMSJAEAElasticScatteringModel ajoute la possibilité pour les particules γ de déposer de l’énergie après avoir été diffusées élastiquement. La validité de ces deux modèles a été vérifiée et des erreurs dans le logicielle ont été rencontrées dans leur traitement des distributions d’angle de diffusion des photons qui déterminent les spectres d’énergie déposée. Les sections efficaces totales sont en accord avec la documentation et d’autres sources. Malgré les erreurs logicielles, la simulation définit une limite inférieure sur le taux de diffusion élastique des rayons γ de ∼ 0,01 et ∼ 0,035 photon diffusé élastiquement par kg par an pour les détecteurs SuperCDMS SNOLAB au germanium et au silicium, respectivement. Ces limites inférieures sont définies à l’aide d’une coupure d’énergie de recul de 1 eV. Cela fait de la diffusion élastique des rayons γ une source importante de bruit de fond pour détecteurs SuperCDMS proposés avec des capacités de discrimination ER/NR à des énergies de recul à l’échelle eV. / While the new generation of direct dark matter detectors are being built in the hopes of finding sub-GeV dark matter, it is important to understand how natural radiation can produce a background of low-energy interactions. This thesis will analyze simulating γ-ray elastic scattering, a possible source of background for sub-GeV dark matter detectors. The simulation uses Geant4-based SuperSim software in order to model the SuperCDMS SNOLAB experiment. A modified version of the G4JAEAElasticScatteringModel called CDMSJAEAElasticScatteringModel was implemented into SuperSim in order to simulate the Rayleigh, nuclear Thomson and Delbrück γ-ray elastic scattering mechanisms. The CDMSJAEAElasticScatteringModel adds the ability for the γ particles to deposit energy after being elastically scattered. The validity of both these models was checked, and errors were encountered in their treatment of photon scattering angle distributions which determine the deposited energy spectra. The total cross sections are consistent with the documentation and other sources. Despite the bug, the simulation does set a lower bound on the γ-ray elastic scattering rate of ∼ 0.01 and ∼ 0.035 elastically scattered photon per kg per year for germanium and silicon SuperCDMS SNOLAB detectors, respectively. These lower bounds are set using a 1 eV recoil energy cutoff. In conclusion, γ-ray elastic scattering a significant source of background for proposed SuperCDMS detectors with ER/NR discrimination capabilities at eV-scale recoil energies.
|
Page generated in 0.0802 seconds