• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 20
  • 2
  • Tagged with
  • 22
  • 22
  • 22
  • 7
  • 6
  • 6
  • 5
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Search for new physics in the dark sector with the CMS detector: From invisible to low charge particles

Vannerom, David 26 September 2019 (has links) (PDF)
The Standard Model of particle physics is the framework that describes all known phenomenaand interactions between elementary particles. It has proven to give outstanding results overthe years and was succesfully completed with the discovery of the Brout-Englert-Higgs boson in2012 by the ATLAS and CMS collaborations at CERN. However, several observations escape itsreach: the matter-antimatter asymmetry, the nature of Dark Matter or the quantization of theelectric charge. These are all examples of measured facts not explained by the Standard Modelformalism and that call for an extension to a Beyond the Standard Model (BSM) theory. In thisthesis, we have looked for evidence of new physics using proton-proton collision data producedby CERN’s Large Hadron Collider (LHC) at a center-of-mass energy of 13 TeV. Collected from2016 to 2018 by the CMS detector, it corresponds to an integrated luminosity of 136/fb .Afteran introduction to the theoretical context and the experimental tools, two analyses are presented.The first one is a search for Dark Matter particles recoiling against a jet and leaving the detectorunnoticed. With this ”monojet” analysis, we are able to exclude mediator masses up to 1.8TeV, and masses of Dark Matter particles up to 700 GeV. The second analysis is a search forfractionally charged particles. Using the fact that their stopping power is lower than StandardModel particles, we are able to exclude their existence up to masses of 765 GeV for a charge of2/3 e. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
12

Search for new physics in dilepton final states at the CMS experiment

Fang, Wenxing 19 June 2019 (has links) (PDF)
This thesis describes searches for new heavy resonances that decay into dielectron final state and searches for new physics in the top quark sector. The standard model of elementary particle is introduced in the first chapter. After that, a selection of theories beyond the standard model that predict the existence of new massive resonances are described together with an introduction to the effective field theory that is used to search for new physics in top quark sector. Then, the Large Hadron Collider (LHC) and the Compact Muon Solenoid (CMS) detector are introduced, and the techniques used in order to reconstruct the particles produced in the collisions are discussed afterwards. Finally, two separate analyses are presented.The first analysis is searching for new heavy resonances using dielectron final state. As some beyond Standard Model theories predict the existence of new heavy resonances that can decay into dielectron pair, such as the grand unified theories and theories that introduce extra space-like dimensions. An observation of a local “bump” in the dielectron invariant mass spectrum will be an evidence for the existence of a new heavy resonance. The data used is from CMS experiment collected in 2016 with 35.9 fb-1 and in 2017 with 41.4 fb-1. The event selection is optimized in order to be highly efficiency for high energy electron and avoid loosing potential signal events. The leading background is the Drell-Yan process and it is estimated from simulation. The sub-leading background is from ttbar and ttbar-like processes and it is estimated from simulation also. A data-driven method is used to validate the simulation of sub-leading background. The last background from quantum chromodynamics processes is determined by data-driven approach. After having inspected the final dielectron invariant mass spectrum, no significant excess over the standard model background is observed, and upper limit at 95% confidence level is set on the ratio of production cross-section times branching ratio of a new resonance to the one at the Z boson peak.The second analysis is the search for new physics in the top quark sector with dielectron and dimuon final states using data collected by the CMS experiment in 2016 with 35.9 fb-1. Because of its high mass and close to electroweak symmetry breaking scale, the top quark is expected to play an important role in several new physics scenarios. The new physics in top quark pair production and in single top quark production in association with a W boson are investigated and a dedicated multivariate analysis is used to separate these two processes. No significant deviation from the standard model expectation is observed. Results are interpreted in the framework of an effective field theory and constraints on the relevant effective couplings are set at 95% confidence level. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
13

Measurement of jet production in association with a Z boson at the LHC and jet energy correction calibration at high level trigger in CMS

Zhang, Fengwangdong 08 June 2017 (has links)
This PhD dissertation presents the measurement of the cross section of jet production in association with a Z boson in proton-proton collisions at the Large Hadron Collider in CERN, with a center-of-mass energy of 8 TeV in 2012 and of 13 TeV in 2015. The data used for this analysis were collected by the Compact Muon Solenoid (CMS) detector, with an integrated luminosity of 19.6 fb-1 in 2012 and of 2.25 fb-1 in 2015. The differential cross section is measured as a function of jet multiplicity, jet transverse momentum and rapidity, and the scalar sum of jet transverse momenta. The rapidity correlations between the Z boson and jets are also measured benefiting from the large statistics of data taken in 2012. All distributions of measured observables are obtained after correcting detector effects using unfolding approach, and the results of two leptonic decaying channels of Z boson are combined. Coming along with the systematic and statistical uncertainties, the measurement is compared to different theoretical predictions at different accuracy levels. The predictions are from MADGRAPH 5, SHERPA 2 (for 8 TeV analysis only), MADGRAPH_AMC@NLO, and fixed next-to-next-to-leading order (for 13 TeV analysis only). Thanks to the unprecedented high energy and the large statistics of data, precision measurement is accomplished in a physical phase space never reached before. This measurement provides precise systematics for different theoretical models. It also quantifies the improvement with higher order of perturbative quantum chromodynamics calculations on matrix elements relative to the leading order multi-leg approach. In particular to the rapidity correlation study, new matching schemes (FxFx and MEPS@NLO) for next-to-leading order matrix elements and parton shower show significant improvements with respect to the MLM matching scheme for leading order multi-leg matrix elements and parton shower. This measurement also gives precise background estimation for the measurements of many other processes in Standard Model like top quark production and gauge boson couplings, and for new physics searches such as Supersymmetry. In this thesis, the jet energy correction and calibration for the high level trigger system of CMS are also depicted. From 2012 to 2015, the Large Hadron Collider was upgraded, not only with the center-of-mass energy of the beams enlarged, but also with the instantaneous luminosity increased. The time distance between two particle bunches in a beam is reduced. As a result, the reconstructed momenta of the jets produced in each bunch crossing are significantly contaminated by multiple interactions. A dedicated technical approach has been developed for correcting the reconstructed jet momenta. The corrections have been calibrated and configured for the data taking in 2015 and 2016. / Cette thèse présente une mesure de la section efficace de production de jets associés à un boson Z dans les collisions proton-proton du Grand Collisionneur de Hadron (LHC) situé au CERN, avec des énergies dans le centre de masse de 8 TeV et 13 TeV, respectivement pour les années 2012 et 2015. Les données utilisées pour cette analyse ont été collectées par le détecteur Compact Muon Solenoid (CMS). Elles constituent des échantillons de luminosités intégrées de 19.6 fb⁻¹ et 2.25 fb⁻¹, respectivement pour 2012 et 2015. Nous mesurons la section efficace différentielle en fonction de la multiplicité de jets, de l’impulsion transverse et de la rapidité des jets, et en fonction de la somme scalaire des impulsions transverses des jets. La corrélation entre les rapidités du boson Z et des jets est aussi mesurée et bénéficie de la large statistique prise en 2012. Toutes les distributions d’observables mesurées sont obtenues après corrections pour les effets détecteurs et les résultats des canaux de désintégration muonique et électronique du boson Z sont combinés. Tenant compte des incertitudes statistiques et systématiques, les mesures sont comparées à différentes prédictions théoriques ayant différents niveaux de précision. Les prédictions sont obtenues de MADGRAPH 5, SHERPA 2 (pour l’analyse à 8 TeV uniquement), MADGRAPH_AMC@NLO, et un modèle fixé au NNLO (pour l’analyse à 13 TeV uniquement). Par ces mesures de précisions, et en particulier celle de la corrélation de rapidités, nous avons acquis une compréhension plus approfondie de la chromodynamique quantique dans son régime perturbatif. Grâce à la plus haute énergie jamais atteinte en laboratoire, et à la grande statistique disponible, nous avons sondé avec précision des endroits de l’espace des phases jusque là inaccessibles.Dans cette thèse, les corrections et la calibration de l’énergie des jets pour le haut niveau de sélection de CMS est également présentée. Durant la période de 2012 à 2015, le LHC a été amélioré, non seulement l’énergie dans le centre de masse a augmenté, mais la luminosité instantanée a aussi été amplifiée. L’écart temporelle entre deux paquets de particules dans les faisceaux du LHC a été réduite. L’une des conséquences est que l’impulsion reconstruite pour les jets produits lors d’un croisement de faisceau à une contribution significative venant des multiples interactions ayant lieux lors du croisement des paquets. Une approche technique dédiée a été développée pour corriger l'impulsion des jets. Les corrections obtenues ont été calibrées aux données prises en 2015 et 2016. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
14

The IceCube Neutrino Observatory: search for extended sources of neutrinos and preliminary study of a communication protocol for its future upgrade

Pinat, Elisa 27 June 2017 (has links)
English Version: When humans started looking out at a starry night, astronomy was born. Photons emitted by stars travel up to sometimes billions of light years to reach our eyes, and by studying the properties of this photon flux we are able to infer properties of the star itself. Instead of photons, the IceCube Observatory, located at South Pole, aims at detecting neutrinos and hopes to shed some light on the still unsolved mystery of cosmic-ray acceleration and production mechanisms, and on the most energetic phenomena of the Universe. At the time of this writing, IceCube has proven the existence of an astrophysical neutrino flux with a significance exceeding seven sigmas. Nevertheless, the observed astrophysical neutrino flux shows no significant directional clustering nor a clear association with any known source class so far. Also the latest results given by IceCube’s point source analysis show no significant clustering as well. It is therefore important to widen the search to different source topologies to maximize the discovery potential. In the first part of this work we present an extended source analysis with seven years of IceCube data, adding three years of data to the previous published work and implementing a novel likelihood formulation. Since the extensions of any potential sources are not known a priori, five different extensions have been considered, from 1° to 5°. No significant clustering is observed in any of the maps. The ability of IceCube to establish neutrino astronomy by finding neutrino sources is limited by the number of cosmic neutrinos measured. Despite the aforementioned discovery of an astrophysical flux, detailed spectral studies and searches for specific source locations in this signal remain a challenge with the event sample sizes available from the IceCube instrument. Therefore, a considerable expansion of the current detector, IceCube Gen2, is promoted, which includes the instrumentation of a 10 km3 volume, able to deliver substantial increases in the astrophysical neutrino sample for all flavors. Not only the hardware will be upgraded, but many systems will undergo improvements, such as communications and timing infrastructures. A new communication system has been investigated and is presented in the second part of this document. Binary Phase Shift Keying (BPSK), the simplest digital modulation technique, has been studied as possible communication technique for IceCube Gen2. / French Version: Quand les humains ont commencé à regarder le ciel étoilé, l’astronomie est née. Les photons émis par les étoiles voyagent parfois des milliards d’années lumière avant d’atteindre nos yeux, et c’est grâce à l’étude de ce flux de photons que l’on peut déduire les propriétés des étoiles mêmes. Au lieu des photons, l’Observatoire IceCube, situé au Pôle Sud, a pour but de détecter des neutrinos :il espère éclairer le mystère encore non résolu de l’accéleration et des mécanismes de production des rayons cosmiques, ainsi que des phénomènes les plus énergétiques de l’Univers. Au moment où ce document a été rédigé, IceCube a démontré l’existence d’un flux de neutrinos astrophysiques avec une signification statistique excédant sept sigmas. Cependant, le flux de neutrinos astrophysiques observé ne montre aucun regroupement directionnel significatif ni une évidence d’association avec aucune source connue à l’heure actuelle. De plus, les derniers résultats fournis par les analyses de sources ponctuelles de la collaboration IceCube ne montrent non plus aucun regroupement. Il est donc important d’étendre ces recherches vers des typologies de sources différentes pour maximiser le potentiel de son découverte. Dans la première partie de ce travail nous présentons une analyse de source étendue basée sur sept années de données d’IceCube, ce qui rajoute trois ans de données au travail précédemment publié tout en mettant en oeuvre une nouvelle formulation de maximum de vraisem- blance. Comme les extensions de sources potentielles ne sont pas connues à priori, cinq extensions différentes ont été considérées, de 1° à 5°. Aucun regroupement significatif n’a été observé sur aucune des cartes. La capacité d’IceCube de consolider l’astronomie neutrino en découvrant des sources de neutrinos est limitée par le nombre de neutrinos cosmiques mesuré. Malgré la découverte susmentionnée d’un flux astrophysique, les études détaillées de spectre ainsi que les recherches de sources spécifiques pour ce type de signal demeurent un défi, à cause de la limitation de taille disponible des échantillons avec l’instrument IceCube. Par conséquent, une expansion considérable du détecteur actuel, IceCube Gen2, est promue :elle inclut l’instrumentation d’un volume de 10 km3, apte à fournir une augmentation importante des échantillons de neutrinos de toutes les saveurs. Non seulement le hardware sera mis à niveau, mais de nombreux autres systèmes subiront des améliorations, comme les infrastructures de communication et de timing. Un nouveau système de communication a été étudié et est présenté dans la deuxième partie de ce document. Le Binary Phase Shift Keying (BPSK), la technique de modulation numérique la plus simple, a été étudiée comme technique potentielle pour IceCube Gen2. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
15

Gamma-ray and Neutrino Lines from Dark Matter: multi-messenger and dedicated smoking-gun searches

El Aisati, Chaimae 02 February 2018 (has links)
Identifying what makes up the Dark Matter is a long-standing problem to which the abundance of gravitational and cosmological evidence fails to answer. Indirect detection techniques have the aim to unveil the nature of Dark Matter by catching and identifying the products of potential decays and/or annihilations. The work exposed in this thesis is in line with this strategy and has for common thread the quest for line(-like) features in the extraterrestrial fluxes of gamma-rays and neutrinos. The motivation behind this specific interest is that, due to the absence of astrophysical counterparts beyond the GeV scale, these features constitute the ultimate probes (also called “smoking guns”) of the existence of Dark Matter.The thesis is organized in three Parts, the first of which is an introduction to the different facets of the Dark Matter conundrum and why it is not a trivial issue. The works involving gamma-ray line considerations are gathered in Part II, and those exclusively focusing on neutrino lines in Part III.Part II focuses on the effective field theory of Dark Matter decay, first in the context of millicharged particles decaying to gamma-ray lines, and then in the context of (neutral and millicharged) Dark Matter decays involving the simultaneous emission of gamma-ray and neutrino lines. In both cases, the simultaneous emission of cosmic rays is unavoidable and the decays are constrained in a multi-messenger fashion. The complementarity of the results obtained is used to derive model-independent constraints on the Dark Matter lifetime, and shows the possibility to exclude or distinguishsome specific scenarios on the basis of an explicit experimental conjecture.After an introduction to the neutrino detection principles and to the operation of the IceCube detector, Part III focuses on two careful searches for spectral features in the neutrino spectrum. The main goal behind these analyses, conducted in two different regions of the energy spectrum but using the same likelihood ratio procedure, is to popularize dedicated energy distribution studies by showing their ability to reach sensitivity levels comparable to—sometimes even going beyond—those obtained with angular distribution studies or even in the context of gamma-ray line searches. / Option Physique du Doctorat en Sciences / info:eu-repo/semantics/nonPublished
16

Producing and constraining self-interacting hidden sector dark matter

Vanderheyden, Laurent 30 June 2021 (has links) (PDF)
Les incompatibilités entre les simulations numériques, les prédictions théoriques et les observations cosmologiques à courtes et larges échelles suggèrent que la Matière Noire (MN) auto-interagit fortement. Il a été démontré qu’introduire un médiateur léger peut permettre de rendre compte de telles auto-interactions pour la MN. Un tel médiateur permet, de plus, des interactions "portails" entre le "secteur caché" (contenant la MN et le médiateur léger) et le "secteur visible" (contenant les particules que l'on connaît déjà, c'est-à-dire du Modèle Standard). Toutefois, l’espace des paramètres se voit de plus en plus exclu aux vues d’une tension entre, d’une part, les observations cosmologiques et astrophysiques et, d’autre part, le fait que l'on ait à ce jour toujours pas mis en évidence des traces de MN dans aucune expérience de physique des particules.Nous commençons par détailler toutes les contraintes qui s’appliquent aux modèles pour lesquels la MN auto-interagit au moyen d’un médiateur léger. Pour cela, nous considérons les deux exemples de modèles connus du portail de Higgs et du portail de mélange cinétique. Nous discutons ensuite l’effet Sommerfeld et étudions ses nombreuses implications sur de tels modèles. Nous poursuivons en établissant comment rendre compte de la densité relique de MN observée aujourd’hui dans l'Univers dans de tels modèles, c'est-à-dire dans des modèles qui présentent une structure générique composée de trois populations de particules (le Modèle Standard, la MN et le médiateur) connectées les unes aux autres au travers de trois interactions résultantes de deux couplages fondamentaux entre particules. Il apparaît que cela peut être fait selon cinq manières dynamiques différentes qui donnent lieu à neuf régimes de production de la MN dont quatre sont nouveaux. Ces nouveaux régimes de production sont pertinents pour la situation où les particules du secteur caché ne sont pas en équilibre thermique avec les particules du secteur visible.Nous étudions ensuite plus en détail la possibilité d’un secteur caché qui n’est pas thermiquement connecté au secteur visible, en déterminant en particulier l’espace des paramètres autorisé pour des candidats de MN thermaux en termes du ratio des températures des deux secteurs et de la masse de la MN. Nous montrons ensuite que si les deux secteurs ne sont pas thermalement connectés, les deux modèles simples de portails que nous considérons permettent de diminuer les tensions à courtes échelles tout en offrant des candidats de MN viables. Enfin, nous proposons et explorons d’autres modèles minimaux de MN auto-interagissante qui satisfont aux nombreuses contraintes de manière consistante. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
17

Search for new high mass resonances or quantum black holes decaying to lepton flavor violating final states with the CMS detector

Beghin, Diego 17 December 2020 (has links) (PDF)
Cette thèse présente une analyse de données collectées par le détecteur CMS, dont le but est la recherche de nouvelle physique dans des états finaux qui violent la conservation de la saveur leptonique. Elle commence avec une discussion du Modèle Standard de la physique des particules, en insistant sur la conservation de la saveur leptonique dans ce modèle, et sur la violation de cette conservation qui découle d’un grand nombre de modifications du Modèle Standard. Les problèmes non résolus en physique des particules sont présentés, ainsi que certains des modèles de nouvelle physique qui y répondent, et qui impliquent une violation de la conservation de la saveur leptonique. Nous discutons notamment la supersymétrie avec violation de la R-parité, des modèles avec des dimensions supplémentaires, et des modèles avec une symétrie de jauge U(1) supplémentaire. Ensuite, le LHC, le détecteur CMS, son système de déclenchement et son logiciel de reconstruction des événements sont tous décrits en détail. Les données analysées correspondent à une luminosité intégrée de 137 /fb collectée par CMS pendant trois années du Run 2 du LHC (2016-18), à une énergie du centre de masse √s = 13 TeV. La stratégie d’estimation du bruit de fond est de simuler tous les processus avec de vrais leptons dans l’état final, mais des méthodes basées sur les données sont utilisées pour les principaux bruits de fond où les leptons sont en fait des particules mal identifiées. Des facteurs de correction sont appliqués aux simulations afin de tenir compte d’effets expérimentaux et de calculs théoriques plus précis. Les données s’avèrent être compatibles avec les estimations du bruit de fond, en tenant compte des incertitudes, et une analyse statistique est faite afin d’exclure des modèles de nouvelle physique à un niveau de confiance de 95 %. Pour le modèle de référence, un boson Z’ avec des désintégrations qui ne conservent pas la saveur leptonique, les limites inférieures sur la masse de la résonance sont respectivement 5.0 TeV, 4.2 TeV et 4.1 TeV pour les états finaux eμ,eτ et μτ .C’est la première analyse CMS de ce genre dans les états finaux eτ et μτ ,et dans tous les canaux les résultats sont des améliorations considérables par rapport aux meilleurs résultats précédents. / This thesis presents a novel search for new physics in lepton flavor violating final states, using the CMS detector. There is first a discussion of the Standard Model of particle physics, with a particular emphasis on the issue of lepton flavor conservation, and how often that conservation is violated when generic modifications of the Standard Model are performed. The questions left unanswered by the Standard Model are presented, as well as some new physics models which resolve them, and in so doing imply the existence of processes violating charged lepton flavor conservation. R-parity violating supersymmetry, models with large extra dimensions,and models with an extra U(1) gauge symmetry are discussed. The Large Hadron Collider, the CMS detector, its trigger system and event reconstruction software are all described in detail. The data used for the analysis corresponds to an integrated luminosity of 137 /fb collected by CMS during three years of LHC Run 2 (2016-18), at a center-of-mass energy √s = 13 TeV. The background estimation strategy is to use simulations for all processes with real leptons, while large-yield processes with misidentified leptons are estimated with data-driven methods. The simulations are corrected by scale factors accounting for experimental calibration and more precise theoretical calculations. After comparing the observed data and the expected background, no evidence of new physics is found, and a statistical analysis is performed to exclude new physics models at the 95 % confidence level. For the benchmark lepton flavor violating Z’ model, the lower limit in the eμ (respectively eτ ,μτ ) final state on the resonance mass is 5.0 TeV (resp. 4.2 TeV, 4.1 TeV). Such an analysis had never been performed in the tau channels with the CMS detector, and in all channels these results considerably improve on the previous state-of-the-art results. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
18

Muon to electron conversion, flavored leptogenesis and asymmetric dark matter in minimal extensions of the Standard Model

Dhen, Mikaël 30 September 2015 (has links)
Il est clair que le Modèle Standard des particules élémentaires n'est pas complet. Parmi tous les indices d'une physique au-delà du Modèle Standard, la masse des neutrinos, l'asymétrie matière-antimatière de notre Univers et la matière noire constituent les trois contextes généraux de cette thèse.Le fait que les neutrinos soient massifs constitue la plus claire évidence d'une physique au-delà du Modèle Standard. La masse des neutrinos peut trouver une explication notamment dans le cadre des modèles favoris dits "modèles Seesaw". Ces modèles, en plus de générer une petite masse pour les neutrinos, génèrent aussi des processus dans lesquels la saveur d'un lepton chargé est changée, comme la désintégration d'un muon en un électron et un photon, ou la conversion d'un muon en un électron au sein d'un atome sans émission de neutrino. Ces processus sont importants car les expériences futures devraient atteindre des sensibilités impressionnantes sur leurs taux, mais aussi parce que leur observation confirmerait l'existence d'une physique nouvelle et pourrait peut-être discriminé parmi les différents modèles. Il est donc important d'avoir une expression analytique fiable du taux de ces processus dans le cadre de ces modèles Seesaw favoris. Dans la première partie de cette thèse, nous calculons l'expression du taux de conversion d'un muon en un électron au sein d'un atome dans le cadre des modèles Seesaw de type 1, et analysons la phénoménologie s'y rapportant. Ces modèles Seesaw, en plus de générer une petite masse pour les neutrinos et des processus changeant la saveur leptonique, permettent aussi la création de l'asymétrie matière-antimatière dans l'Univers, à travers le mécanisme dit de "leptogenèse". Selon ce mécanisme, une asymétrie leptonique aurait d'abord été créée, avant d'être partiellement transférée en une asymétrie baryonique. Dans la seconde partie de cette thèse, nous calculons et analysons la leptogenèse dans le cadre des modèles Seesaw de type 2 avec, pour la première fois, la prise en compte des effets de saveurs.Finalement, la troisième et dernière partie de cette thèse se concentre sur la possibilité de générer non seulement la matière baryonique à partir d'une asymétrie, mais aussi la matière noire. A cette fin, nous considérons le modèle dit "doublet inerte'', car il contient une interaction qui pourrait à priori générer de la matière noire à partir d'une asymétrie. Nous adressons dès lors la question suivante et y répondons: est-il possible de générer toute la matière noire à partir d'une asymétrie de matière noire dans le contexte du modèle doublet inerte ? / Option Physique du Doctorat en Sciences / info:eu-repo/semantics/nonPublished
19

Study of Triple-GEM detectors for the CMS muon spectrometer upgrade at LHC and study of the forward-backward charge asymmetry for the search of extra neutral gauge bosons

Zenoni, Florian 27 April 2016 (has links)
Cette thèse de doctorat a pour cadre l’expérience CMS auprès du grand collisionneur de protons du CERN, le LHC. Le LHC, qui a permis la découverte en 2012 du boson de Brout-Englert-Higgs, est destiné à fonctionner pour encore 20 ans, avec une luminosité qui croîtra progressivement pour atteindre d’ici 2025 la valeur de 7.5 x 10^34 cm^-2 s^-1, c'est à dire environ cinq fois la valeur initialement prévue. Ceci a pour conséquence que les expériences doivent s’adapter et mettre à niveau une série de leurs composants et détecteurs. Une des prochaines mises à niveau de l’expérience CMS concerne les détecteurs Triple Gas Electron Multiplier (GEM) qui sont actuellement en développement pour la partie avant du spectromètre à muons de l’expérience. Ces détecteurs seront installés dans CMS durant le deuxième long arrêt du LHC, en 2018-2019, appelé LS2. Cette mise à niveau a pour but de contrôler les taux de déclenchement d’événements pour la détection de muons, grâce à la haute performance de ces détecteurs Triple GEM en présence de taux de particules extrêmement élevés (>1 kHz/cm^2). De plus, grâce à sa très bonne résolution spatiale (~250 um), la technologie GEM peut améliorer la reconstruction des traces de muons et la capacité d’identification du détecteur avant.Le but de mon travail de recherche est d’estimer la sensitivité des Triple GEMs à l’environnement de radiation hostile dans CMS, essentiellement composé de neutrons et de photons produits lors des interactions entre les particules et les détecteurs constituant l’expérience CMS. L’estimation précise de cette sensitivité est très importante, car une sous-estimation pourrait avoir des effets désastreux pour l’efficacité des Triple GEMs une fois installés dans CMS. Pour valider mes simulations, j’ai également reproduit des résultats expérimentaux obtenus avec d’autres détecteurs similaires déjà installés dans CMS, tels que les Resistive Plate Chambers (RPC).La deuxième partie de mon travail concerne l’étude de la capacité de l’expérience CMS à discerner différents modèles de nouvelle physique prédisant l’existence de bosons vecteurs, appelés Z'. Ces modèles font partie des extensions plausibles du Modèle Standard. En particulier, l’analyse se concentre sur des simulations dans lesquelles le Z' se désintègre en deux muons, et sur l’impact que les mises à niveau avec les détecteurs Triple GEM apporteront à ces mesures tout le long de la phase de haute intensité du LHC. Mes simulations montrent que plus de 20% des événements simulés comptent au moins un muon dans la région en pseudo-rapidité (eta) de CMS couverte par les détecteurs Triple GEM. Les résultats préliminaires démontrent que, dans le case de modèles à 3 TeV/c^2, il sera possible dès la fin de la Phase I de distinguer un Z'I d'un Z'SSM avec un niveau de signification alpha > 3 sigma. / This PhD thesis takes place in the CMS experiment at CERN's Large Hadron Collider (LHC). The LHC allowed the discovery of the Brout-Englert-Higgs boson in 2012, and is designed to run for at least 20 years, with an increasing luminosity that will reach by 2025 a value of 7.5 x 10^34 cm^-2 s^-1, that is a yield five times greater than the one initially intended. As a consequence, the experiments must adapt and upgrade many of their components and particle detectors. One of the foreseen upgrades of the CMS experiment concerns the Triple Gas Electron Multiplier (GEM) detectors, currently in development for the forward muon spectrometer. These detectors will be installed in CMS during the second long LHC shutdown (LS2), in 2018-2019. The aim of this upgrade is to better control the event trigger rate at Level 1 for muon detection, thanks to the high performance of these Triple GEM detectors, in presence of very high particle rates (>1 kHz/cm^2). Moreover, thanks to its excellent spatial resolution (~250 um), the GEM technology can improve the muon track reconstruction and the identification capability of the forward detector.The goal of my research is to estimate the sensitivity of Triple GEMs to the hostile background radiation in CMS, essentially made of neutron and photons generated by the interaction between the particles and CMS detectors. The accurate evaluation of this sensitivity is very important, as an underestimation could have ruinous effects of the Triple GEMs efficiency, once they are installed in CMS. To validate my simulations, I have reproduced experimental results obtained with similar detectors already installed in CMS, such as the Resistive Plate Chambers (RPC).The second part of my work regards the study of the CMS experiment capability to discriminate between different models of new physics predicting the existence of neutral vector bosons called Z'. These models belong to plausible extensions of the Standard Model. In particular, the analysis is focused on simulated samples in which the Z' decays in two muons, and on the impact that the Triple GEM detectors upgrades will bring to these measurements during the high luminosity phase of the LHC, called Phase II. My simulations prove that more than 20% of the simulated events see at least one muon in the CMS pseudo-rapidity (eta) region covered by Triple GEM detectors. Preliminary results show that, in the case of 3 TeV/c^2 models, it will be possible already at the end of Phase I to discriminate a Z'I from a Z'SSM with a significance level alpha > 3 sigma. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
20

Searches for Neutrino Emission from Blazar Flares with IceCube

Raab, Christoph 09 June 2021 (has links) (PDF)
Cosmic rays reach Earth from beyond the Milky Way and with energies up to 10^20 eV.The responsible accelerators have to date not been discovered. However, multi-messenger astronomy can shed light on the question, based on the principle that protons and nuclei accelerated in dense and energetic environments would also produce gamma rays and neutrinos. Such environments may be found in "blazars", which are therefore cosmic ray accelerator candidates. Their gamma-ray emission has been observed to increase, sometimes by orders of magnitude, during "flares" as observed in light curves taken by the Large Angle Telescope on the Fermi satellite. When the latter was launched in 2008, the IceCube Neutrino Observatory had also started taking data, detecting the Cherenkov light from high-energy neutrino interactions in the glacier ice under the geographic South Pole. These two experiments have enabled multi-messenger searches for neutrinos in time correlation with the gamma-ray emission from blazars. This work builds on this principle and extends it by "stacking" the signal from multiple blazar flares. Thus, their individually undetectable neutrino emission could still be discoverable. One first analysis focused on the blazar TXS 0506+056, whose flare in 2017 coincided with arrival of the neutrino IceCube-170922A. Extending into a lower energy range than the alert, the search found no additional excess neutrinos associated with the flare. A second analysis used 179 bright and variable blazars. They were divided in two specific blazar classes and weighted relatively to each other, with two weighting schemes motivated physically using the observed gamma-ray luminosity and a third, generic weighting to cover unconsidered scenarios. No significant neutrino excess was found in the unblinded likelihood fits for any of the source catalogues and weighting schemes. Their combined trial-corrected p-value was p=(79.1 +/- 0.3)%. The limits derived from this analysis are also discussed and its relation with other searches considered. Since that was the first "blazar flare stacking", this work also proposes further improvements to the analysis which will help advance the search for cosmic ray accelerators. / Les rayons cosmiques proviennent d'au-delà de la Voie lactée et atteignent la Terre avec des énergies pouvant aller jusqu'à 10^20 eV. Les objets qui accélèrent ces rayons cosmiques n'ont toujours pas été découverts. Toutefois, l'astronomie multimessager peut apporter un élément de réponse à cette question, en supposant que les protons et les noyaux accélérés dans des environnements denses et énergétiques pourraient également produire des rayons gamma et des neutrinos. Les "blazars" sont de possibles candidats pour les accélérateurs de rayons cosmiques. Une augmentation de leurs émissions de rayons gamma, parfois de plusieurs ordres de grandeur, a été observée lors de phénomènes qu'on appelle "éruption", comme le montrent les courbes de lumière prises par le télescope spatial Fermi-LAT. Lorsque ce dernier a été lancé en 2008, l'observatoire de neutrinos IceCube avait également commencé à prendre des données, détectant la lumière Tcherenkov provenant d'interactions de neutrinos à haute énergie dans la glace qui se trouve sous le Pôle Sud géographique. Ces deux expériences ont permis de mener à bien des recherches multi-messagers de neutrinos en corrélation temporelle avec l'émission de rayons gamma des blazars. Ce principe est le point de départ de cette thèse, qui va plus loin en employant la méthode du "stacking", qui consiste à combiner les signaux provenant de plusieurs éruptions de blazars. Ainsi, leurs émissions individuelles de neutrinos, habituellement indétectables, pourraient être découvertes après combinaison. Une première analyse s'est concentrée sur le blazar TXS 0506+056, dont l'éruption en 2017 a coïncidée avec l'arrivée de l'évènement IceCube-170922A. En considérant une gamme d'énergie inférieure à celle de l'alerte 170922-A, pas d’autres neutrino excédentaire n’a été associé à l'éruption. Une deuxième analyse est basée sur 179 blazars lumineux et variables. Ces blazars ont été répartis en deux classes spécifiques, et chacun d'entre eux a reçu un poids relatif. Trois schémas de pondération ont été considérés :les deux premiers étant motivés par des observations, le troisième étant plus générique. Aucun excès significatif de neutrinos n'a été observé après avoir effectué des ajustements par maximum de vraisemblance sur les données non masquées, pour les différents catalogues de sources et schémas de pondération. Leur valeur-p combinée est de p=(79.1 +/- 0.3)%. Les limites dérivées de cette analyse sont discutées ainsi que leur rapport avec les résultats d'autres recherches. Puisqu'il s'agit du premier stacking d'éruptions de blazars, nous suggérons également des améliorations à apporter à l'analyse afin de permettre la poursuivre de la recherche d'accélérateurs de rayons cosmiques. / Kosmische straling afkomstig van buiten de Melkweg bereikt de Aarde met energieën tot wel 10^20 eV. De astrofysische bronnen waarin deze deeltjes worden versneld zijn tot op heden nog niet ontdekt. De multi-boodschapperastronomie kan een nieuw licht werpen op de oorsprong van kosmische straling, aangezien protonen en atoomkernen die worden versneld in een dichte en energetische omgeving ook gammastralen en neutrino’s produceren. „Blazars” zijn mogelijke kandidaat-versnellers. Observaties van blazars, gemaakt met de ruimtetelescoop Fermi-LAT ,tonen aan dat hun gammastraling tijdens zogenaamde „flakkers” toeneemt. Rond de tijd dat deze werd gelanceerd, begon het IceCube Neutrino Observatorium ook gegevens te verzamelen. Deze laatste detecteert hoog-energetische neutrino’s aan de hand van het Cherenkovlicht dat geproduceerd wordt tijdens hun interacties met de ijskap bij de geografische zuidpool. Deze twee experimenten hebben het mogelijk gemaakt om een multibooschapperzoektocht te verrichten naar neutrino’s van blazars die een tijdscorrelatie hebben met diens flakkers van gammastraling. Dit is het uitgangspunt van dit proefschrift, waarbij er ook een zogenaamde „stapelmethode” wordt toegepast. Op deze manier kan de neutrino-emissie van indivuele blazarflakkers, die afzonderlijk te zwak is om te detecteren, gecombineerd worden en mogelijks toch worden ontdekt. Een eerste analyse legt de focus op de blazar TXS 0506+056, waarvan een flakker in 2017 samenviel met de aankomst van het neutrino IceCube 170922-A. In een relatief lager energiebereik wordt er geen surplus aan neutrino’s gevonden gecorreleerd met de flakker. In een tweede analyse maken we gebruik van de stapelmethode om neutrino’s te zoeken afkomstig van 179 heldere en variabale blazars. Deze worden onderverdeeld in twee specifieke klassen en krijgen elks een zeker gewicht in de stapelanalyse. Hiervoor worden twee wegingsschema’s gebruikt die gemotiveerd zijn door de geobserveerde gammastraling, alsook een derde generieke weging. Ook hierwordt er geen significant neutrinosignaal geobserveerd. De gecombineerde p waarde is p=(79.1 +/- 0.3)%. Hieruit worden limieten afgeleid, en worden de verbanden met andere zoekacties besproken. Aangezien dit werk de eerste analyse omvat naar neutrino’s afkomstig van blazarflakkers gebruik makende van een stapelmethode, worden er in dit werk ook verdere verbeteringen van de analyse voorgesteld. Deze zullen als een startpunt dienen voor toekomstige zoektochten naar de nog onbekende bronnen van kosmische straling. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished

Page generated in 0.153 seconds