Return to search

Observation des photons directs dans les premières données et préparation à la recherche du boson de Higgs dans l'expérience CMS au LHC (CERN) / Observation of direct photons in first data and preparation for the Higgs boson searches in the CMS experiment at LHC (CERN)

Le LHC (Large Hadron Collider) fournit aux expériences du CERN (Laboratoire Européen pour la Physique des Particules) des collisions proton-proton avec une énergie de 7 TeV dans le centre de masse depuis fin Mars 2010. Le LHC a en particulier été conçu pour permettre la recherche du boson de Higgs, particule prédite par le modèle standard encore jamais observée à ce jour, dans toute la gamme de masse où il est attendu. Ce travail de thèse est une contribution à la recherche du boson de Higgs dans CMS (Compact Muon Solenoid), l'un des quatre grands détecteurs placés auprès du LHC, et développe plusieurs outils qui permettent la mesure des bruits de fonds et l'amélioration du potentiel de découverte. Un nouvel outil de récupération des photons émis par les leptons dans l'état final de la désintégration H --> ZZ(*) ->4≪(≪=e mu) a été développé dans cette thèse. Cette méthode permet la récupération d'un nombre variable de photons par événements, donne une meilleure performance que la méthode précédemment utilisée dans CMS et permet l'amélioration de la résolution sur la masse des bosons Z0 et du boson de Higgs, ainsi qu'un gain de 5% sur la significance d'une observation du boson de Higgs dans ce canal. La deuxième partie de cette thèse traite de l'étude des bruits de fond et de la recherche d'un boson de Higgs léger (110 < mH < 140 GeV) dans le canal H --> γγ. Un nouvel outil de discrimination γ/πi0 à l'aide d'un réseau de neurone a été mis au point pour le rejet des photons provenant de la désintégration des π0 produits copieusement dans les jets de QCD. Les performances du réseau de neurone sont examinées dans le détail. Le réseau de neurone est alors utilisé comme variable "template" permettant la mesure du processus γ+X à partir des données avec 10 nb−1 de luminosité intégrée dans CMS. La mesure du processus γγ+X est aussi préparée à partir de la simulation dans l'hypothèse d'une luminosité intégrée de 10 pb−1. La prise en compte des effets cinématiques aux ordres supérieurs, nécessaire pour la prédiction la plus précise possible du signal H -> γγ et du bruit de fond, est effectuée dans cette thèse par la méthode de repondération, pour le gg -> H γγ processus au NNLO et pour la première fois pour le processus γγ +X au NLO, dans les deux cas à l'aide de distributions doublement différentielles. Les outils de repondération et de discrimination γ/π0 sont ensuite intégrés dans l'analyse pour améliorer la sensibilité de CMS à la recherche du boson de Higgs dans le canal H->γγ dans le modèle standard et au-delà, grâce à une paramétrisation effective développée par des phénoménologues avec lesquels nous avons travaillé. / The LHC (Large Hadron Collider) provides proton-proton collisions to CERN (European Organization for Nuclear Research) experiments at a 7 TeV center of mass energy since March 2010. The LHC has been designed in particular to allow the Higgs boson searches, particle predicted in the standard model but still not discovered until today, in the whole mass range where it is expected. This thesis is a contribution to the Higgs boson searches in CMS (Compact Muon Solenoid), one of the four big detectors at LHC. The thesis develops several tools which allow to measure the backgrounds and to improve the discovery potential. A new tool for recovery of photons emitted by leptons in the final state H --> ZZ(*) ->4≪(≪=eμ) has been developed in this thesis. This method recovers a variable number of photons per event, performs better than the method previously used in CMS and improves Z^0 and Higgs bosons mass resolution. A 5% gain on the significance to observe a Higgs boson in this channel is reached. The second part of this thesis deals with studies of the backgrounds and the searches for a light Higgs boson (110 < mH < 140 GeV) in the channel H --> γγ. A new tool for γ/πi0 discrimination with a neural network has been developed to reject photons coming from π0 decays, copiously produced in QCD jets. The neural network performance is examined in details. The neural network is then used as "template" variable to measure γ+X process in data with 10 nb−1 of integrated luminosity. The measurement of γγ+X process is also prepared with simulation in the luminosity hypothesis of 10 pb−1. Taking into account higher order kinematic effects is necessary to perform the best prediction of H -> γγ signal and backgrounds. In the thesis this is carried out with a reweighting method, at NNLO for gg -> H γγ process and for the first time at NLO for γγ +X process, in both cases with doubly differential distributions. Reweighting procedure and γ/πi0 neural network are then integrated in the H -> γγ analysis to improve CMS sensitivity in the standard model and beyond, thanks to an effective parameterization developed by phenomenologists we were working with

Identiferoai:union.ndltd.org:theses.fr/2010LYO10194
Date06 October 2010
CreatorsChanon, Nicolas
ContributorsLyon 1, Gascon-Shotkin, Suzanne, Deandrea, Aldo
Source SetsDépôt national des thèses électroniques françaises
LanguageFrench
Detected LanguageFrench
TypeElectronic Thesis or Dissertation, Text

Page generated in 0.0029 seconds