• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 8
  • 5
  • 3
  • Tagged with
  • 16
  • 16
  • 16
  • 13
  • 10
  • 10
  • 10
  • 10
  • 7
  • 7
  • 7
  • 7
  • 6
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Etude des désintégrations radiatives Z$^0 \rightarrow \mu\mu\gamma$ et recherches du boson de Higgs dans le canal H$\rightarrow \gamma\gamma$ dans l'expérience CMS au LHC (CERN)

Bondu, Olivier 10 October 2012 (has links) (PDF)
Le Large Hadron Collider (LHC) au CERN (Organisation Européenne pour la Recherche Nucléaire) fonctionne depuis 2009 à la frontière franco-suisse. Cet accélérateur de particules a produit des quantités importantes de collisions proton-proton, à des énergies dans le centre de masse de 7 TeV (2010 et 2011), et 8 TeV (depuis avril 2012). L'un des buts de l'expérience Compact Muon Solenoid (CMS), qui enregistre et analyse ces collisions, est la recherche de bosons de Higgs. Dans le cadre du Modèle Standard, cette particule serait le quantum du champ de Higgs, qui permet d'expliquer le mécanisme de brisure de symétrie électrofaible. Un canal parmi les plus sensibles pour la recherche d'un boson de Higgs léger (c'est-à-dire pour des masses du boson de Higgs entre 90GeV/c2 et 150GeV/c2) au LHC est la désintégration en deux photons. En effet, la production de deux photons isolés de haute énergie dans l'état final constitue un signal clair en milieu hadronique, malgré le faible rapport d'embranchement. De plus, à ces masses, la largeur du pic en masse invariante reconstruite est dominée par la résolution du détecteur. Une compréhension fine de l'objet photon, tel que reconstruit par l'expérience, est donc un pré requis obligatoire. La première partie de mes travaux de thèse porte sur l'étude des désintégrations radiatives Z$^0 \rightarrow \mu\mu\gamma$ ces désintégrations sont la seule source de photons certifiés de haute pureté du Modèle Standard, pour laquelle l'impulsion transverse des photons est relativement proche de celle prévue pour des photons issus d'un boson de Higgs. L'étude de ces désintégrations a permis la détermination de l'échelle d'énergie différentielle des photons dans les données à 7 TeV. Elles ont également été utilisées dans les données à 8 TeV comme outil de validation des variables de forme de cluster pour les photons dans la simulation, ainsi que pour déterminer l'efficacité des critères de réjection des électrons. La deuxième partie de mes travaux de thèse traite de la recherche d'un boson de Higgs se désintégrant en deux photons. Cette recherche est effectuée en plusieurs classes d'évènements pour améliorer la sensibilité, et l'étude de cette procédure de séparation en classes est présentée. Enfin, une analyse de faisabilité de recherche d'un boson de Higgs se désintégrant en deux photons, produit lors de la désintégration d'un quark vecteur lourd à 14 TeV a été effectuée.
12

Mesure de la section efficace de production de paires de quarks top dans le canal tau+jets dans l'expérience CMS auprès du LHC

Ferro, Cristina 14 May 2012 (has links) (PDF)
Cette thèse a pour sujet la mesure de la section efficace de production de paires de quarks top-antitop dans l'expérience CMS auprès du LHC. L'état final considéré est le canal semi-leptonique "tau+jets". Un boson W issu de la désintégration du quark top se désintègre en un tau hadronique et neutrino tandis que le second boson W se désintègre en une paire quark-antiquark. La conduite de cette analyse a nécessité le développement d'un nouveau mode de déclenchement des données (trigger) incluant la présence de quatre jets dont un identifié en tant que tau hadronique. La configuration de ce trigger ainsi que son efficacité ont été étudiés dans cette thèse. Un échantillon de données correspondant à 3.9 fb−1 a été enregistré avec ce trigger et analysé. Les leptons taus ont été reconstruits grâce à un algorithme identifiant leurs résonances intermédiaires tandis que les jets de quarks beaux issus de la désintégration des quarks tops ont été identifiés grâce à l'algorithme "probabilité par jet". Cet algorithme pour lequel j'ai mis en oeuvre une procédure de calibration depuis 2009 utilise le paramètre d'impact des traces de particules chargées pour calculer leur probabilité de venir du vertex primaire. Des études de performance de cet algorithme sont également présentées dans cette thèse. Afin de séparer le signal de l'important bruit de fond majoritairement constitué des processus multijets QCD et W+jets un réseau de neurones utilisant des variables dites d'environnement (aplanarité, HT, M(τ,jets), énergie transverse manquante...) a été développé. La section efficace a été extraite à l'aide d'un ajustement par méthode du maximum de vraisemblance de la sortie du réseau de neurones. Les incertitudes systématiques ont fait l'objet d'une étude détaillée. La valeur de la section efficace mesurée, σ(top-antitop) = 156 ± 12 (stat.) ± 33 (syst.) ± 3 (lumi) pb, est en accord avec la section efficace prédite par le modèle standard.
13

Étude des désintégrations radiatives Z →μμγ et recherches du boson de Higgs dans le canal H→γγ dans l’expérience CMS au LHC (CERN) / Study of radiative decays Z →μμγ and search for Higgs bosons in the H→γγ channel, in the CMS experiment at LHC (CERN)

Bondu, Olivier 10 October 2012 (has links)
Le Large Hadron Collider (LHC) au CERN (Organisation Européenne pour la Recherche Nucléaire) fonctionne depuis 2009 à la frontière franco-suisse. Cet accélérateur de particules a produit des quantités importantes de collisions proton-proton, à des énergies dans le centre de masse de 7 TeV (2010 et 2011), et 8 TeV (depuis avril 2012). L'un des buts de l'expérience Compact Muon Solenoid (CMS), qui enregistre et analyse ces collisions, est la recherche de bosons de Higgs. Dans le cadre du Modèle Standard, cette particule serait le quantum du champ de Higgs, qui permet d'expliquer le mécanisme de brisure de symétrie électrofaible. Un canal parmi les plus sensibles pour la recherche d'un boson de Higgs léger (c'est-à-dire pour des masses du boson de Higgs entre 90GeV/c2 et 150GeV/c2) au LHC est la désintégration en deux photons. En effet, la production de deux photons isolés de haute énergie dans l'état final constitue un signal clair en milieu hadronique, malgré le faible rapport d'embranchement. De plus, à ces masses, la largeur du pic en masse invariante reconstruite est dominée par la résolution du détecteur. Une compréhension fine de l'objet photon, tel que reconstruit par l'expérience, est donc un pré requis obligatoire. La première partie de mes travaux de thèse porte sur l'étude des désintégrations radiatives Z$^0 \rightarrow \mu\mu\gamma$ ces désintégrations sont la seule source de photons certifiés de haute pureté du Modèle Standard, pour laquelle l'impulsion transverse des photons est relativement proche de celle prévue pour des photons issus d'un boson de Higgs. L'étude de ces désintégrations a permis la détermination de l'échelle d'énergie différentielle des photons dans les données à 7 TeV. Elles ont également été utilisées dans les données à 8 TeV comme outil de validation des variables de forme de cluster pour les photons dans la simulation, ainsi que pour déterminer l'efficacité des critères de réjection des électrons. La deuxième partie de mes travaux de thèse traite de la recherche d'un boson de Higgs se désintégrant en deux photons. Cette recherche est effectuée en plusieurs classes d'évènements pour améliorer la sensibilité, et l'étude de cette procédure de séparation en classes est présentée. Enfin, une analyse de faisabilité de recherche d'un boson de Higgs se désintégrant en deux photons, produit lors de la désintégration d'un quark vecteur lourd à 14 TeV a été effectuée / The Large Hadron Collider (LHC) at CERN (European Organisation for Nuclear Research) has been in operation since 2009 at the border between France and Switzerland. This particle accelerator has provided a significant quantity of proton-proton collisions, at center of mass energies of 7 TeV (2010 and 2011) and 8 TeV (since April 2012). One of the purposes of the Compact Muon Solenoid (CMS) experiment, which records and analyses those collisions, is the search for Higgs bosons. In the Standard Model, this particle would be the quantum of the Higgs field, thought to explain the electroweak symmetry-breaking mechanism. One of the most sensitive channels for the search for a light Higgs boson (i.e. for masses between 90 GeV=c2 and 150 GeV=c2) at the LHC is through its decay into two photons. Indeed, the production of two highly energetic and isolated photons in the final state is a clean signal in hadronic collisions, despite the small branching ratio. Moreover, at these masses, the width of the reconstructed invariant mass peak is dominated by the detector resolution. Hence, a precise understanding of the photon object as reconstructed by the experiment is required. The first part of the work presented here is the study of radiative decays Z$^0 \rightarrow \mu\mu\gamma$ these decays are the only Standard Model source of high purity certified photons, for which the transverse momentum of the photon is relatively similar to the one of the photons coming from a Higgs boson decay. The study of these decays enables the determination of the differential photon energy scale in the 7 TeV data. These decays have also been used in the 8 TeV data as a validation tool of photon cluster shape variables in the simulation, and also as a way to determine the electron rejection criteria efficiency. The second part of the work concerns the search for a Higgs boson decaying into two photons. This search is done in several event classes in order to increase the sensitivity of the analysis, the study of the class separation procedure is presented. Finally, a benchmark study for the search for a Higgs boson decaying into two photons via vector-like top-partner decays at 14 TeV has been performed
14

Mesure de la section efficace de production de paires de quarks top dans le canal tau+jets dans l'expérience CMS auprès du LHC / Measurement of the tt production cross section in the tau+jets channel in pp collisions at √S=7TeV [sqrt(S)=7TeV]

Ferro, Cristina 14 May 2012 (has links)
Cette thèse a pour sujet la mesure de la section efficace de production de paires de quarks top-antitop dans l’expérience CMS auprès du LHC. L’état final considéré est le canal semi-leptonique ”tau+jets”. Un boson W issu de la désintégration du quark top se désintègre en un tau hadronique et neutrino tandis que le second boson W se désintègre en une paire quark-antiquark. La conduite de cette analyse a nécessité le développement d’un nouveau mode de déclenchement des données (trigger) incluant la présence de quatre jets dont un identifié en tant que tau hadronique. La configuration de ce trigger ainsi que son efficacité ont été étudiés dans cette thèse. Un échantillon de données correspondant à 3.9 fb−1 a été enregistré avec ce trigger et analysé. Les leptons taus ont été reconstruits grâce à un algorithme identifiant leurs résonances intermédiaires tandis que les jets de quarks beaux issus de la désintégration des quarks tops ont été identifiés grâce à l’algorithme ”probabilité par jet”. Cet algorithme pour lequel j’ai mis en oeuvre une procédure de calibration depuis 2009 utilise le paramètre d’impact des traces de particules chargées pour calculer leur probabilité de venir du vertex primaire. Des études de performance de cet algorithme sont également présentées dans cette thèse. Afin de séparer le signal de l’important bruit de fond majoritairement constitué des processus multijets QCD et W+jets un réseau de neurones utilisant des variables dites d’environnement (aplanarité, HT, M(τ,jets), énergie transverse manquante...) a été développé. La section efficace a été extraite à l’aide d’un ajustement par méthode du maximum de vraisemblance de la sortie du réseau de neurones. Les incertitudes systématiques ont fait l’objet d’une étude détaillée. La valeur de la section efficace mesurée, σ(top-antitop) = 156 ± 12 (stat.) ± 33 (syst.) ± 3 (lumi) pb, est en accord avec la section efficace prédite par le modèle standard. / In this thesis we present the first measurement in the CMS experiment of the top-antitop production cross section in the tau+jets final state. To perform this measurement we designed a specific trigger requiring the presence of four jets, one of them being identified as an hadronic tau. The performance of this trigger has been studied in this thesis. A dataset of 3.9 fb-1 was collected with this trigger and analyzed. At offline level we needed to apply a sophisticated tau identification technique to identify the tau jets, based on the reconstruction of the intermediate resonances of the hadronic tau decay modes. Another crucial point was the b-jet identification, both to identify the b-jets in the final state and to modelize the background using a data driven technique. The studies done on the b-tag algorithms along the PhD period are also presented with particular attention to the ”Jet Probability” algorithm. It is the algorithm for which I performed the calibration since 2009 as well as the one used to tag the b-jets from the top decays. A neural network has been developed to separate the top-antitop events from the W+jets and multijet backgrounds. A binned likelihood fit to the neural network output distribution is done in order to extract the signal contribution from the background. A detailed estimation of the systematic uncertainties on the cross section measurement is also presented. The result for the cross section measurement, σ(tt) = 156 ± 12 (stat.) ± 33 (syst.) ± 3 (lumi) pb, is in perfect agreement with the standard model expectation.
15

Recherche de leptoquarks de troisième génération dans l’expérience CMS au LHC / Search for third generation Leptoquarks in the CMS experiment at LHC

Chasserat, Julien 05 March 2014 (has links)
L'expérience CMS (Compact Muon Solenoid), construite sur l'anneau du LHC (Large Hadron Collider) a enregistré une quantité colossale de données provenant des collisions proton-proton de 2009 à 2012 à des énergies dans le centre de masse de 7 TeVet 8 TeV. Cette expérience est consacrée aux mesures de précision des paramètres du modèle standard, à l'étude du boson de Higgs ainsi qu'à la mise à l'épreuve de théories au-delà du modèle standard. Un certain nombre de ces théories prévoient l'existence de particules appelées leptoquarks, de nouveaux bosons se couplant à la fois aux leptons et au quarks. La première partie de cette thèse est consacrée à la présentation du Modèle Standard des particules et à une introduction théorique aux leptoquarks. La seconde présente brièvement le fonctionnement du LHC et de l'expérience CMS. La troisième partie est dédiée au travail effectué dans le groupe générateur de CMS au cours de la première année de ma thèse. Cette mission consistait principalement à générer et à valider massivement des évènements Monte-Carlo avec le logiciel Madgraph pour l'ensemble de la collaboration CMS. Enfin, la dernière partie porte sur l'analyse de données et la recherche de paires de leptoquarks scalaires de troisième génération. Trois canaux de désintégration des LQ sont envisagés : en quark top et lepton tau, en quark top et neutrino et enfin en quark top et muon. Cette étude est basée sur l'ensemble des données enregistrées par l 'expérience CMS au cours de l'année 2012. Ce qui représente une luminosité intégrée totale de 19,7 fb. Différentes sélections basées sur au moins un lepton et de nombreux jets sont examinées afin de définir les régions présentant les meilleures efficacités de signal par rapport au fond du Modèle Standard. Enfin, une optimisation des coupures sur des variables très discriminantes est réalisée afin d'obtenir les meilleures limites à 95% de confiance sur les sections efficaces de production des leptoquarks. Aucun excès significatif par rapport aux prévisions du modèle standard n'a pu être mis en évidence ce qui a permis de poser des limites sur les sections efficaces de production des leptoquarks. Les leptoquarks de troisième génération sont exclus jusqu'à des masses de 320 GeV à 95 % de niveau de confiance pour le canal top tau, jusqu'à 240 GeV pour le canal top nu et jusqu'à 910 GeV pour le canal top mu / Installed on the LHC (Large Hadron Collider) ring, the CMS experiment (Compact Muon Solenoid) recorded a great amount of proton-proton collisions data from 2009 to 2012 at center of mass energies of 7 TeV and 8 TeV. This experiment was designed for precise measurements of the Standard Model parameters, for Higgs boson studies and to test theories beyond the standard model. Some of these theories foresee the existence of leptoquarks which are new bosons with couplings to both leptons and quarks. The first part of this thesis is dedicated to a presentation of the Standard Model and to a leptoquarks theoretical introducion. The second one briefly explains how the LHC and the CMS experiment work. The third part details the work accomplished during the first year of my thesis in the CMS generator group. Finaly, the last one deals with data analysis and the search of third generation leptoquarks pair production. Three LQ desintegration channels are investigated : to a top quark and a tau lepton, to a top quark and a neutrino and at last to a top quark and a muon. This study is based on the full integrated luminosity recorded during 2012, namely 19.7 fb. Various selections requiring at least one lepton and several jets are scrutinized in order to identify the regions with best signal efficiency regarding to Standard model backgrounds. Finally, a selection optimisation on discriminative variables is performed to extract the best 95 No significative excess with respect to Standard Model expectations was found. Thus we were able to set limits on the leptoquarks pair production cross sections. Third generation leptoquarks with masses below 320 GeV, 240 GeV and 910 GeV are excluded for the top tau, top nu and top mu channels, respectively
16

Observation des photons directs dans les premières données et préparation à la recherche du boson de Higgs dans l'expérience CMS au LHC (CERN) / Observation of direct photons in first data and preparation for the Higgs boson searches in the CMS experiment at LHC (CERN)

Chanon, Nicolas 06 October 2010 (has links)
Le LHC (Large Hadron Collider) fournit aux expériences du CERN (Laboratoire Européen pour la Physique des Particules) des collisions proton-proton avec une énergie de 7 TeV dans le centre de masse depuis fin Mars 2010. Le LHC a en particulier été conçu pour permettre la recherche du boson de Higgs, particule prédite par le modèle standard encore jamais observée à ce jour, dans toute la gamme de masse où il est attendu. Ce travail de thèse est une contribution à la recherche du boson de Higgs dans CMS (Compact Muon Solenoid), l'un des quatre grands détecteurs placés auprès du LHC, et développe plusieurs outils qui permettent la mesure des bruits de fonds et l'amélioration du potentiel de découverte. Un nouvel outil de récupération des photons émis par les leptons dans l'état final de la désintégration H --> ZZ(*) ->4≪(≪=e mu) a été développé dans cette thèse. Cette méthode permet la récupération d'un nombre variable de photons par événements, donne une meilleure performance que la méthode précédemment utilisée dans CMS et permet l'amélioration de la résolution sur la masse des bosons Z0 et du boson de Higgs, ainsi qu'un gain de 5% sur la significance d'une observation du boson de Higgs dans ce canal. La deuxième partie de cette thèse traite de l'étude des bruits de fond et de la recherche d'un boson de Higgs léger (110 < mH < 140 GeV) dans le canal H --> γγ. Un nouvel outil de discrimination γ/πi0 à l'aide d'un réseau de neurone a été mis au point pour le rejet des photons provenant de la désintégration des π0 produits copieusement dans les jets de QCD. Les performances du réseau de neurone sont examinées dans le détail. Le réseau de neurone est alors utilisé comme variable "template" permettant la mesure du processus γ+X à partir des données avec 10 nb−1 de luminosité intégrée dans CMS. La mesure du processus γγ+X est aussi préparée à partir de la simulation dans l'hypothèse d'une luminosité intégrée de 10 pb−1. La prise en compte des effets cinématiques aux ordres supérieurs, nécessaire pour la prédiction la plus précise possible du signal H -> γγ et du bruit de fond, est effectuée dans cette thèse par la méthode de repondération, pour le gg -> H γγ processus au NNLO et pour la première fois pour le processus γγ +X au NLO, dans les deux cas à l'aide de distributions doublement différentielles. Les outils de repondération et de discrimination γ/π0 sont ensuite intégrés dans l'analyse pour améliorer la sensibilité de CMS à la recherche du boson de Higgs dans le canal H->γγ dans le modèle standard et au-delà, grâce à une paramétrisation effective développée par des phénoménologues avec lesquels nous avons travaillé. / The LHC (Large Hadron Collider) provides proton-proton collisions to CERN (European Organization for Nuclear Research) experiments at a 7 TeV center of mass energy since March 2010. The LHC has been designed in particular to allow the Higgs boson searches, particle predicted in the standard model but still not discovered until today, in the whole mass range where it is expected. This thesis is a contribution to the Higgs boson searches in CMS (Compact Muon Solenoid), one of the four big detectors at LHC. The thesis develops several tools which allow to measure the backgrounds and to improve the discovery potential. A new tool for recovery of photons emitted by leptons in the final state H --> ZZ(*) ->4≪(≪=eμ) has been developed in this thesis. This method recovers a variable number of photons per event, performs better than the method previously used in CMS and improves Z^0 and Higgs bosons mass resolution. A 5% gain on the significance to observe a Higgs boson in this channel is reached. The second part of this thesis deals with studies of the backgrounds and the searches for a light Higgs boson (110 < mH < 140 GeV) in the channel H --> γγ. A new tool for γ/πi0 discrimination with a neural network has been developed to reject photons coming from π0 decays, copiously produced in QCD jets. The neural network performance is examined in details. The neural network is then used as "template" variable to measure γ+X process in data with 10 nb−1 of integrated luminosity. The measurement of γγ+X process is also prepared with simulation in the luminosity hypothesis of 10 pb−1. Taking into account higher order kinematic effects is necessary to perform the best prediction of H -> γγ signal and backgrounds. In the thesis this is carried out with a reweighting method, at NNLO for gg -> H γγ process and for the first time at NLO for γγ +X process, in both cases with doubly differential distributions. Reweighting procedure and γ/πi0 neural network are then integrated in the H -> γγ analysis to improve CMS sensitivity in the standard model and beyond, thanks to an effective parameterization developed by phenomenologists we were working with

Page generated in 0.0583 seconds