Spelling suggestions: "subject:"laphysique dess particules"" "subject:"laphysique deus particules""
71 |
Analyse de la désintégration rare B0 ->K*0 e+e- dans l'expérience LHCbNicol, M. 05 December 2012 (has links) (PDF)
Grâce a la grande section efficace de production de paires b \bar b, LHC offre une excellente occasion de faire des études de courants neutre changeant la saveur. Ces transitions sont sensibles aux effets de nouvelle physique. Cette these porte sur l'analyse des événements B0 → K∗ 0 e+e− qui permettent de mesurer la fraction de photon avec une polarisation droite et donc de rechercher des signaux de nouvelle physique émis dans la transition b → sγ . En effet, dans le Modele Standard, la polarisation des photons est gauche. La paire e+e−, lors que la masse invariante de la paire de leptons est basse, provient d'un photon virtuel et permet donc de sonder la polarisation de celui-ci. Cette mesure se fait grâce a l'étude des distribution angulaires de cette désintégration a quatre corps. Une première étape est la mesure du rapport d'embranchement dans le domaine de masse 30-1000 MeV/c2 . En effet, cette désintégration n'a jamais été observée dans cette région, y compris auprès des usines a B a cause du très faible rapport d'embranchement. Cette analyse comportant des électrons de basse impulsion transverse est expérimentalement complexe dans un environnement tel que celui du LHC. La mesure est faite relativement au rapport d'embranchement de la désintégration B0 → J/ψ (e + e−)K∗0 . En effet, cela permet de s'affranchir de nombreux effets expérimentaux ainsi que de la détermination absolue des efficacites. Le résultat, repose sur les donnees collectees par LHCb en 2011 et correspondant a une luminosité intégrée de 1 fb−1 : B(B 0 → K∗ 0 e+e−)30−1000 MeV/c = (3.19+0.75 −0.68 (stat) ± 0.22(syst) ± 0.15(PDG)) × 10− 7 en utilisant la valeur PDG pour le rapport d'embranchement de la désintégration B0 → J/ψ (e + e−)K∗0 . La dernière partie de la thèse porte sur des études Monte Carlo qui montrent que la précision sur la fraction de photon avec une polarisation droite que l'on peut espérer obtenir avec l'inclusion des données de 2012 est d'environ 0.1, comparable a la moyenne mondiale obtenue avec des méthodes differentes.
|
72 |
Analyse de la désintégration rare B->K*ee dans l'expérience LHCbNicol, Michelle 05 December 2012 (has links) (PDF)
Grâce à la grande section efficace de production de paires bb, LHC offre une excellente occasion de faire des études de courants neutres changeant la saveur. Ces transitions sont sensibles aux effets de nouvelle physique. Cette thèse porte sur l'analyse des événements B->K*ee qui permettent de mesurer la fraction de photon avec une polarisation droite et donc de rechercher des signaux de nouvelle physique émis dans la transition b ->s. En effet, dans le Modèle Standard, la polarisation des photons est gauche. La paire e+e-, lors que la masse invariante de la paire de leptons est basse, provient d'un photon virtuel et permet donc de sonder la polarisation de celui-ci. Cette mesure se fait grâce à l'étude des distribution angulaires de cette désintégration à quatre corps. Une première étape est la mesure du rapport d'embranchement dans le domaine de masse 30-1000MeV=c2. En effet, cette désintégration n'a jamais été observée dans cette région, y compris auprès des usines a B a cause du très faible rapport d'embranchement. Cette analyse comportant des électrons de basse impulsion transverse est expérimentalement complexe dans un environnement tel que celui du LHC. La mesure est faite relativement au rapport d'embranchement de la désintégration B->J/Psi(ee)K*. En effet, cela permet de s'affranchir de nombreux effets expérimentaux ainsi que de la détermination absolue des efficacités. Le résultat, repose sur les données collectées par LHCb en 2011 et correspondant a une luminosité intégrée de 1 fb-1: B(B->K*ee)30-1000MeV = (3:19+0:75-0:68(stat) +/- 0:21(syst) =/-0.15(PDG)) x10-7 en utilisant la valeur PDG pour le rapport d'embranchement de la désintégration B->J/Psi(ee)K*. La dernière partie de la thèse porte sur des études Monte Carlo qui montrent que la précision sur la fraction de photon avec une polarisation droite que l'on peut espérer obtenir avec l'inclusion des données de 2012 est d'environ 0.1, comparable à la moyenne mondiale obtenue avec des méthodes différentes.
|
73 |
Tests phénoménologiques de la chromodynamique quantique perturbative à haute énergie au LHCDucloué, Bertrand 08 July 2014 (has links) (PDF)
Dans la limite des hautes énergies, la petite valeur de la constante de couplage de l'interaction forte peut être compensée par l'apparition de grands logarithmes de l'énergie dans le centre de masse. Toutes ces contributions peuvent être du même ordre de grandeur et sont resommées par l'équation de Balitsky-Fadin-Kuraev-Lipatov (BFKL). De nombreux processus ont été proposés pour étudier cette dynamique. L'un des plus prometteurs, proposé par Mueller et Navelet, est l'étude de la production de deux jets vers l'avant séparés par un grand intervalle en rapidité dans les collisions de hadrons. Un calcul BFKL ne prenant en compte que les termes dominants (approximation des logarithmes dominants ou LL) prédit une augmentation rapide de la section efficace avec l'augmentation de l'intervalle en rapidité entre les jets ainsi qu'une faible corrélation angulaire. Cependant, des calculs basés sur cette approximation ne purent pas décrire correctement les mesures expérimentales de ces observables au Tevatron. Dans cette thèse, nous étudions ce processus à l'ordre des logarithmes sous-dominants, ou NLL, en prenant en compte les corrections NLL aux facteurs d'impact, qui décrivent la transition d'un hadron initial vers un jet, et à la fonction de Green, qui décrit le couplage entre les facteurs d'impact. Nous étudions l'importance de ces corrections NLL et trouvons qu'elles sont très importantes, ce qui conduit à des résultats très différents de ceux obtenus à l'ordre des logarithmes dominants. De plus, ces résultats dépendent fortement du choix des échelles présentes dans ce processus. Nous comparons nos résultats avec des données récentes de la collaboration CMS sur les corrélations angulaires des jets Mueller-Navelet au LHC et ne trouvons pas un bon accord. Nous montrons que cela peut être corrigé en utilisant la procédure de Brodsky-Lepage-Mackenzie pour fixer le choix de l'échelle de renormalisation. Cela conduit à des résultats plus stables et une très bonne description des données de CMS. Finalement, nous montrons que, à l'ordre des logarithmes sous-dominants, l'absence de conservation stricte de l'énergie-impulsion (qui est un effet négligé dans un calcul BFKL) devrait être un problème beaucoup moins important qu'à l'ordre des logarithmes dominants.
|
74 |
Calculs de précision dans un modèle supersymétrique non minimal / Precision calculations in the next-to-minimal supersymmetric extension of the standard modelBizouard, Vincent 30 October 2015 (has links)
Malgré les nombreux succès du Modèle Standard de la physique des particules, plusieurs éléments montrent qu'il ne s'agit que d'une théorie effective à basse énergie. En effet, la masse des neutrinos et la matière noire ne sont pas expliqués dans ce modèle, qui ne prend pas en compte non plus la gravitation dont la version quantique n'a toujours pas été établie. De plus, les divergences quadratiques des corrections à la masse du boson de Higgs dans ce modèle pose un problème de naturalité. Tous ces problèmes indiquent la nécessité de trouver une nouvelle physique, qui doit être décrite par une extension du Modèle Standard. Une des possibilités est d'ajouter une nouvelle symétrie de l'espace-temps, la Supersymétrie, reliant les bosons et le fermions. Dans son extension miminale, la Supersymétrie permet déjà de résoudre le problème de la matière noire en proposant un candidat naturel, le neutralino, et de supprimer les dangereuses corrections quadratiques à la masse du boson de Higgs.Dans cette thèse, les travaux se sont concentrés sur une extension supersymétrique non minimale du Modèle Standard, le NMSSM. Afin de confronter la théorie aux expériences, il est nécessaire de calculer précisément les différentes observables. Ces calculs étant complexes, il est naturel de les automatiser, ce qui a été réalisé à l'aide du code SloopS. Avec ce code, nous avons pu dans un premier temps nous intéresser à la désintégration du boson de Higgs en un photon et un boson Z. Ce mode de désintégration a la particularité d'être généré directement à une boucle, ce qui le rend sensible à la présence de nouvelles particules. Il a commencé à être mesuré lors du Run 1 du LHC et les données vont continuer à s'accumuler avec le Run actuel (Run 2). La possibilité d'une déviation du signal mesuré avec celui prédit par le modèle Standard, requiert donc une analyse théorique préliminaire, que nous avons effectué dans le cadre du NMSSM. Nous nous sommes ensuite intéressé aux corrections radiatives pour des processus plus généraux.Il a d'abord fallu réaliser et implémenter la renormalisation dans SloopS afin de réguler les divergences apparaissant dans ces calculs à une boucle. Puis nous avons pu utiliser le modèle renormalisé pour calculer les corrections radiatives aux masses et largeurs de désintégration des différentes particules supersymétriques et des bosons de Higgs, en comparant les résultats obtenus dans différents schémas de renormalisation. / Although the Standard Model has been very successful so far, it presents several limitations showing that it is only an effective low energy theory. For example, the neutrino masses or dark matter are not predicted in this model. Gravity is also not taken into account and we expect that it plays a quantum role at energies around the Planck mass. Moreover, radiative corrections to the Higgs boson mass suffer from quadratic divergences. All these problems underline the fact that new physics should appear, and this has to be described by an extension of the Standard Model. One well-motivated possibility is to add a new space-time symetry, called Supersymmetry, which link bosons and fermions. In its minimal extension, Supersymmetry can already solve the dark matter paradox with a natural candidate, the neutralino, and provide a cancellation of the dangerous quadratic corrections to the Higgs boson mass.In this thesis, we focussed on the Next-to-Minimal SuperSymmetric extension of the Standard Model, the NMSSM. To compare theoretical predictions with experiments, physical observables must be computed precisely. Since these calculations are long and complex, automatisation is desirable. This was done by developping SloopS, a program to compute one-loop decay width and cross-section at one-loop order in Supersymmetry. With this code, we first analysed the decay of the Higgs boson in a photon and a Z boson. This decay mode is induced at the quantum level and thus is an interesting probe of new physics. Its measurement has been started during Run 1 of the LHC and is continued now in Run 2. The possibility of deviation between the measured signal strength and the one predicted by the Standard Model motivates a careful theoretical analysis in beyond Standard Models which we realised within the NMSSM. Our goal was to compute radiative corrections for any process in this model. To cancel the ultraviolet divergences appearing in higher order computations, we had to carry out and implement the renormalisation of the NMSSM in SloopS. Finally, it was possible to use the renormalised model to compute radiatives corrections to masses and decay widths of Higgs bosons and supersymmetric particles in the NMSSM and to compare the results between different renormalisation schemes.
|
75 |
Recherche de nouveaux phénomènes dans les événements diphoton avec le détecteur ATLAS / Search for new phenomena in diphoton events with the ATLAS detectorBuat, Quentin 31 July 2013 (has links)
Dans cette thèse, je présente mes travaux de recherche réalisés avec les données de collision proton-proton enregistrées par le détecteur ATLAS. Les événements étudiés possèdent un état final avec au moins deux photons et une grande masse invariante du système diphoton. Le lot de données enregistré pendant l'année 2011 dans des collisions avec une énergie de 7 TeV dans le centre de masse proton-proton correspond à une luminosité intégrée d'environ 5 fb-1. Ces données ont été comparées aux prédictions du Modèle Standard de la Physique des Particules. En l'absence de différences significatives, des contraintes ont été imposées sur les paramètres de modèles prévoyant l'existence de dimensions supplémentaires. A titre d'exemple, le premier graviton de Kaluza-Klein du modèle de Randall-Sundrum a été contraint d'être plus massif que 2.23 TeV, améliorant d'environ 1 TeV la contrainte du Tevatron. Les résultats obtenus ont fait l'objet d'une publication de la part de la collaboration ATLAS. En 2012, le LHC a réalisé des collisions proton-proton avec une énergie dans le centre de masse de 8 TeV. En outre, la luminosité intégrée a été environ quatre fois supérieure qu'en 2011. Les résultats préliminaires obtenus avec ce lot de données sont présentés dans ce document. La revue interne de ces résultats au sein de la collaboration ATLAS est en cours en vue d'une publication en 2013. La détection et la caractérisation des électrons et des photons reposent essentiellement sur le calorimètre à argon liquide du détecteur ATLAS. La procédure qui permet d'évaluer la qualité des mesures de ces particules a été mise en place au début de la prise de données. Ma contribution à son élaboration est décrite dans ce document. / In this thesis, I describe my research based on proton-proton collision data collected by the ATLAS detector. The study uses events with at least two photons in the final state and a large invariant mass of the diphoton system. A dataset of proton-proton collisions at a center-of-mass energy of 7 TeV corresponding to an integrated luminosity of approximately 5 fb-1 has been recorded in 2011. This sample has been compared to the predictions of the Standard Model of Particle Physics. Given the good agreement of the data with these predictions, limits have been set on the parameters of models that postulate extra spatial dimensions. As an example, the lightest Kaluza-Klein graviton in the Randall-Sundrum model has been constrained to be more massive than 2.23 TeV, superseding the Tevatron limits by approximately 1 TeV. These results have been published by the ATLAS collaboration. In 2012, the LHC has delivered proton-proton collisions at a center-of-mass energy of 8 TeV. The corresponding integrated luminosity is four times larger than that of the 2011 dataset. Preliminary results based on this dataset are presented in this document. The ATLAS-internal review of these results is ongoing, and a publication is targeted for 2013. The detection and the characterization of electrons and photons are mainly based on the liquid argon calorimeter of the ATLAS detector. A procedure to assess the quality of the measurements of these particles has been established at the beginning of the data taking. My contributions to its development are described in this document.
|
76 |
Search for the standard Higgs boson produced in association with a pair of top quark in the multi-leptons channel in the CMS experiment / Recherche du boson de Higgs standard produit en association avec une paire de quarks top dans le canal multi-leptons dans l'expérience CMSCoubez, Xavier 15 September 2017 (has links)
La découverte en 2012 de la dernière particule élémentaire prédite par le Modèle Standard, le boson de Higgs, a ouvert une nouvelle ère en physique des particules. L’un des objectifs est désormais de sonder les couplages du boson de Higgs aux autres particules afin de confirmer la validité du modèle. Le travail de cette thèse a porté dans un premier temps sur l’identification de jets issus de quark b dès le système de déclenchement. L’objectif est de permettre de sélectionner un millier d’événements parmi les quarante millions produits chaque seconde au LHC en identifiant des objets présents dans l’état final de processus de physique intéressants tels que la production associée d’un boson de Higgs se désintégrant en paire de quark b avec un boson Z se désintégrant en neutrinos non détectés. Dans un second temps, l’étude du couplage du boson de Higgs au quark top, particule la plus massive au sein du Modèle Standard a été réalisée. Après l’étude d’un bruit de fond important de la production associée d’un boson de Higgs et d’une paire de quarks top, une nouvelle méthode a été utilisée pour améliorer la discrimination entre le signal et les principaux bruits de fond. Cette analyse a conduit à la première évidence expérimentale du couplage entre le boson de Higgs et le quark top. / The discovery in 2012 of the last elementary particle predicted by the Standard Model, the Higgs boson, has opened a new era in particle physics. One of the objectives now is to probe the coupling of the Higgs boson to other particles in order to confirm the validity of the model. The work of this thesis focused initially on the identification of jets coming from b quark at trigger level. The goal is to allow for the selection of one thousand events among the forty million produced every second at the LHC, by identifiying objects present in the final states of interesting physics processes such as the associated production of a Higgs boson decaying in a pair of b quark with a Z boson decaying into undetected neutrinos. The work then moved to the study of the coupling of the Higgs boson to the quark top, most massive particle in the Standard Model. After a study of one of the important background of the associated production of the Higgs boson and a top quark pair, a new method called matrix element method has been used to improve the discrimination between signal and background. This analysis has led to the first experimental evidence of coupling between the Higgs boson and the top quark.
|
77 |
Calorimétrie à argon liquide et recherche de nouvelle physique via l'étude de paires de quarks top boostés dans l'expérience ATLAS au LHC / Liquid argon calorimetry and search for new physics using boosted top quarks with the ATLAS experiment at the LHCCamincher, Clément 06 October 2017 (has links)
Le modèle standard de la physique des particules, bien qu'étant une réussite incontestable n'explique toujours pas certaines observations, ce qui pourrais indiquer la présence d'une nouvelle physique. L'expérience ATLAS cherche à mettre en évidence ces nouveaux phénomènes en analysant les collisions de protons du LHC.Le prérequis pour toute analyse est d'avoir des données de bonne qualité. La première partie de cette thèse présente donc une étude sur les bouffées de bruit cohérent présentes dans les calorimètres à argon liquide d'ATLAS. Ce bruit a été traité pour garder un haut niveau de qualité des données.La deuxième partie de cette thèse se place dans le cadre de la recherche de nouvelle physique. Une résonance est cherchée dans le spectre en masse invariante des paires de quarks top. L'étude se concentre sur le cas des quarks top boostés se désintégrant de manière électronique. Cette topologie n'ayant jusqu'à présent pas été optimisée par la collaboration ATLAS, le travail de cette thèse a consisté à définir et développer une nouvelle méthode appelée "electron-in-jet removal" permettant d'améliorer la reconstruction des quarks top dans un tel régime.Cette méthode donne accès à des électrons qui auparavant étaient rejetés. Il faut donc mesurer les facteurs correctifs à appliquer pour corriger les imperfections de la simulation de ces électrons. Des mesures préliminaires de facteurs d'échelle d'identification sur les électrons se trouvant dans un jets ont ainsi été menées. Deux méthodes sont présentées ainsi qu'une réflexion sur les perspectives à apporter à ces mesures. / The standard model of particle physics is a very predictive theory, but it still fails to explain some observations and so leads to the idea of the existence of new physics. To discover it experimentally, the ATLAS collaboration analyses the proton-proton collisions provided by the LHC.Analyses need data of good quality. Hence, the first part of this document describes a work to characterize the coherent noise bursts observed in the liquid argon calorimeters of the ATLAS experiment. Such noise has been studied and cured to ensure a high level of data quality.The second part of this thesis takes place in the context of a new physics search using top quark pairs. This study is focused on the case where boosted top quarks decay electronically. The reconstruction of top quarks in such cases was never optimized by the ATLAS collaboration. Therefore this study has lead to the definition and implementation of a new method called "electron-in-jet removal" improving significantly the top quark reconstruction in such topologies.This new method gives access to electrons that were previously removed. The correction factor applied to correct the imperfections of the simulation should then be computed for those electrons. Some preliminary measurements have been performed for the cases where the electron is within a jet. Two methods are presented as well as thoughts about future implementations.
|
78 |
Precision calculations in effective theories for Higgs production / Calculs de précision dans des théories effectives pour la physique du boson de HiggsDeutschmann, Nicolas 08 September 2017 (has links)
Après une introduction générale, ce manuscrit contient deux chapitres préliminaires, l'un décrivant le contexte physique et l'autre les techniques mathématiques utilisées lors de cette thèse.Nous présentons ensuite les travaux développés au cours de cette thèse. Nous commençons par l'extraction de la correction du couplage de Yukawa du quark bottom dans la théorie effective du boson de Higgs par un calcul de correspondance à deux boucles entre cette théorie effective et le modèle standard. Cette correction était la pièce manquante pour l'amélioration de la prédiction de la section efficace de production du boson de Higgs en association avec deux quarks bottom.Les deux chapitres suivants couvrent différents aspects du calcul de la correction au deuxième ordre de la section efficace de production d'un boson de Higgs par fusion de gluon dans la théorie effective du modèle standard. Nous présentons d'abord le calcul des corrections virtuelles de ce processus et exploitons la structure établie des divergences ultraviolettes à une boucle et des divergences infrarouges pour extraire un contre terme à deux boucles qui nous a permis de renormaliser l'amplitude, que nous avons ensuite prolongé analytiquement aux régions physiques.Nous combinons alors ce résultat avec le calcul automatique des corrections par émission réelles par le logiciel Madgraph5_aMC@NLO, qui a permis l'intégration de la section efficace. Nous présentons les résultats pour la section efficace totale et deux distributions de variables cinématiques et commentons l'impact des corrections radiatives sur ces prédictions / After a general introduction, this manuscript presents two preliminary chapters, describing first the physics context and the mathematical techniques used in this thesis.We then present the work performed in this thesis. We start with extraction of the power-suppressed of the Yukawa coupling of the bottom quark in the Higgs Effective Field Theory (HEFT) by a two-loop matching calculation between the Standard Model and the HEFT. This correction was the missing piece to improve the prediction of the production cross section of a Higgs boson in association to a pair of bottom quarks.The two next chapters present different aspects of the NLO corrections to Higgs boson production through gluon fusion in the standard model effective field theory. We first present the evaluation of the virtual corrections to this process and use the known one-loop ultraviolet and infrared divergence structure to extract a two-loop counterterm that allowed us to renormalize the amplitude, which we then analytically continued to the physical regions.We then combine this result with the automatic calculation of the real emission corrections in the program Madgraph5_aMC@NLO. The results are presented for the total cross section and differential distributions and comment on the effect of radiative corrections on these predictions
|
79 |
Muon to electron conversion, flavored leptogenesis and asymmetric dark matter in minimal extensions of the Standard ModelDhen, Mikaël 30 September 2015 (has links)
Il est clair que le Modèle Standard des particules élémentaires n'est pas complet. Parmi tous les indices d'une physique au-delà du Modèle Standard, la masse des neutrinos, l'asymétrie matière-antimatière de notre Univers et la matière noire constituent les trois contextes généraux de cette thèse.Le fait que les neutrinos soient massifs constitue la plus claire évidence d'une physique au-delà du Modèle Standard. La masse des neutrinos peut trouver une explication notamment dans le cadre des modèles favoris dits "modèles Seesaw". Ces modèles, en plus de générer une petite masse pour les neutrinos, génèrent aussi des processus dans lesquels la saveur d'un lepton chargé est changée, comme la désintégration d'un muon en un électron et un photon, ou la conversion d'un muon en un électron au sein d'un atome sans émission de neutrino. Ces processus sont importants car les expériences futures devraient atteindre des sensibilités impressionnantes sur leurs taux, mais aussi parce que leur observation confirmerait l'existence d'une physique nouvelle et pourrait peut-être discriminé parmi les différents modèles. Il est donc important d'avoir une expression analytique fiable du taux de ces processus dans le cadre de ces modèles Seesaw favoris. Dans la première partie de cette thèse, nous calculons l'expression du taux de conversion d'un muon en un électron au sein d'un atome dans le cadre des modèles Seesaw de type 1, et analysons la phénoménologie s'y rapportant. Ces modèles Seesaw, en plus de générer une petite masse pour les neutrinos et des processus changeant la saveur leptonique, permettent aussi la création de l'asymétrie matière-antimatière dans l'Univers, à travers le mécanisme dit de "leptogenèse". Selon ce mécanisme, une asymétrie leptonique aurait d'abord été créée, avant d'être partiellement transférée en une asymétrie baryonique. Dans la seconde partie de cette thèse, nous calculons et analysons la leptogenèse dans le cadre des modèles Seesaw de type 2 avec, pour la première fois, la prise en compte des effets de saveurs.Finalement, la troisième et dernière partie de cette thèse se concentre sur la possibilité de générer non seulement la matière baryonique à partir d'une asymétrie, mais aussi la matière noire. A cette fin, nous considérons le modèle dit "doublet inerte'', car il contient une interaction qui pourrait à priori générer de la matière noire à partir d'une asymétrie. Nous adressons dès lors la question suivante et y répondons: est-il possible de générer toute la matière noire à partir d'une asymétrie de matière noire dans le contexte du modèle doublet inerte ? / Option Physique du Doctorat en Sciences / info:eu-repo/semantics/nonPublished
|
80 |
Study of Triple-GEM detectors for the CMS muon spectrometer upgrade at LHC and study of the forward-backward charge asymmetry for the search of extra neutral gauge bosonsZenoni, Florian 27 April 2016 (has links)
Cette thèse de doctorat a pour cadre l’expérience CMS auprès du grand collisionneur de protons du CERN, le LHC. Le LHC, qui a permis la découverte en 2012 du boson de Brout-Englert-Higgs, est destiné à fonctionner pour encore 20 ans, avec une luminosité qui croîtra progressivement pour atteindre d’ici 2025 la valeur de 7.5 x 10^34 cm^-2 s^-1, c'est à dire environ cinq fois la valeur initialement prévue. Ceci a pour conséquence que les expériences doivent s’adapter et mettre à niveau une série de leurs composants et détecteurs. Une des prochaines mises à niveau de l’expérience CMS concerne les détecteurs Triple Gas Electron Multiplier (GEM) qui sont actuellement en développement pour la partie avant du spectromètre à muons de l’expérience. Ces détecteurs seront installés dans CMS durant le deuxième long arrêt du LHC, en 2018-2019, appelé LS2. Cette mise à niveau a pour but de contrôler les taux de déclenchement d’événements pour la détection de muons, grâce à la haute performance de ces détecteurs Triple GEM en présence de taux de particules extrêmement élevés (>1 kHz/cm^2). De plus, grâce à sa très bonne résolution spatiale (~250 um), la technologie GEM peut améliorer la reconstruction des traces de muons et la capacité d’identification du détecteur avant.Le but de mon travail de recherche est d’estimer la sensitivité des Triple GEMs à l’environnement de radiation hostile dans CMS, essentiellement composé de neutrons et de photons produits lors des interactions entre les particules et les détecteurs constituant l’expérience CMS. L’estimation précise de cette sensitivité est très importante, car une sous-estimation pourrait avoir des effets désastreux pour l’efficacité des Triple GEMs une fois installés dans CMS. Pour valider mes simulations, j’ai également reproduit des résultats expérimentaux obtenus avec d’autres détecteurs similaires déjà installés dans CMS, tels que les Resistive Plate Chambers (RPC).La deuxième partie de mon travail concerne l’étude de la capacité de l’expérience CMS à discerner différents modèles de nouvelle physique prédisant l’existence de bosons vecteurs, appelés Z'. Ces modèles font partie des extensions plausibles du Modèle Standard. En particulier, l’analyse se concentre sur des simulations dans lesquelles le Z' se désintègre en deux muons, et sur l’impact que les mises à niveau avec les détecteurs Triple GEM apporteront à ces mesures tout le long de la phase de haute intensité du LHC. Mes simulations montrent que plus de 20% des événements simulés comptent au moins un muon dans la région en pseudo-rapidité (eta) de CMS couverte par les détecteurs Triple GEM. Les résultats préliminaires démontrent que, dans le case de modèles à 3 TeV/c^2, il sera possible dès la fin de la Phase I de distinguer un Z'I d'un Z'SSM avec un niveau de signification alpha > 3 sigma. / This PhD thesis takes place in the CMS experiment at CERN's Large Hadron Collider (LHC). The LHC allowed the discovery of the Brout-Englert-Higgs boson in 2012, and is designed to run for at least 20 years, with an increasing luminosity that will reach by 2025 a value of 7.5 x 10^34 cm^-2 s^-1, that is a yield five times greater than the one initially intended. As a consequence, the experiments must adapt and upgrade many of their components and particle detectors. One of the foreseen upgrades of the CMS experiment concerns the Triple Gas Electron Multiplier (GEM) detectors, currently in development for the forward muon spectrometer. These detectors will be installed in CMS during the second long LHC shutdown (LS2), in 2018-2019. The aim of this upgrade is to better control the event trigger rate at Level 1 for muon detection, thanks to the high performance of these Triple GEM detectors, in presence of very high particle rates (>1 kHz/cm^2). Moreover, thanks to its excellent spatial resolution (~250 um), the GEM technology can improve the muon track reconstruction and the identification capability of the forward detector.The goal of my research is to estimate the sensitivity of Triple GEMs to the hostile background radiation in CMS, essentially made of neutron and photons generated by the interaction between the particles and CMS detectors. The accurate evaluation of this sensitivity is very important, as an underestimation could have ruinous effects of the Triple GEMs efficiency, once they are installed in CMS. To validate my simulations, I have reproduced experimental results obtained with similar detectors already installed in CMS, such as the Resistive Plate Chambers (RPC).The second part of my work regards the study of the CMS experiment capability to discriminate between different models of new physics predicting the existence of neutral vector bosons called Z'. These models belong to plausible extensions of the Standard Model. In particular, the analysis is focused on simulated samples in which the Z' decays in two muons, and on the impact that the Triple GEM detectors upgrades will bring to these measurements during the high luminosity phase of the LHC, called Phase II. My simulations prove that more than 20% of the simulated events see at least one muon in the CMS pseudo-rapidity (eta) region covered by Triple GEM detectors. Preliminary results show that, in the case of 3 TeV/c^2 models, it will be possible already at the end of Phase I to discriminate a Z'I from a Z'SSM with a significance level alpha > 3 sigma. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
|
Page generated in 0.0778 seconds