• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 71
  • 21
  • 7
  • Tagged with
  • 99
  • 65
  • 52
  • 49
  • 49
  • 49
  • 48
  • 43
  • 39
  • 36
  • 31
  • 27
  • 21
  • 17
  • 16
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Measurement of the CKM angle gamma in the B⁰->DK*⁰ decays using the Dalitz method in the LHCb experiment at CERN and photon reconstruction optimisation for the LHCb detector upgrade / Mesure de l'angle gamma de la matrice CKM dans les désintégrations B⁰->DK*⁰ en utilisant la méthode de Dalitz dans l'expérience LHCb au CERN et optimisation de la reconstruction des photons pour l'upgrade du détecteur LHCb

Vallier, Alexis 10 September 2015 (has links)
Le mélange des quarks est décrit dans le modèle standard de la physique des particules par le mécanisme de Cabibbo-Kobayashi-Maskawa (CKM). À ce jour, l'angle gamma du triangle d'unitarité est un des paramètres de ce mécanisme mesuré avec la moins bonne précision. La mesure de cet angle sert de référence pour le modèle standard, puisqu'elle peut être réalisée sans contribution significative de nouvelle physique. La précision actuelle de la meilleure mesure directe de gamma est d'environ 10°, alors que les ajustements globaux des paramètres CKM, potentiellement sujets à une contribution de nouvelle physique, déterminent cet angle à quelques degrés près. Par conséquent, une mesure directe précise de cette quantité est nécessaire pour contraindre d'avantage le triangle d'unitarité de la matrice CKM et ainsi tester la cohérence de ce modèle. Cette thèse présente une mesure de gamma par une analyse de Dalitz du canal B0->DK*0, avec une désintégration du méson D en K0Spipi. Elle est basée sur les 3 fb⁻¹ de données enregistrés par LHCb pendant le Run I du LHC, à une énergie de collision proton-proton dans le centre de masse de 7 et 8 TeV. Ce canal est sensible à gamma par l'interférence entre les transitions b->u et b->c. La mesure des observables de violation de CP réalisée est x- = -0.09 ^{+0.13}_{-0.13} ± 0.09 ± 0.01 , x+ = -0.10 ^{+0.27}_{-0.26} ± 0.06 ± 0.01 , y- = 0.23 ^{+0.15}_{-0.16} ± 0.04 ± 0.01 , y+ = -0.74 ^{+0.23}_{-0.26} ± 0.07 ± 0.01 , où le première incertitude est statistique, la deuxième est l'incertitude systématique expérimentale et la troisième est l'incertitude systématique venant du modèle de Dalitz. Une interprétation fréquentiste de ces observables donne rB0 = 0.39 ± 0.13 , deltaB0 = ( 186^{+24}_{-23} )° , gamma = ( 77^{+23}_{-24})° , où rB0 est le module du rapport des amplitudes des désintégrations supprimées et favorisées et deltaB0 la différence de phase forte entre ces deux désintégrations. Par ailleurs, un travail sur l'optimisation de la reconstruction des photons pour la mise à niveau du détecteur LHCb est aussi présenté. Lors du Run III du LHC, la luminosité instantanée reçue par LHCb sera augmentée d'un facteur cinq, générant un plus grand recouvrement entre les cascades se développant dans le calorimètre électromagnétique. L'étude montre que l'effet de ce recouvrement entre les gerbes est limité en réduisant la taille des clusters utilisés pour la détection des photons, tout en évitant une diminution significative de l'énergie reconstruite. Avec des corrections adaptées, la nouvelle reconstruction développée améliore la résolution en masse de 7 à 12%, suivant la région du calorimètre considérée. / Quark mixing is described in the standard model of particle physics with the Cabibbo-Kobayashi-Maskawa mecanism. The angle gamma of the unitarity triangle is one of the parameters of this mecanism that is still determined with a large uncertainty. It can be measured without significant contribution of new physics, making it a standard model key measurement. The current precision of the best direct measurement of gamma is approximately 10°, whereas the global fits of the CKM parameters determine this angle up to a few degrees. Therefore precise measurement of this quantity is needed to further constrain the Unitarity Triangle of the CKM matrix, and check the consistency of the theory. This thesis reports a measurement of gamma with a Dalitz analysis of the B0->DK*0 channel where the D meson decays into K0Spipi, based on the 3 fb⁻¹ of proton-proton collision data collected by LHCb during the LHC Run I, at the centre-of-mass energy of 7 and 8 TeV. This channel is sensitive to gamma through the interference between the b->u and b->c transitions. The CP violation observables are measured to be x- = -0.09 ^{+0.13}_{-0.13} ± 0.09 ± 0.01 , x+ = -0.10 ^{+0.27}_{-0.26} ± 0.06 ± 0.01 , y- = 0.23 ^{+0.15}_{-0.16} ± 0.04 ± 0.01 , y+ = -0.74 ^{+0.23}_{-0.26} ± 0.07 ± 0.01 , where the first uncertainty is statistical, the second is the experimental systematic uncertainty and the third is the systematic uncertainty due to the Dalitz model. A frequentist interpretation of these observables leads to rB0 = 0.39±0.13 , deltaB0 = ( 186^{+24}_{-23} )°, gamma = ( 77^{+23}_{-24} )° , where rB0 is the magnitude of the ratio between the suppressed and favoured decays and deltaB0 the strong phase difference between these two decays. In addition, the work performed on the optimisation of the photon reconstruction for the upgraded LHCb detector is reported. During LHC Run III, the LHCb instantaneous luminosity will be increased by a factor five, implying a larger shower overlap in the electromagnetic calorimeter. The study shows that reducing the cluster size used in the photon reconstruction limits the effect of the overlap between the showers, without inducing a significant energy leakage. With some dedicated corrections, the new cluster reconstruction improves the Bs->Phi gamma mass resolution by 7 to 12%, depending on the calorimeter region.
82

Recherche de technicouleur avec l'expérience ATLAS. Développement d'outils et étude des performances du calorimètre à argon liquide / Looking for Technicolor using ATLAS. Tools development and performances study of the Liquid Argon Calorimeter.

Helary, Louis 09 December 2011 (has links)
En 2011, le LHC a fourni près de 5 fb−1 de données aux expériences. Ces données ont été utilisées pour comprendre plus avant les détecteurs, leurs performances et effectuer des analyses de physique. Cette thèse est organisée en cinq chapitres. Le premier est une introduction théorique au Modèle Standard et à une de ses extensions possible : la TechniCouleur. Le deuxième chapitre donne un bref aperçu de l'accélérateur LHC et de l'expérience ATLAS. Dans le troisième chapitre, l'un des principaux sous-système de l'expérience ATLAS est présenté : le calorimètre à argon liquide. L'algorithme de contrôle de l'acquisition et de la qualité des données que j'ai développé au cours de ma thèse est également présenté. Le quatrième chapitre présente une étude des performances de la reconstruction des jets basée sur l'ensemble des données acquises en 2010. Cette étude a montré qu'en 2010, la résolution en énergie des jets dans le Monte-Carlo a été sous-estimée d'un facteur relatif d'environ 10% par rapport aux données. Cette étude a été ensuite reconduite pour évaluer l'impact de la réduction de la HV dans des zones du calorimètre sur la résolution en énergie des jets. Cet impact a été jugée négligeable. Pour des jets produits avec une rapidité |y| < 0.8, l'augmentation de la résolution en énergie due à la réduction de la HV, est évaluée à moins de 3 % pour un jet de pT = 30 GeV jet, et moins de 0,1 % pour un jet de pT = 500 GeV. Enfin, le dernier chapitre de cette thèse présente une étude de l'état final Wgamma. La contribution des différents processus du MS participant à cet état final a été estimée à partir du Monte Carlo et des données. Une recherche de résonances étroites a ensuite été effectuée en utilisant la distribution M(W,gamma) dans un intervalle [220,440] GeV, mais aucun écart significatif des prédictions du MS n'a été observé. Cette étude a permis de fixer des limites sur la production de particules TC correspondant à M(a_{T}) > 265 GeV ou M(\rho_{T}) > 243 GeV. / In 2011 the LHC has provided almost 5 fb-1 of data to the experiments. These data have been used to perform a deep commissioning of the detectors, understand the performances of the detector and perform physics analysis. This thesis is organized in five chapter. The first one is a theoretical introduction to the Standard Model and to one of its possible extension: the TechniColor. The second chapter gives a brief overview of the LHC and the ATLAS experiments. In the third chapter one of the key subsystem of the ATLAS experiment is presented: the LAr calorimeters. The monitoring of the data acquisition developed during my thesis is also presented in this chapter. The fourth chapter presents a study of the jet performances based on the data set acquired in 2010. This study has shown that in 2010, the Monte Carlo was underestimating the jet energy resolution by a relative factor of about $10\%$. This study was refocused to evaluate the impact of the reduced LAr HV area on the jet energy resolution. The impact of the HV reduced region was found to be negligible. For jets produced with a rapidity |y|<0.8, the increase of energy resolution due to the HV reduction, is evaluated at less than 3% for a pT=30 GeV jet, and less than 0.1% for a pT=500 GeV jet. Finally the last chapter of this thesis present a study of the Wgamma final state. The standard model backgrounds contributing to this final state were estimated from Monte Carlo and from data. A search for narrow resonances was then conducted using the M(Wgamma) distribution in a range [220,440] GeV, but no significant deviation from the SM was observed. This study has allowed to set limits on the production of TC particles corresponding to M(a_{T}) > 265 GeV or M(\rho_{T}) > 243 GeV.
83

Dispositif expérimental pour la diffusion compton virtuelle dans le régime profondément inélastique dans le Hall A au Jefferson Laboratory

Camsonne, A. 04 November 2005 (has links) (PDF)
L'expérience de diffusion Compton profondément virtuelle sur le proton (DVCS) du Hall A a pris le faisceau d'électrons de 5.757 GeV polarisé du Jefferson Laboratory de septembre à décembre 2004. Elle a utilisé un spectromètre à haute résolution associé à un calorimétre électromagnétique en fluorure de plomb et à un detecteur de protons tous deux spécialement con\c cus pour fonctionner à une haute luminosité de 10^37cm^-2s^-1 permettant de signer les<br />événements exclusifs sans ambiguïté. Trois mesures ont été effectuées a x_bjorken=0.32 constant pour 3 valeurs de Q^2 : 1.5 GeV^2, 1.91GeV^2, 2.32 GeV^2. Une électronique dédiée a aussi été mise en place permettant de résoudre l'empilement durant l'analyse ainsi q'un module de coïncidence électron photon. Les données de la cinématique à 2.32 GeV^2 et s=5.6GeV^2 ont permis d'extraire un résultat préliminaire pour la section efficace d'électroproduction exclusive de pi^0 sur le proton.
84

Première mesure de section efficace de production du boson W et de son asymétrie de charge avec l'expérience ATLAS

Petit, Elisabeth 23 September 2011 (has links) (PDF)
Le détecteur ATLAS est une expérience généraliste de physique des particules située à un point de collision du LHC, au CERN. Le détecteur est complet et opérationnel depuis juin 2008. La mise en oeuvre du système calorimétrique a alors été possible, grâce notamment à l'étude de la variable "énergie transverse manquante". Cette variable, indispensable aux mesures de précision du Modèle Standard et à la recherche de Nouvelle Physique, a ainsi pu être testée pour la première fois in situ. Le détecteur était prêt et a montré de bonnes performances lors des premières collisions du LHC à la fin de l'année 2009, en particulier avec l'étude de données dites de biais minimum. Avec les données de collisions, il a également été possible d'étudier des performances des électrons, notamment leurs variables d'identification, et la compréhension de la matière avant le calorimètre. Les premières collisions à une énergie de 7 TeV dans le centre de masse en 2010 ont permis d'étudier les propriétés des bosons W produits lors de ces collisions. Après seulement quelques mois de prise de données, l'on a pu observer et mesurer la section efficace de production de cette particule. L'enjeu principal de cette mesure a été l'estimation des erreurs systématiques dues à l'électron et à l'énergie transverse manquante. Avec toutes les données enregistrées en 2010, l'asymétrie de charge du boson W a également pu être mesurée. Cette mesure est importante pour la détermination des fonctions de distribution de partons dans le proton, données indispensables à la bonne compréhension des collisions hadroniques au LHC.
85

Observation des photons directs dans les premières données et préparation à la recherche du boson de Higgs dans l'expérience CMS au LHC (CERN)

Chanon, Nicolas 06 October 2010 (has links) (PDF)
Le LHC (Large Hadron Collider) fournit aux expériences du CERN (Laboratoire Européen pour la Physique des Particules) des collisions proton-proton avec une énergie de 7 TeV dans le centre de masse depuis fin Mars 2010. Le LHC a en particulier été conçu pour permettre la recherche du boson de Higgs, particule prédite par le modèle standard encore jamais observée à ce jour, dans toute la gamme de masse où il est attendu. Ce travail de thèse est une contribution à la recherche du boson de Higgs dans CMS (Compact Muon Solenoid), l'un des quatre grands détecteurs placés auprès du LHC, et développe plusieurs outils qui permettent la mesure des bruits de fonds et l'amélioration du potentiel de découverte. Un nouvel outil de récupération des photons émis par les leptons dans l'état final de la désintégration H --> ZZ(*) ->4$\ll (\ll= e\ mu)$ a été développé dans cette thèse. Cette méthode permet la récupération d'un nombre variable de photons par événements, donne une meilleure performance que la méthode précédemment utilisée dans CMS et permet l'amélioration de la résolution sur la masse des bosons Z0 et du boson de Higgs, ainsi qu'un gain de 5% sur la significance d'une observation du boson de Higgs dans ce canal. La deuxième partie de cette thèse traite de l'étude des bruits de fond et de la recherche d'un boson de Higgs léger (110 < mH < 140 GeV) dans le canal H --> $\gamma\gamma$. Un nouvel outil de discrimination $\gamma/\pi^i0$ à l'aide d'un réseau de neurone a été mis au point pour le rejet des photons provenant de la désintégration des $\pi^0$ produits copieusement dans les jets de QCD. Les performances du réseau de neurone sont examinées dans le détail. Le réseau de neurone est alors utilisé comme variable "template" permettant la mesure du processus $\gamma$+X à partir des données avec 10 nb−1 de luminosité intégrée dans CMS. La mesure du processus $\gamma\gamma+X$ est aussi préparée à partir de la simulation dans l'hypothèse d'une luminosité intégrée de 10 pb−1. La prise en compte des effets cinématiques aux ordres supérieurs, nécessaire pour la prédiction la plus précise possible du signal H -> $\gamma\gamma$ et du bruit de fond, est effectuée dans cette thèse par la méthode de repondération, pour le gg -> H $\gamma\gamma$ processus au NNLO et pour la première fois pour le processus $\gamma\gamma$ +X au NLO, dans les deux cas à l'aide de distributions doublement différentielles. Les outils de repondération et de discrimination $\gamma/\pi^0$ sont ensuite intégrés dans l'analyse pour améliorer la sensibilité de CMS à la recherche du boson de Higgs dans le canal H->$\gamma\gamma$ dans le modèle standard et au-delà, grâce à une paramétrisation effective développée par des phénoménologues avec lesquels nous avons travaillé.
86

Recherche indirecte et inclusive de matière noire avec le spectromètre spatial AMS-02

Brun, Pierre 08 June 2007 (has links) (PDF)
AMS02 est un détecteur de physique des particules destiné à 3 ans de prise de données sur la Station Spatiale Internationale. Il permettra de mesurer simultanément les flux de rayons cosmiques chargés et de photons entre 1 GeV et 1 TeV, avec une grande capacité d'identification. Les performances de ce spectromètre se fondent sur la redondance des mesures de sous-détecteurs spécifiques: un compteur de temps de vol, un détecteur à rayonnement de transition, un trajectographe au Silicium entouré d'un aimant supra-conducteur, un compteur Cerenkov et un calorimètre électromagnétique (Ecal).<br /><br />Le Ecal fait l'objet d'études détaillées, avec la qualification d'un système autonome de déclenchement de l'acquisition dédié à l'astronomie gamma. Il permet d'augmenter la sensibilité aux photons et d'améliorer la reconstruction des événements électromagnétiques. La partie analogique du système de déclenchement a été testée sur banc et lors de deux tests en faisceau du Ecal au CERN. La calibration en vol du calorimètre avec des rayons cosmiques est étudiée, elle comprend deux volets : l'inter-calibration des canaux avec des protons au minimum d'ionisation et un étalonnage absolu avec des électrons. Dans les deux cas, de possibles procédures sont présentées, et les temps nécessaires à la calibration en vol sont calculés pour démontrer sa faisabilité.<br /><br />Une partie de cette thèse traite de la recherche indirecte de matière noire et de la sensibilité d'AMS02. Comptant pour 84% de la masse de l'Univers, la matière noire pourrait consister en de nouvelles particules. Agglomérées dans notre Galaxie, elles pourraient s'annihiler par paires et constituer une source exotique de rayons cosmiques primaires. La recherche d'excès dans les flux d'antiparticules (antiprotons, positons, antideutérons) et de rayons gamma semble la plus prometteuse. Un outil de calcul numérique est développé pour la prédiction des flux exotiques dans le cadre de la supersymétrie et de modèles à dimensions supplémentaires. Des études phénoménologiques concernant l'amplification du signal en présence de zones à haute densité de matière noire sont menées. Le cas particulier de la concentration de particules de matière noire dans le voisinage de trous noirs de masse intermédiaire est envisagé et fait l'objet de prédictions quantitatives. Enfin, les outils développés sont utilisés pour estimer la sensibilité d'AMS02, en particulier pour quantifier sa capacité à reconstruire l'état final d'annihilation en combinant les canaux, et ainsi remonter au modèle de nouvelle physique.
87

Étude de la pré-formation de particules α dans les noyaux de 40Ca et d'40Ar par cassure nucléaire

Lefebvre, Laurent 20 September 2013 (has links) (PDF)
Le noyau est un objet quantique complexe formé de protons et neutrons. Dans l'approche champ moyen, les nucléons sont considérés comme des particules indépendantes évoluant dans un potentiel moyen. Cependant dans certaines conditions, des nucléons peuvent se regrouper pour former des amas ou " clusters ".Pour comprendre ce phénomène de " clusters " dans les noyaux, nous avons étudié la structure dans l'état fondamental du 40Ca et de l'40Ar. En effet, des calculs théoriques tendent à montrer que les noyaux N = Z pourraient plus facilement adopter une structure en " clusters " que les noyaux N ≠ Z en raison d'un plus grand recouvrement des fonctions d'onde des neutrons et protons. Dans ce cas, l'émission de particules α par les noyaux N = Z sous l'effet du potentiel nucléaire attractif d'un noyau projectile, appelée " Towing-Mode " sera plus important que pour un noyau N ≠ Z. Dans ce but, nous avons réalisé une expérience au GANIL utilisant un faisceau d'40Ar à 35 MeV/A et une cible de 40Ca. Le spectromètre SPEG a permis d'identifier avec une très bonne résolution les ions lourds produits durant la réaction. Les détecteurs silicium MUST2 furent placés tout autour de la cible pour mesurer les particules α émises par la cible et le projectile et le prototype de calorimètre EXL fut utilisé pour la détection des photons de décroissance des noyaux résiduels d'36Ar et de 36S.Un modèle théorique basé sur la résolution de l'équation de Schrödinger dépendante du temps (TDSE) a été utilisé pour reproduire certains résultats expérimentaux comme les distributions angulaires. L'analyse des données a permis de reconstruire des spectres d'énergies d'excitation et des sections efficaces différentielles. De la comparaison entre ces distributions expérimentales et celles calculées par le modèle théorique, nous avons pu extraire des facteurs spectroscopiques Sα pour les deux noyaux d'intérêt. Les taux de " clusterisation " observés pour ces deux noyaux semblent indiquer que la structure en " clusters " n'est pas plus favorisée dans le 40Ca que dans l'40Ar.
88

Etude des désintégrations radiatives Z$^0 \rightarrow \mu\mu\gamma$ et recherches du boson de Higgs dans le canal H$\rightarrow \gamma\gamma$ dans l'expérience CMS au LHC (CERN)

Bondu, Olivier 10 October 2012 (has links) (PDF)
Le Large Hadron Collider (LHC) au CERN (Organisation Européenne pour la Recherche Nucléaire) fonctionne depuis 2009 à la frontière franco-suisse. Cet accélérateur de particules a produit des quantités importantes de collisions proton-proton, à des énergies dans le centre de masse de 7 TeV (2010 et 2011), et 8 TeV (depuis avril 2012). L'un des buts de l'expérience Compact Muon Solenoid (CMS), qui enregistre et analyse ces collisions, est la recherche de bosons de Higgs. Dans le cadre du Modèle Standard, cette particule serait le quantum du champ de Higgs, qui permet d'expliquer le mécanisme de brisure de symétrie électrofaible. Un canal parmi les plus sensibles pour la recherche d'un boson de Higgs léger (c'est-à-dire pour des masses du boson de Higgs entre 90GeV/c2 et 150GeV/c2) au LHC est la désintégration en deux photons. En effet, la production de deux photons isolés de haute énergie dans l'état final constitue un signal clair en milieu hadronique, malgré le faible rapport d'embranchement. De plus, à ces masses, la largeur du pic en masse invariante reconstruite est dominée par la résolution du détecteur. Une compréhension fine de l'objet photon, tel que reconstruit par l'expérience, est donc un pré requis obligatoire. La première partie de mes travaux de thèse porte sur l'étude des désintégrations radiatives Z$^0 \rightarrow \mu\mu\gamma$ ces désintégrations sont la seule source de photons certifiés de haute pureté du Modèle Standard, pour laquelle l'impulsion transverse des photons est relativement proche de celle prévue pour des photons issus d'un boson de Higgs. L'étude de ces désintégrations a permis la détermination de l'échelle d'énergie différentielle des photons dans les données à 7 TeV. Elles ont également été utilisées dans les données à 8 TeV comme outil de validation des variables de forme de cluster pour les photons dans la simulation, ainsi que pour déterminer l'efficacité des critères de réjection des électrons. La deuxième partie de mes travaux de thèse traite de la recherche d'un boson de Higgs se désintégrant en deux photons. Cette recherche est effectuée en plusieurs classes d'évènements pour améliorer la sensibilité, et l'étude de cette procédure de séparation en classes est présentée. Enfin, une analyse de faisabilité de recherche d'un boson de Higgs se désintégrant en deux photons, produit lors de la désintégration d'un quark vecteur lourd à 14 TeV a été effectuée.
89

Recherche de technicouleur avec l'expérience ATLAS. Développement d'outils et étude des performances du calorimètre à argon liquide

Helary, Louis 09 December 2011 (has links) (PDF)
En 2011, le LHC a fourni près de 5 fb−1 de données aux expériences. Ces données ont été utilisées pour comprendre plus avant les détecteurs, leurs performances et effectuer des analyses de physique. Cette thèse est organisée en cinq chapitres. Le premier est une introduction théorique au Modèle Standard et à une de ses extensions possible : la TechniCouleur. Le deuxième chapitre donne un bref aperçu de l'accélérateur LHC et de l'expérience ATLAS. Dans le troisième chapitre, l'un des principaux sous-système de l'expérience ATLAS est présenté : le calorimètre à argon liquide. L'algorithme de contrôle de l'acquisition et de la qualité des données que j'ai développé au cours de ma thèse est également présenté. Le quatrième chapitre présente une étude des performances de la reconstruction des jets basée sur l'ensemble des données acquises en 2010. Cette étude a montré qu'en 2010, la résolution en énergie des jets dans le Monte-Carlo a été sous-estimée d'un facteur relatif d'environ 10% par rapport aux données. Cette étude a été ensuite reconduite pour évaluer l'impact de la réduction de la HV dans des zones du calorimètre sur la résolution en énergie des jets. Cet impact a été jugée négligeable. Pour des jets produits avec une rapidité |y| < 0.8, l'augmentation de la résolution en énergie due à la réduction de la HV, est évaluée à moins de 3 % pour un jet de pT = 30 GeV jet, et moins de 0,1 % pour un jet de pT = 500 GeV. Enfin, le dernier chapitre de cette thèse présente une étude de l'état final Wgamma. La contribution des différents processus du MS participant à cet état final a été estimée à partir du Monte Carlo et des données. Une recherche de résonances étroites a ensuite été effectuée en utilisant la distribution M(W,gamma) dans un intervalle [220,440] GeV, mais aucun écart significatif des prédictions du MS n'a été observé. Cette étude a permis de fixer des limites sur la production de particules TC correspondant à M(a_{T}) > 265 GeV ou M(\rho_{T}) > 243 GeV.
90

Étude des désintégrations radiatives Z →μμγ et recherches du boson de Higgs dans le canal H→γγ dans l’expérience CMS au LHC (CERN) / Study of radiative decays Z →μμγ and search for Higgs bosons in the H→γγ channel, in the CMS experiment at LHC (CERN)

Bondu, Olivier 10 October 2012 (has links)
Le Large Hadron Collider (LHC) au CERN (Organisation Européenne pour la Recherche Nucléaire) fonctionne depuis 2009 à la frontière franco-suisse. Cet accélérateur de particules a produit des quantités importantes de collisions proton-proton, à des énergies dans le centre de masse de 7 TeV (2010 et 2011), et 8 TeV (depuis avril 2012). L'un des buts de l'expérience Compact Muon Solenoid (CMS), qui enregistre et analyse ces collisions, est la recherche de bosons de Higgs. Dans le cadre du Modèle Standard, cette particule serait le quantum du champ de Higgs, qui permet d'expliquer le mécanisme de brisure de symétrie électrofaible. Un canal parmi les plus sensibles pour la recherche d'un boson de Higgs léger (c'est-à-dire pour des masses du boson de Higgs entre 90GeV/c2 et 150GeV/c2) au LHC est la désintégration en deux photons. En effet, la production de deux photons isolés de haute énergie dans l'état final constitue un signal clair en milieu hadronique, malgré le faible rapport d'embranchement. De plus, à ces masses, la largeur du pic en masse invariante reconstruite est dominée par la résolution du détecteur. Une compréhension fine de l'objet photon, tel que reconstruit par l'expérience, est donc un pré requis obligatoire. La première partie de mes travaux de thèse porte sur l'étude des désintégrations radiatives Z$^0 \rightarrow \mu\mu\gamma$ ces désintégrations sont la seule source de photons certifiés de haute pureté du Modèle Standard, pour laquelle l'impulsion transverse des photons est relativement proche de celle prévue pour des photons issus d'un boson de Higgs. L'étude de ces désintégrations a permis la détermination de l'échelle d'énergie différentielle des photons dans les données à 7 TeV. Elles ont également été utilisées dans les données à 8 TeV comme outil de validation des variables de forme de cluster pour les photons dans la simulation, ainsi que pour déterminer l'efficacité des critères de réjection des électrons. La deuxième partie de mes travaux de thèse traite de la recherche d'un boson de Higgs se désintégrant en deux photons. Cette recherche est effectuée en plusieurs classes d'évènements pour améliorer la sensibilité, et l'étude de cette procédure de séparation en classes est présentée. Enfin, une analyse de faisabilité de recherche d'un boson de Higgs se désintégrant en deux photons, produit lors de la désintégration d'un quark vecteur lourd à 14 TeV a été effectuée / The Large Hadron Collider (LHC) at CERN (European Organisation for Nuclear Research) has been in operation since 2009 at the border between France and Switzerland. This particle accelerator has provided a significant quantity of proton-proton collisions, at center of mass energies of 7 TeV (2010 and 2011) and 8 TeV (since April 2012). One of the purposes of the Compact Muon Solenoid (CMS) experiment, which records and analyses those collisions, is the search for Higgs bosons. In the Standard Model, this particle would be the quantum of the Higgs field, thought to explain the electroweak symmetry-breaking mechanism. One of the most sensitive channels for the search for a light Higgs boson (i.e. for masses between 90 GeV=c2 and 150 GeV=c2) at the LHC is through its decay into two photons. Indeed, the production of two highly energetic and isolated photons in the final state is a clean signal in hadronic collisions, despite the small branching ratio. Moreover, at these masses, the width of the reconstructed invariant mass peak is dominated by the detector resolution. Hence, a precise understanding of the photon object as reconstructed by the experiment is required. The first part of the work presented here is the study of radiative decays Z$^0 \rightarrow \mu\mu\gamma$ these decays are the only Standard Model source of high purity certified photons, for which the transverse momentum of the photon is relatively similar to the one of the photons coming from a Higgs boson decay. The study of these decays enables the determination of the differential photon energy scale in the 7 TeV data. These decays have also been used in the 8 TeV data as a validation tool of photon cluster shape variables in the simulation, and also as a way to determine the electron rejection criteria efficiency. The second part of the work concerns the search for a Higgs boson decaying into two photons. This search is done in several event classes in order to increase the sensitivity of the analysis, the study of the class separation procedure is presented. Finally, a benchmark study for the search for a Higgs boson decaying into two photons via vector-like top-partner decays at 14 TeV has been performed

Page generated in 0.0639 seconds