• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 35
  • 9
  • 4
  • Tagged with
  • 48
  • 48
  • 36
  • 30
  • 30
  • 29
  • 27
  • 24
  • 18
  • 18
  • 16
  • 16
  • 16
  • 12
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Measurement of the CKM angle gamma in the B⁰->DK*⁰ decays using the Dalitz method in the LHCb experiment at CERN and photon reconstruction optimisation for the LHCb detector upgrade / Mesure de l'angle gamma de la matrice CKM dans les désintégrations B⁰->DK*⁰ en utilisant la méthode de Dalitz dans l'expérience LHCb au CERN et optimisation de la reconstruction des photons pour l'upgrade du détecteur LHCb

Vallier, Alexis 10 September 2015 (has links)
Le mélange des quarks est décrit dans le modèle standard de la physique des particules par le mécanisme de Cabibbo-Kobayashi-Maskawa (CKM). À ce jour, l'angle gamma du triangle d'unitarité est un des paramètres de ce mécanisme mesuré avec la moins bonne précision. La mesure de cet angle sert de référence pour le modèle standard, puisqu'elle peut être réalisée sans contribution significative de nouvelle physique. La précision actuelle de la meilleure mesure directe de gamma est d'environ 10°, alors que les ajustements globaux des paramètres CKM, potentiellement sujets à une contribution de nouvelle physique, déterminent cet angle à quelques degrés près. Par conséquent, une mesure directe précise de cette quantité est nécessaire pour contraindre d'avantage le triangle d'unitarité de la matrice CKM et ainsi tester la cohérence de ce modèle. Cette thèse présente une mesure de gamma par une analyse de Dalitz du canal B0->DK*0, avec une désintégration du méson D en K0Spipi. Elle est basée sur les 3 fb⁻¹ de données enregistrés par LHCb pendant le Run I du LHC, à une énergie de collision proton-proton dans le centre de masse de 7 et 8 TeV. Ce canal est sensible à gamma par l'interférence entre les transitions b->u et b->c. La mesure des observables de violation de CP réalisée est x- = -0.09 ^{+0.13}_{-0.13} ± 0.09 ± 0.01 , x+ = -0.10 ^{+0.27}_{-0.26} ± 0.06 ± 0.01 , y- = 0.23 ^{+0.15}_{-0.16} ± 0.04 ± 0.01 , y+ = -0.74 ^{+0.23}_{-0.26} ± 0.07 ± 0.01 , où le première incertitude est statistique, la deuxième est l'incertitude systématique expérimentale et la troisième est l'incertitude systématique venant du modèle de Dalitz. Une interprétation fréquentiste de ces observables donne rB0 = 0.39 ± 0.13 , deltaB0 = ( 186^{+24}_{-23} )° , gamma = ( 77^{+23}_{-24})° , où rB0 est le module du rapport des amplitudes des désintégrations supprimées et favorisées et deltaB0 la différence de phase forte entre ces deux désintégrations. Par ailleurs, un travail sur l'optimisation de la reconstruction des photons pour la mise à niveau du détecteur LHCb est aussi présenté. Lors du Run III du LHC, la luminosité instantanée reçue par LHCb sera augmentée d'un facteur cinq, générant un plus grand recouvrement entre les cascades se développant dans le calorimètre électromagnétique. L'étude montre que l'effet de ce recouvrement entre les gerbes est limité en réduisant la taille des clusters utilisés pour la détection des photons, tout en évitant une diminution significative de l'énergie reconstruite. Avec des corrections adaptées, la nouvelle reconstruction développée améliore la résolution en masse de 7 à 12%, suivant la région du calorimètre considérée. / Quark mixing is described in the standard model of particle physics with the Cabibbo-Kobayashi-Maskawa mecanism. The angle gamma of the unitarity triangle is one of the parameters of this mecanism that is still determined with a large uncertainty. It can be measured without significant contribution of new physics, making it a standard model key measurement. The current precision of the best direct measurement of gamma is approximately 10°, whereas the global fits of the CKM parameters determine this angle up to a few degrees. Therefore precise measurement of this quantity is needed to further constrain the Unitarity Triangle of the CKM matrix, and check the consistency of the theory. This thesis reports a measurement of gamma with a Dalitz analysis of the B0->DK*0 channel where the D meson decays into K0Spipi, based on the 3 fb⁻¹ of proton-proton collision data collected by LHCb during the LHC Run I, at the centre-of-mass energy of 7 and 8 TeV. This channel is sensitive to gamma through the interference between the b->u and b->c transitions. The CP violation observables are measured to be x- = -0.09 ^{+0.13}_{-0.13} ± 0.09 ± 0.01 , x+ = -0.10 ^{+0.27}_{-0.26} ± 0.06 ± 0.01 , y- = 0.23 ^{+0.15}_{-0.16} ± 0.04 ± 0.01 , y+ = -0.74 ^{+0.23}_{-0.26} ± 0.07 ± 0.01 , where the first uncertainty is statistical, the second is the experimental systematic uncertainty and the third is the systematic uncertainty due to the Dalitz model. A frequentist interpretation of these observables leads to rB0 = 0.39±0.13 , deltaB0 = ( 186^{+24}_{-23} )°, gamma = ( 77^{+23}_{-24} )° , where rB0 is the magnitude of the ratio between the suppressed and favoured decays and deltaB0 the strong phase difference between these two decays. In addition, the work performed on the optimisation of the photon reconstruction for the upgraded LHCb detector is reported. During LHC Run III, the LHCb instantaneous luminosity will be increased by a factor five, implying a larger shower overlap in the electromagnetic calorimeter. The study shows that reducing the cluster size used in the photon reconstruction limits the effect of the overlap between the showers, without inducing a significant energy leakage. With some dedicated corrections, the new cluster reconstruction improves the Bs->Phi gamma mass resolution by 7 to 12%, depending on the calorimeter region.
42

Observation des photons directs dans les premières données et préparation à la recherche du boson de Higgs dans l'expérience CMS au LHC (CERN)

Chanon, Nicolas 06 October 2010 (has links) (PDF)
Le LHC (Large Hadron Collider) fournit aux expériences du CERN (Laboratoire Européen pour la Physique des Particules) des collisions proton-proton avec une énergie de 7 TeV dans le centre de masse depuis fin Mars 2010. Le LHC a en particulier été conçu pour permettre la recherche du boson de Higgs, particule prédite par le modèle standard encore jamais observée à ce jour, dans toute la gamme de masse où il est attendu. Ce travail de thèse est une contribution à la recherche du boson de Higgs dans CMS (Compact Muon Solenoid), l'un des quatre grands détecteurs placés auprès du LHC, et développe plusieurs outils qui permettent la mesure des bruits de fonds et l'amélioration du potentiel de découverte. Un nouvel outil de récupération des photons émis par les leptons dans l'état final de la désintégration H --> ZZ(*) ->4$\ll (\ll= e\ mu)$ a été développé dans cette thèse. Cette méthode permet la récupération d'un nombre variable de photons par événements, donne une meilleure performance que la méthode précédemment utilisée dans CMS et permet l'amélioration de la résolution sur la masse des bosons Z0 et du boson de Higgs, ainsi qu'un gain de 5% sur la significance d'une observation du boson de Higgs dans ce canal. La deuxième partie de cette thèse traite de l'étude des bruits de fond et de la recherche d'un boson de Higgs léger (110 < mH < 140 GeV) dans le canal H --> $\gamma\gamma$. Un nouvel outil de discrimination $\gamma/\pi^i0$ à l'aide d'un réseau de neurone a été mis au point pour le rejet des photons provenant de la désintégration des $\pi^0$ produits copieusement dans les jets de QCD. Les performances du réseau de neurone sont examinées dans le détail. Le réseau de neurone est alors utilisé comme variable "template" permettant la mesure du processus $\gamma$+X à partir des données avec 10 nb−1 de luminosité intégrée dans CMS. La mesure du processus $\gamma\gamma+X$ est aussi préparée à partir de la simulation dans l'hypothèse d'une luminosité intégrée de 10 pb−1. La prise en compte des effets cinématiques aux ordres supérieurs, nécessaire pour la prédiction la plus précise possible du signal H -> $\gamma\gamma$ et du bruit de fond, est effectuée dans cette thèse par la méthode de repondération, pour le gg -> H $\gamma\gamma$ processus au NNLO et pour la première fois pour le processus $\gamma\gamma$ +X au NLO, dans les deux cas à l'aide de distributions doublement différentielles. Les outils de repondération et de discrimination $\gamma/\pi^0$ sont ensuite intégrés dans l'analyse pour améliorer la sensibilité de CMS à la recherche du boson de Higgs dans le canal H->$\gamma\gamma$ dans le modèle standard et au-delà, grâce à une paramétrisation effective développée par des phénoménologues avec lesquels nous avons travaillé.
43

Recherche indirecte et inclusive de matière noire avec le spectromètre spatial AMS-02

Brun, Pierre 08 June 2007 (has links) (PDF)
AMS02 est un détecteur de physique des particules destiné à 3 ans de prise de données sur la Station Spatiale Internationale. Il permettra de mesurer simultanément les flux de rayons cosmiques chargés et de photons entre 1 GeV et 1 TeV, avec une grande capacité d'identification. Les performances de ce spectromètre se fondent sur la redondance des mesures de sous-détecteurs spécifiques: un compteur de temps de vol, un détecteur à rayonnement de transition, un trajectographe au Silicium entouré d'un aimant supra-conducteur, un compteur Cerenkov et un calorimètre électromagnétique (Ecal).<br /><br />Le Ecal fait l'objet d'études détaillées, avec la qualification d'un système autonome de déclenchement de l'acquisition dédié à l'astronomie gamma. Il permet d'augmenter la sensibilité aux photons et d'améliorer la reconstruction des événements électromagnétiques. La partie analogique du système de déclenchement a été testée sur banc et lors de deux tests en faisceau du Ecal au CERN. La calibration en vol du calorimètre avec des rayons cosmiques est étudiée, elle comprend deux volets : l'inter-calibration des canaux avec des protons au minimum d'ionisation et un étalonnage absolu avec des électrons. Dans les deux cas, de possibles procédures sont présentées, et les temps nécessaires à la calibration en vol sont calculés pour démontrer sa faisabilité.<br /><br />Une partie de cette thèse traite de la recherche indirecte de matière noire et de la sensibilité d'AMS02. Comptant pour 84% de la masse de l'Univers, la matière noire pourrait consister en de nouvelles particules. Agglomérées dans notre Galaxie, elles pourraient s'annihiler par paires et constituer une source exotique de rayons cosmiques primaires. La recherche d'excès dans les flux d'antiparticules (antiprotons, positons, antideutérons) et de rayons gamma semble la plus prometteuse. Un outil de calcul numérique est développé pour la prédiction des flux exotiques dans le cadre de la supersymétrie et de modèles à dimensions supplémentaires. Des études phénoménologiques concernant l'amplification du signal en présence de zones à haute densité de matière noire sont menées. Le cas particulier de la concentration de particules de matière noire dans le voisinage de trous noirs de masse intermédiaire est envisagé et fait l'objet de prédictions quantitatives. Enfin, les outils développés sont utilisés pour estimer la sensibilité d'AMS02, en particulier pour quantifier sa capacité à reconstruire l'état final d'annihilation en combinant les canaux, et ainsi remonter au modèle de nouvelle physique.
44

Etude des désintégrations radiatives Z$^0 \rightarrow \mu\mu\gamma$ et recherches du boson de Higgs dans le canal H$\rightarrow \gamma\gamma$ dans l'expérience CMS au LHC (CERN)

Bondu, Olivier 10 October 2012 (has links) (PDF)
Le Large Hadron Collider (LHC) au CERN (Organisation Européenne pour la Recherche Nucléaire) fonctionne depuis 2009 à la frontière franco-suisse. Cet accélérateur de particules a produit des quantités importantes de collisions proton-proton, à des énergies dans le centre de masse de 7 TeV (2010 et 2011), et 8 TeV (depuis avril 2012). L'un des buts de l'expérience Compact Muon Solenoid (CMS), qui enregistre et analyse ces collisions, est la recherche de bosons de Higgs. Dans le cadre du Modèle Standard, cette particule serait le quantum du champ de Higgs, qui permet d'expliquer le mécanisme de brisure de symétrie électrofaible. Un canal parmi les plus sensibles pour la recherche d'un boson de Higgs léger (c'est-à-dire pour des masses du boson de Higgs entre 90GeV/c2 et 150GeV/c2) au LHC est la désintégration en deux photons. En effet, la production de deux photons isolés de haute énergie dans l'état final constitue un signal clair en milieu hadronique, malgré le faible rapport d'embranchement. De plus, à ces masses, la largeur du pic en masse invariante reconstruite est dominée par la résolution du détecteur. Une compréhension fine de l'objet photon, tel que reconstruit par l'expérience, est donc un pré requis obligatoire. La première partie de mes travaux de thèse porte sur l'étude des désintégrations radiatives Z$^0 \rightarrow \mu\mu\gamma$ ces désintégrations sont la seule source de photons certifiés de haute pureté du Modèle Standard, pour laquelle l'impulsion transverse des photons est relativement proche de celle prévue pour des photons issus d'un boson de Higgs. L'étude de ces désintégrations a permis la détermination de l'échelle d'énergie différentielle des photons dans les données à 7 TeV. Elles ont également été utilisées dans les données à 8 TeV comme outil de validation des variables de forme de cluster pour les photons dans la simulation, ainsi que pour déterminer l'efficacité des critères de réjection des électrons. La deuxième partie de mes travaux de thèse traite de la recherche d'un boson de Higgs se désintégrant en deux photons. Cette recherche est effectuée en plusieurs classes d'évènements pour améliorer la sensibilité, et l'étude de cette procédure de séparation en classes est présentée. Enfin, une analyse de faisabilité de recherche d'un boson de Higgs se désintégrant en deux photons, produit lors de la désintégration d'un quark vecteur lourd à 14 TeV a été effectuée.
45

Étude des désintégrations radiatives Z →μμγ et recherches du boson de Higgs dans le canal H→γγ dans l’expérience CMS au LHC (CERN) / Study of radiative decays Z →μμγ and search for Higgs bosons in the H→γγ channel, in the CMS experiment at LHC (CERN)

Bondu, Olivier 10 October 2012 (has links)
Le Large Hadron Collider (LHC) au CERN (Organisation Européenne pour la Recherche Nucléaire) fonctionne depuis 2009 à la frontière franco-suisse. Cet accélérateur de particules a produit des quantités importantes de collisions proton-proton, à des énergies dans le centre de masse de 7 TeV (2010 et 2011), et 8 TeV (depuis avril 2012). L'un des buts de l'expérience Compact Muon Solenoid (CMS), qui enregistre et analyse ces collisions, est la recherche de bosons de Higgs. Dans le cadre du Modèle Standard, cette particule serait le quantum du champ de Higgs, qui permet d'expliquer le mécanisme de brisure de symétrie électrofaible. Un canal parmi les plus sensibles pour la recherche d'un boson de Higgs léger (c'est-à-dire pour des masses du boson de Higgs entre 90GeV/c2 et 150GeV/c2) au LHC est la désintégration en deux photons. En effet, la production de deux photons isolés de haute énergie dans l'état final constitue un signal clair en milieu hadronique, malgré le faible rapport d'embranchement. De plus, à ces masses, la largeur du pic en masse invariante reconstruite est dominée par la résolution du détecteur. Une compréhension fine de l'objet photon, tel que reconstruit par l'expérience, est donc un pré requis obligatoire. La première partie de mes travaux de thèse porte sur l'étude des désintégrations radiatives Z$^0 \rightarrow \mu\mu\gamma$ ces désintégrations sont la seule source de photons certifiés de haute pureté du Modèle Standard, pour laquelle l'impulsion transverse des photons est relativement proche de celle prévue pour des photons issus d'un boson de Higgs. L'étude de ces désintégrations a permis la détermination de l'échelle d'énergie différentielle des photons dans les données à 7 TeV. Elles ont également été utilisées dans les données à 8 TeV comme outil de validation des variables de forme de cluster pour les photons dans la simulation, ainsi que pour déterminer l'efficacité des critères de réjection des électrons. La deuxième partie de mes travaux de thèse traite de la recherche d'un boson de Higgs se désintégrant en deux photons. Cette recherche est effectuée en plusieurs classes d'évènements pour améliorer la sensibilité, et l'étude de cette procédure de séparation en classes est présentée. Enfin, une analyse de faisabilité de recherche d'un boson de Higgs se désintégrant en deux photons, produit lors de la désintégration d'un quark vecteur lourd à 14 TeV a été effectuée / The Large Hadron Collider (LHC) at CERN (European Organisation for Nuclear Research) has been in operation since 2009 at the border between France and Switzerland. This particle accelerator has provided a significant quantity of proton-proton collisions, at center of mass energies of 7 TeV (2010 and 2011) and 8 TeV (since April 2012). One of the purposes of the Compact Muon Solenoid (CMS) experiment, which records and analyses those collisions, is the search for Higgs bosons. In the Standard Model, this particle would be the quantum of the Higgs field, thought to explain the electroweak symmetry-breaking mechanism. One of the most sensitive channels for the search for a light Higgs boson (i.e. for masses between 90 GeV=c2 and 150 GeV=c2) at the LHC is through its decay into two photons. Indeed, the production of two highly energetic and isolated photons in the final state is a clean signal in hadronic collisions, despite the small branching ratio. Moreover, at these masses, the width of the reconstructed invariant mass peak is dominated by the detector resolution. Hence, a precise understanding of the photon object as reconstructed by the experiment is required. The first part of the work presented here is the study of radiative decays Z$^0 \rightarrow \mu\mu\gamma$ these decays are the only Standard Model source of high purity certified photons, for which the transverse momentum of the photon is relatively similar to the one of the photons coming from a Higgs boson decay. The study of these decays enables the determination of the differential photon energy scale in the 7 TeV data. These decays have also been used in the 8 TeV data as a validation tool of photon cluster shape variables in the simulation, and also as a way to determine the electron rejection criteria efficiency. The second part of the work concerns the search for a Higgs boson decaying into two photons. This search is done in several event classes in order to increase the sensitivity of the analysis, the study of the class separation procedure is presented. Finally, a benchmark study for the search for a Higgs boson decaying into two photons via vector-like top-partner decays at 14 TeV has been performed
46

Observation des photons directs dans les premières données et préparation à la recherche du boson de Higgs dans l'expérience CMS au LHC (CERN) / Observation of direct photons in first data and preparation for the Higgs boson searches in the CMS experiment at LHC (CERN)

Chanon, Nicolas 06 October 2010 (has links)
Le LHC (Large Hadron Collider) fournit aux expériences du CERN (Laboratoire Européen pour la Physique des Particules) des collisions proton-proton avec une énergie de 7 TeV dans le centre de masse depuis fin Mars 2010. Le LHC a en particulier été conçu pour permettre la recherche du boson de Higgs, particule prédite par le modèle standard encore jamais observée à ce jour, dans toute la gamme de masse où il est attendu. Ce travail de thèse est une contribution à la recherche du boson de Higgs dans CMS (Compact Muon Solenoid), l'un des quatre grands détecteurs placés auprès du LHC, et développe plusieurs outils qui permettent la mesure des bruits de fonds et l'amélioration du potentiel de découverte. Un nouvel outil de récupération des photons émis par les leptons dans l'état final de la désintégration H --> ZZ(*) ->4≪(≪=e mu) a été développé dans cette thèse. Cette méthode permet la récupération d'un nombre variable de photons par événements, donne une meilleure performance que la méthode précédemment utilisée dans CMS et permet l'amélioration de la résolution sur la masse des bosons Z0 et du boson de Higgs, ainsi qu'un gain de 5% sur la significance d'une observation du boson de Higgs dans ce canal. La deuxième partie de cette thèse traite de l'étude des bruits de fond et de la recherche d'un boson de Higgs léger (110 < mH < 140 GeV) dans le canal H --> γγ. Un nouvel outil de discrimination γ/πi0 à l'aide d'un réseau de neurone a été mis au point pour le rejet des photons provenant de la désintégration des π0 produits copieusement dans les jets de QCD. Les performances du réseau de neurone sont examinées dans le détail. Le réseau de neurone est alors utilisé comme variable "template" permettant la mesure du processus γ+X à partir des données avec 10 nb−1 de luminosité intégrée dans CMS. La mesure du processus γγ+X est aussi préparée à partir de la simulation dans l'hypothèse d'une luminosité intégrée de 10 pb−1. La prise en compte des effets cinématiques aux ordres supérieurs, nécessaire pour la prédiction la plus précise possible du signal H -> γγ et du bruit de fond, est effectuée dans cette thèse par la méthode de repondération, pour le gg -> H γγ processus au NNLO et pour la première fois pour le processus γγ +X au NLO, dans les deux cas à l'aide de distributions doublement différentielles. Les outils de repondération et de discrimination γ/π0 sont ensuite intégrés dans l'analyse pour améliorer la sensibilité de CMS à la recherche du boson de Higgs dans le canal H->γγ dans le modèle standard et au-delà, grâce à une paramétrisation effective développée par des phénoménologues avec lesquels nous avons travaillé. / The LHC (Large Hadron Collider) provides proton-proton collisions to CERN (European Organization for Nuclear Research) experiments at a 7 TeV center of mass energy since March 2010. The LHC has been designed in particular to allow the Higgs boson searches, particle predicted in the standard model but still not discovered until today, in the whole mass range where it is expected. This thesis is a contribution to the Higgs boson searches in CMS (Compact Muon Solenoid), one of the four big detectors at LHC. The thesis develops several tools which allow to measure the backgrounds and to improve the discovery potential. A new tool for recovery of photons emitted by leptons in the final state H --> ZZ(*) ->4≪(≪=eμ) has been developed in this thesis. This method recovers a variable number of photons per event, performs better than the method previously used in CMS and improves Z^0 and Higgs bosons mass resolution. A 5% gain on the significance to observe a Higgs boson in this channel is reached. The second part of this thesis deals with studies of the backgrounds and the searches for a light Higgs boson (110 < mH < 140 GeV) in the channel H --> γγ. A new tool for γ/πi0 discrimination with a neural network has been developed to reject photons coming from π0 decays, copiously produced in QCD jets. The neural network performance is examined in details. The neural network is then used as "template" variable to measure γ+X process in data with 10 nb−1 of integrated luminosity. The measurement of γγ+X process is also prepared with simulation in the luminosity hypothesis of 10 pb−1. Taking into account higher order kinematic effects is necessary to perform the best prediction of H -> γγ signal and backgrounds. In the thesis this is carried out with a reweighting method, at NNLO for gg -> H γγ process and for the first time at NLO for γγ +X process, in both cases with doubly differential distributions. Reweighting procedure and γ/πi0 neural network are then integrated in the H -> γγ analysis to improve CMS sensitivity in the standard model and beyond, thanks to an effective parameterization developed by phenomenologists we were working with
47

Etude théorique et expérimentale des corrections électrofaibles au processus de production inclusive de jets. Développement de méthodes de détection de topologies extrêmes.

Meric, Nicolas 19 September 2013 (has links) (PDF)
Nous avons réalisé une étude du comportement des processus de production inclusive de jets et de production associée d'un boson vecteur faible et de jets du point de vue phénoménologique et expérimental dans le cadre de l'expérience ATLAS au LHC pour comprendre quel est l'impact des logarithmes de Sudakov dans les corrections electrofaibles et lors de la production associée de bosons vecteurs faibles et de jets au LHC. En particulier l'étude des corrections électrofaibles au processus de production inclusive de jets, du fait de l'émission de bosons faibles réels par les quarks a été réalisée à 7TeV, 8TeV et 14TeV à l'aide des générateurs MCFM et NLOjet++. Cette étude a permis de mettre en évidence, pour la mesure de la section efficace de production inclusive de jets, l'annulation partielle des corrections virtuelles électrofaibles (dans le cas où les bosons faibles interviennent dans les boucles) lorsque les corrections électrofaibles avec émission réelle de bosons faibles sont ajoutées. L'annulation de Bloch-Nordsieck est donc partiellement rétablie pour ce processus. Nous avons ensuite participé à la mesure des sections efficaces de production inclusive de jets et de production associée d'un boson vecteur avec au moins un jet, à une énergie de 7TeV dans le centre de masse de collision de protons avec l'expérience ATLAS au LHC. Nous avons, dans le cadre de ces mesures, étudié le bruit de fond QCD pour le processus W+jets dans le canal muonique. Les résultats obtenus dans le canal muonique ont ensuite été combinés et comparés afin de mettre en évidence le comportement des corrections électrofaibles liées à l' émission réelle d'un boson faible par les jets. En particulier, cette étude semble mettre en avant la présence de plusieurs effets qui augmentent la section efficace différentielle de production associée d'un boson faible et de jets. Cette étude est une étude préliminaire dont le but est de mettre en évidence l'intérêt de comparer les processus de production associée étudiés dans cette thèse avec les processus purement hadroniques. Finalement, une étude exhaustive des bruits de fond détecteur affectant le calorimètre électromagnétique a été réalisée. Cette étude a permis le développement d'une nouvelle méthode de détection temporelle et spatiale dans le but de détecter en toute circonstance la présence de tels bruits de fond dans les données. Nous présentons cette méthode dans une partie dédiée.
48

Study of the internal structure of the proton with the PANDA experiment at FAIR / Etude de la strucutre interne du proton avec l'experience PANDA à FAIR

Dbeyssi, Alaa 27 September 2013 (has links)
Le proton est un état lié de quarks qui sont maintenus ensemble par l’interaction forte dont les médiateurs sont les gluons. La compréhension de la structure du proton est actuellement l’une des questions centrales de laphysique hadronique. Le présent travail rend compte des études phénoménologiques et expérimentales reliées aux possibilités offertes par le faisceau d’antiprotons qui sera disponible au futur complexe accélérateur FAIR à Darmstadt, dans la gamme d’impulsion entre 1.5 et 15 GeV/c. Après une classification des réactions qui sont accessibles dans l’annihilation proton-antiproton, les caractéristiques principales du détecteur PANDA sont décrites. Un chapitre de cette thèse est consacré à l’étude du couplage optique entre les cristaux et les photo-diodes du calorimètre électromagnétique, qui sera exploité à basse température (-25° C). Les propriétés mécaniques, thermiques, optiques et la résistance aux radiations de deux colles commerciales sont quantifiées.Des études de faisabilité de la réaction pbarp → e+e− pour la mesure des facteurs de forme du proton dans la region temps à PANDA sont présentées. La structure électromagnétique du proton est parametrisée par ses facteurs de forme électrique GE et magnétique GM. L’interaction électromagnétique est bien décrite par la théorie de l’électrodynamique quantique. L’outil usuel pour déterminer les facteurs de forme électromagnétiques du proton est la diffusion élastique électron-proton polarisée et non polarisée, sous l’hypothèse que l’interaction se produit par l’échange d’un seul photon virtuel. La reaction croisée pbarp → e+e− permet d’accéder à la region temps. Les réactions du bruit de fond sont également étudiées, en particulier la réaction pbap → π+π−. Les résultats obtenus à partir d’une simulation Monte Carlo réaliste en utilisant le logiciel PANDARoot montre que le rapport des facteurs de forme du proton peut etre mesuré à PANDA avec une précision sans précédent. Les effets des corrections radiatives dus à l’émission de photons réels et virtuels sont considérés.Basé sur un formalisme modèle indépendant, le calcul des observables expérimentales pour la reaction pbap → e+e− est étendue à l’annihilation en une paire de leptons lourds qui porte la méme information physique sur la structure du proton que les électrons. Dans ce cas, la masse du lepton ne peut pas etre négligée. Le méme formalisme est également appliqué dans la région espace à la diffusion élastique des protons par des électrons au repos (cinématique inverse). La diffusion pe-élastique puisse etre utilisée pour polariser et/ou mesurer la polarisation des faisceaux de protons (antiprotons)de haute énergie, et elle permette également de mesurer le rayon de charge du proton. / The proton is a bound state of quarks which are held together by the strong force, mediated by gluons. The understanding of the proton structure is presently one of the central issues in hadron physics. The present work reports on phenomenological and experimental studies related to the possibilities offered by the future antiproton beam at the FAIR facility at Darmstadt, in the momentum range between 1.5 and 15 GeV/c. After a classification of the reaction channels which are accessible in antiproton-proton annihilation, the main features of the PANDA detector are described. A chapter of this thesis is dedicated to the study of the optical coupling between crystals and photodiodes in the electromagnetic calorimeter, which will be operated at low temperature (-25° C). Mechanical, thermal, optical properties and radiation hardness of two commercial glues are quantified.Feasibility studies of the reaction barp → e+e− for the Time-Like proton form factor measurements at PANDA are presented. The electromagnetic structure of the proton is parametrized in terms of electric GE and magnetic GM form factors. The electromagnetic interaction is well described by the theory of quantum electrodynamics. The traditional tool to determine proton electromagnetic form factors is polarized and unpolarized electron-proton elastic scattering, assuming that the interaction occurs through the exchange of one virtual photon. The crossed symmetry channels pbarp ↔ e+e− allowto access the Time-Like region. The background reactions are also studied, in particular the pbarp → π+π− channel. The results obtained from a realistic Monte Carlo simulation using PANDARoot show that the proton form factor ratio can be measured at PANDA with unprecedented accuracy. The effects of radiative corrections due to real and virtual photon emission are considered.Based on a model independent formalism, the calculation of the experimental observables for the pbarp → e+e− reaction is extended to the annihilation into a heavy lepton pair which carries the same physical information on the proton structure as the electrons. In this case, the lepton mass can not be neglected. The same formalism is also applied in Space-Like region to the elastic scattering of protons from electrons at rest (pe-inverse kinematics). We suggest that the elastic pe scattering can be used to polarize and/or to measure the polarization of high energy proton (antiproton) beams, and allows a precise measurement of the proton charge radius.

Page generated in 0.5025 seconds