• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 394
  • 163
  • 33
  • 22
  • 15
  • 10
  • 7
  • 7
  • 5
  • 4
  • 1
  • 1
  • Tagged with
  • 719
  • 389
  • 330
  • 193
  • 184
  • 166
  • 160
  • 146
  • 145
  • 140
  • 136
  • 118
  • 115
  • 110
  • 105
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

Determination of the absolute luminosity at the LHC

White, S. 11 October 2010 (has links) (PDF)
Les paramètres les plus importants décrivant les performances d'un collisionneur de particules sont l'énergie et la luminosité. Les hautes énergies permettent aux expériences de physique des particules d' étudier de nouveaux effets. La luminosité décrit la capacité du collisionneur à produire le nombre requis d'interactions utiles ou événements. Le Large Hadron Collider (Grand Collisionneur de Hadron) ou LHC a été conçu pour produire des collisions proton proton à une énergie dans le centre de masse de 14 TeV. Cette énergie est la plus haute jamais atteinte jusqu'alors dans un accélérateur de particules. Les connaissances et la compréhension de la physique des particules à de telles énergies sont basées sur des simulations et des prédictions théoriques. Contrairement aux collisionneurs électron positron pour lesquels la section efficace de diffusion de Bhabba peut être précisément calculée et utilisée pour calibrer la luminosité, il n'existe pas de processus ayant une section efficace bien connu et un taux de production suffisant pour être utilisé afin de calibrer la luminosité durant les premières années d'opération du LHC. La luminosité peut aussi être exprimée en fonction du nombre de charges par faisceau et leur taille au point d'interaction. Il est donc possible d'utiliser cette propriété afin de déterminer la luminosité à partir des paramètres machine. La détermination de la luminosité absolue a partir des paramètres machine est une méthode alternative à celle utilisant les sections efficaces et offre des informations complémentaires au modèle de fragmentation. Pour le LHC, il a été proposé d'utiliser la méthode développée par S. Van Der Meer à ISR afin d'offrir une calibration de la luminosité aux expériences de physique des particules durant les premières années d'opération. Cette thèse décrit comment cette méthodea été implémentée et utilisée pour la première fois au LHC afin d'optimiser et de calibrer la luminosité. Des études complémentaires d'optique linéaire et de dynamique faisceau ainsi que des mesures faites pour le collisionneur RHIC sont aussi décrites. Cette étude commence par un chapitre introductif qui reprend les notions de physique des accélérateurs nécessaire à la compréhension des chapitres suivants. Les équations décrivant les mouvements des particules dans un accélérateur circulaire sont rappelées ainsi que les principes de base d'optique linéaire. Des grandeurs caractéristiques du faisceau et de la machine telles que l'émittance ou le tune sont définies. Une brève introduction aux effets faisceau-faisceau est aussi présentée ces derniers étant inhérent aux collisionneurs de particules. Une description plus détaillée du concept de luminosité est donnée. Les équations générales de luminosité en présence d'effets tel qu'un angle de croisement sont dérivées. Enfin différentes méthodes permettant de déterminer la luminosité absolue sont présentées et le choix de la méthode de Van Der Meer pour les premiéres années d'opérations du LHC est expliqué. Le second chapitre se concentre sur la méthode de Van Der Meer. Le principe développé par S. Van Der Meer est décrit et plus particulièrement comment cette méthode offre une mesure directe de l'intégrale de recouvrement, décrivant la région d'interaction des deux faisceaux, sans avoir besoin de connaître les distributions initiales des faisceaux. L'impact des différents effets présentés dans le chapitre1 sur la précision de la mesure sont étudiés analytiquement afin de déterminer les paramètres faisceau optimaux pour une mesure de la luminosité absolue. Enfin une estimation de l'erreur sur la détermination de la luminosité basée sur des études numériques et les spécifications des instruments utilisés durant cette mesure est donnée. Le chapitre 3 présente le LHC et comment les principaux paramètres faisceau ont été choisis afin de délivrer une luminosité de 1034 cm−2 s−1 aux expériences ATLAS et CMS. Quelques dates clé de la mise en route du LHC sont rappelées afin de justifier l'orientation de certaines études présentées dans cette thèse et comment il a été nécessaire de s'adapter au changement de programme de mise en marche du LHC. Les différentes étapes permettant d'accélérer et de mettre les faisceaux en collision à partir de l'injection sont brièvement décrites. Dans le cadre de cette thèse des études concernant plus particulièrement la mise en collision des faisceaux dans le LHC. Des simulations de l'impact sur l'orbite des effets d'hystérésis présents dans les aimants permettant de déplacer les faisceaux au point d'interaction ainsi que la manière dont ceux-ci sont utilisés pour générer l'angle de croisement, la séparation ou l'optimisation des collisions sont décrites. Lors de la mise en collision des faisceaux de nombreux effets liés à la dynamique faisceau et plus particulièrement aux effets faisceau-faisceau entrent en jeux. Des simulations permettant de modéliser ces effets et de comprendre leur impact sur l' émittance ont été réalisées et seront aussi décrites dans ce chapitre. Le chapitre 4 donne une description des divers instruments utilisés lors de l'analyse des données permettant de déterminer la luminosité absolue. En principe, seules les mesures de courant sont nécessaires pour déterminer la luminosité. Des informations complémentaires et qui se sont révélées très utiles par la suite ont été données par d'autre instruments tel que les wire-scanner permettant de mesurer l' émittance ou les BPM permettant déterminer la trajectoire des faisceaux le long de l'anneau. Ces instruments sont donc aussi décrits dans ce chapitre. Enfin, le LHC est équipé de moniteurs de luminosité donc le but est de fournir des signaux robustes grâce auxquels il est possible d'optimiser la luminosité. Ce chapitre se termine donc sur une description détaillée de ces moniteur de luminosité et les simulations qui ont été faites a l'aide du logiciel FLUKA afin de déterminer les performances et l'efficacité de ces moniteurs à haute énergie. Le chapitre 5 présente les résultats des mesures effectuées sur le collisionneur RHIC (relativistic ion collider). Ces mesures ont été effectuées en 2009 alors que le LHC était stoppé suite à l'incident de Septembre 2008. RHIC présente certaines caractéristiques communes au LHC et représente donc un excellent test pour les futures mesures au LHC. La calibration de la luminosité par la méthode de Van Der Meer est aussi utilisée à RHIC, une collaboration avec ce laboratoire a donc été mise en place afin de profiter de l'expérience acquise par le passé dans ce laboratoire. Malgré certains paramètres faisceaux non optimisées pour une mesure de précision de la luminosité absolue il a été possible de déterminer celle-ci avec une précision de 7% dominée par l'erreur sur les mesures de courant et la détermination du déplacement des faisceaux. Une étude détaillée des différentes sources d'erreur ainsi que des propositions pour les réduire lors de futures mesures sont présentées. Les faisceaux du collisionneur RHIC ont un courant élevé ce qui n'est pas optimal pour la détermination de la luminosité absolue mais a permis d'observer certains effets faisceau-faisceau qui n'avaient pas été observé par le passé à RHIC et présentent donc un résultat très intéressant de ce chapitre. Le chapitre 7 présente les résultats obtenus en 2010 au LHC. L'année 2010 a été une année de beaucoup de premères pour le LHC auxquelles j'ai eu la chance de participer. J'ai notamment été impliqué dans l'établissement des premères collisions, les premières optimisations de luminosité. Ces trois contributions sont décrites dans ce chapitre ainsi que les outils développés afin de réaliser ces mesures et plus particulièrement le logiciel d'optimisation et de calibration de la luminosité qui est décrit plus en d étail dans les annexes. Enfin l'année 2010 a aussi vu la première calibration de la luminosité utilisant la méthode de Van Der Meer à 3.5TeV. Le protocole de la méthode est présenté ainsi qu'une étude détaillée des erreurs systématiques associées a cette méhode. Ces premières mesures ont permis de déterminer la luminosité avec une précision de 11% largement dominée par les mesures de courant des faisceaux. Pour terminer, des propositions pour améliorer la précision des futures mesures sont présentées. Le dernier chapitre de cette thèse présente des travaux effectués sur les optiques de beta élevés. Ces optiques ont été développées pour les expériences TOTEM et ATLAS et permettront de mesurer précisément les angles de diffusion élastiques des interactions proton-proton et ainsi déterminer leur section efficace. Cette méthode présente un alternative a la méthode de Van Der Meer et devrait en principe donner une mesure de section efficace avec une précision de quelques pour cents. Ces optiques étant très difficiles ils ne pourront pas être mis en place avant que le LHC atteigne son énergie nominale de 7TeV par faisceau. Des optiques intermédiaires ont donc aussi été développées et sont présentées brièvement dans ce dernier chapitre.
162

Recherche du ≪Petit Higgs≫ et développement des algorithmes de reconstruction dans ATLAS

Rousseau, D. 04 May 2007 (has links) (PDF)
Ce document résume les travaux de développements du framework et des algorithmes de reconstruction pour le détecteur ATLAS au LHC. Une riche bibliothèque d'algorithmes de reconstruction a été développée, dans un environnement qui s'est peu à peu complexifié. Le code de reconstruction, initialement conçu sur une simulation Monte-Carlo plutôt optimiste, est en train d'être confronté au réalisme d'une simulation fidèle à la construction effective du détecteur. Le ≪Petit Higgs≫ est une théorie effective qui peut être prise au premier degré, ou bien comme prétexte à l'étude de résonances lourdes. Dans plusieurs cas ces résonances peuvent effectivement être détectées, dans des canaux originaux comme tZ, ZH ou WH.
163

Etude de la désintégration du boson de Higgs dans le canal en quatre électrons dans le détecteur ATLAS

Dudziak, F. 23 September 2010 (has links) (PDF)
Cette thèse a pour objet l'étude de la désintégration du boson de Higgs dans le canal en H → Z Z^(∗) → 4e dans le détecteur ATLAS. Cette étude a commencé alors que le LHC n'était pas en fonctionnement et a donc porté principalement sur des simulations. Il est apparu rapidement qu'un des enjeux était les performances de reconstruction et d'identification des électrons. Ce travail porte donc principalement sur l'étude de la reconstruction des électrons, tout d'abord sur l'évaluation de l'impact de certains effets liés au rayonnement bremsstrahlung, puis sur l'amélioration de la reconstruction, et enfin sur l'optimisation de l'identification. Une optimisation des coupures d'identification des électrons a été effec- tuée afin de les rendre plus robustes et en harmonie avec le système de déclenchement, en prévision des premières données du LHC à 7 TeV. Cela a permis de gagner en efficacité de reconstruction des électrons tout en maintenant la réjection nécessaire des bruits de fond (hadrons, quarks lourds, photons convertis). En vue d'améliorer la reconstruction et l'identification, de nouvelles variables ont été proposées pour l'association entre trace et dépôt électromagnétique, moins sensibles à l'effet bremmstrahlung et plus dicriminantes avec les bruits de fond. En parallèle, l'impact de ces améliorations sur les performances de l'analyse H → Z Z^(∗) → 4e a été évalué à 40%. Il a été aussi proposé de modifier les coupures de sélection des évènements à quatre électrons afin d'optimiser le rapport signal sur bruit. Enfin, le démarrage du LHC a permis l'étude des premiers électrons issus d'évènements de biais minimum, et de désintégrations de bosons Z. La comparaison des variables caractéristiques (forme de gerbe, trace) des électrons a montré des désaccords par rapport aux simulations, et a permis de mettre en évidence des effets de désalignement entre le calorimètre électromagnétique et le détecteur interne de traces. Dans le même temps, l'accumulation de données a permis l'observation des premiers évènements Z → ee accompagnés d'électrons supplémentaires, ce qui inaugure les analyses des bruits de fond au signal H → Z Z^(∗) → 4e.
164

Tests of the standard model in photoproduction at HERA and the LHC

de Favereau de Jeneret, Jérôme 03 April 2009 (has links)
Photoproduction has been used at colliders for decades in order to study hadronic properties of matter. The energy and luminosity of recent and future colliders allow probing also the electroweak sector through photon-photon and photon-proton interactions. At the HERA electron-proton collider, studies of the W boson production provide a stringent test of the Standard Model. At the LHC, photoproduction has to be separated from the overwhelming background of partonic interactions. A powerful ‘tagging’ technique can be introduced by adding special detectors placed far from the interaction point to detect forward scattered protons, usually present in photon-mediated processes. The HECTOR software package was written in order to provide accurate simulation of forward protons trajectories in the LHC beam-lines. These tools have been used in order to study the photoproduction of top quarks via flavor-changing neutral currents. This process is practically absent in the Standard Model, while it appears in some of its extensions. Detection of such a process would thus be an evidence for the existence of physics beyond the Standard Model.
165

Detection of high energy electrons in the CMS detector at the LHC

Elgammal, Sherif Ismail Mohammed Abdel Aziz 10 November 2009 (has links)
Détection et identification de la réaction quark + anti-quark -> e+ + e- à l'aide du détecteur CMS (Compact Muon Solenoid) auprès du Grand Collisionneur de Hadrons du CERN, le LHC. Cette réaction permet de tester avec précision le Modèle Standard et de rechercher d'éventuelles nouvelles particules (Z') prédites par les théories de grande unification (GUT) et par les modèles à dimensions spatiales supplémentaires.
166

A Measurement of the Azimuthal Decorrelation in Di-jet Events in Proton-proton Collisions at √s = 7 TeV at the Large Hadron Collider

Rosenbaum, Gabriel 31 August 2011 (has links)
A measurement of the azimuthal decorrelation in di-jet events in proton-proton collisions at $\sqrt{s}= 7\,$TeV is presented. Using $19.6\,$nb$^{-1}$ of data collected in the ATLAS detector this measurement uses the angle ($\Delta\phi$) in the transverse plane between the two leading $p_T$ jets to measure the normalized differential cross section $\frac{1}{\sigma_{tot}}\frac{d\sigma}{d(\Delta\phi)}$. An unfolding correction is a applied to give a jet-level result. The unfolded spectrum is compared to the predictions of two Monte Carlo event generators: Pythia and Herwig++.
167

A Measurement of the Azimuthal Decorrelation in Di-jet Events in Proton-proton Collisions at √s = 7 TeV at the Large Hadron Collider

Rosenbaum, Gabriel 31 August 2011 (has links)
A measurement of the azimuthal decorrelation in di-jet events in proton-proton collisions at $\sqrt{s}= 7\,$TeV is presented. Using $19.6\,$nb$^{-1}$ of data collected in the ATLAS detector this measurement uses the angle ($\Delta\phi$) in the transverse plane between the two leading $p_T$ jets to measure the normalized differential cross section $\frac{1}{\sigma_{tot}}\frac{d\sigma}{d(\Delta\phi)}$. An unfolding correction is a applied to give a jet-level result. The unfolded spectrum is compared to the predictions of two Monte Carlo event generators: Pythia and Herwig++.
168

Verification of hadron interaction models of cosmic rays at 10**17 eV by the LHCf experiment

Itow, Y. 28 August 2008 (has links)
No description available.
169

Detection Prospects of Doubly Charged Higgs Bosons from the Higgs Triplet Model at the LHC

Lindahl, Viveca January 2011 (has links)
In this thesis I explore the possibilities of detecting doubly charged Higgs bosons from the Higgs Triplet Model (HTM) at the Large Hadron Collider (LHC) at CERN. Higgs bosons are included into the Standard Model (SM) of particle physics in order to explain the origin of mass of the elementary particles. Even though the SM is considered to be a reliable starting point for any particle theory, no Higgs particles have to this day been found. There are therefore high expectations for the record-breaking energies of the LHC to lead to a Higgs discovery. The HTM produces seven different Higgs bosons, and among these we find the doubly charged ones. Because of their exotic charge, I focus on studying these Higgs particles in particular. To this purpose, I implement the full HTM theory as an alternative model option in standard particle physics Monte-Carlo software and then simulate LHC proton-proton collisions at a center of mass energy of 14 TeV. The investigated signal is defined as two like-signed leptons, four hard jets and missing energy in the final state. The main production mechanisms are pair-production and associated production with a singly charged Higgs. Since I choose to study a region of parameter space where the triplet vacuum expectation value is relatively large, the doubly charged Higgs decays into W's and the singly charged Higgs into WZ or tb. The results of the simulations show that the LHC could probe Higgs masses up to at least 300 GeV with an integrated luminosity of about 300 fb.1.
170

Préparation de l'expérience ATLAS auprès du futur grand collisionneur de protons LHC : performances du calorimètre électromagnétique et potentiels pour la physique du quark top

Hubaut, F. 29 March 2007 (has links) (PDF)
Ce mémoire présente une synthèse des travaux que j'ai effectués depuis 7 ans pour la préparation de l'expérience ATLAS, devant fonctionner auprès du futur grand collisionneur de hadrons du CERN, le LHC, qui entrera en service en 2008.

Page generated in 0.0348 seconds