Spelling suggestions: "subject:"physique dess particules"" "subject:"physique deus particules""
1 |
Masses, mélange et oscillations de neutrinosWilquet, Gaston 25 March 2005 (has links)
Une revue générale est faite de la situation expérimentale concernant la mesure des masses, du mélange et des oscillations de neutrinos, ainsi que de la phénoménologie sous-jacente. Mes contributions à travers le programme expérimental du CERN, CHARM-II, CHORUS et OPERA, font l'objet d'un développement particulier. Le dernier chapitre tente de mettre en perspective le programme expérimental à moyen et long terme.
The experimental situation concerning the measurements of neutrinos masses, mixing and oscillation is reviewed, as well as of the underlying phenomenology. A particular attention is given to the CERN experimental program to which I took or take part, CHARM-II, CHORUS and OPERA. In the last chapter, I try to put into perspective the medium and long term experimental programme.
|
2 |
Mesure de la fraction d'événements à quatre quarks dans les désintégrations multihadroniques du Z° au LEPLefebvre, Éric January 1998 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
|
3 |
A Dark Matter through the Vector-like PortalGiacchino, Federica 22 September 2017 (has links)
Although about a century has passed since its discovery, and despite the scientific and technological progress of our society has gone through, the nature of the Dark Matter (DM) is a mystery not yet solved. It is a big challenge for the scientific community, its identification would mean the understanding of what seemingly makes up 84% of the matter content in the Universe. We say “seemingly” because so far all evidences for DM are purely gravitational. This implies that what we call dark matter could be either a manifestation of our incomplete understanding of gravity on large scales, or a new form of matter, in particular a new kind of elementary particle. Among the plethora of possible DM candidates, this work will consider the Weakly Interactive Massive Particle (WIMP). Up to know the observed value for the relic abundance is the only solid parameter which we can count on, and the WIMP is the candidate that, through a fashionable mechanism of production, gives a result for the relic abundance in agreement with the cosmological observations. In order to demonstrate that this is indeed the valid explanation to the DM problem, a non-gravitational signal and also a model to interpret a possible Dark Matter message are needed. This may be expressed in various ways, and our approach is based on so-called simplified model. We have built a new t-channel simplified model which promotes a real scalar particle as DM and a vector-like fermion as mediator, dubbed the Vector-like Portal. In our framework, there are very few free parameters, the DM mass, the mass of the mediator and at least one Yukawa coupling. We have discovered an intriguing feature in the annihilation cross-section, a d-wave suppression in the limit of light final state fermions (compared to the DM mass). This seemingly innocuous observation will turn out to be crucial both for thermal freeze-out and for indirect searches for DM, for which higher order effects become relevant. In particular, we have performed a comprehensive analysis of the impact of next-to-leading order corrections to the annihilation cross-section, including coannihilation, as well as on elastic scattering processes. We have exploited the complementarity of direct, indirect and collider searches to set constraints on the parameter space of some simple vector-like portal scenarios, including coupling to Standard Model leptons, light quarks and the top quark. In addition, we have studied the phenomenological consequences of electroweak corrections and the detectability ofour candidate. / Bien que presque un siècle ait passé depuis sa découverte, et malgré les progrès scientifiques et technologiques de notre société, la nature de la matière noire (MN) est un mystère irrésolu. C’est un grand challenge pour la communauté scientique, car sa découverte signifierait la compréhension de ce qui semble constituer 80 % du contenu en matière de l’univers. Nous disons “semble” car jusqu’à présent toutes les évidences de MN sont purement gravitationnelles. Cela implique que ce que nous appelons matière noire pourrait être soit une manifestation de notre compréhension incomplète de la gravité à grandes échelles, soit une nouvelle forme de matière, en particulier un nouveau type de particule élémentaire. Parmi la pléthore de candidats de MN possibles, ce travail considèrera la Weakly Interactive Massive Particle (WIMP). A ce jour, la valeur observée de l’abondance relique est le seul paramètre solide sur lequel nous pouvons compter, et la WIMP est le candidat qui, par un élégant mécanisme de production, donne un résultat pour l’abondance relique en accord avec les observations cosmologiques. Pour démontrer que cela est en effet l’explication valide du problème de la MN, un signal non gravitationnel ainsi qu’un modèle pour interpréter un possible message de MN sont requis. Cela peut s’exprimer de plusieurs façons, et notre approche est basée sur les modèles dits simplifiés. Nous avons construit un nouveau modèle simplifié avec le canal t qui promeut une particule scalaire réel comme MN et un fermion de type vector-like comme médiateur, et communément appelé le portail vector-like. Dans notre cadre, il y a très peu de paramètres libres, la masse de la MN, la masse du médiateur et au moins un couplage de Yukawa. Nous avons découvert une caractéristique intrigante dans la section efficace d’annihilation, une suppression de type d-wave dans la limite de fermions légers dans l’état final (en comparaison avec la masse de la MN). Il se trouve que cette observation, qui semble anodine au premier abord, est cruciale pour le freeze-out et pour les recherches indirectes de MN, pour lesquelles les effets aux ordres supérieurs deviennent relevants. En particulier, nous avons réalisé une analyse compréhensive de l’impact des corrections après l’ordre dominant de la section efficace d’annihilation, ainsi que des processus de diffusion élastique. Nous avons exploité la complémentarité des recherches directes, indirectes et aux collisionneurs afin de contraindre l’espace des paramètres de quelques scénarios simples de portails vector-like, dont le couplage au leptons du Modèle Standard et au quark top. De plus, nous avons étudié les conséquences phénoménologiques des corrections électrofaibles, et la détectabilité de notre candidat. / Option Physique du Doctorat en Sciences / info:eu-repo/semantics/nonPublished
|
4 |
Scalar boson decays to tau leptons: In the standard model and beyondCaillol, Cécile 28 April 2016 (has links)
Cette thèse présente une étude du secteur scalaire dans le cadre du modèle standard (MS), ainsi que la recherche d'un secteur scalaire étendu dans des théories au-delà du MS. Ces analyses ont en commun la désintégration d'au moins un des bosons scalaires en une paire de leptons tau. Les résultats sont basés sur les données collectées par le détecteur CMS pendant le Run-1 du LHC, lors de collisions proton-proton à une énergie dans le centre de masse de 7 ou 8 TeV. Le boson découvert en 2012, H, semble compatible avec un boson de Brout-Englert-Higgs (BEH) du MS, mais ce constat se base essentiellement sur l'étude des modes de désintégration bosoniques. Le mode de désintégration H->tau tau est le canal fermionique le plus sensible, et permet de tester les couplages de Yukawa du nouveau boson. Cette thèse décrit dans un premier temps la recherche d'un boson scalaire se désintégrant en leptons tau et produit en association avec un boson vecteur. Les données du Run-1 ne sont pas sensibles aux petites sections efficaces de production prédites dans le SM, mais la combinaison avec les autres modes de production montre avec évidence l'existence de désintégrations du boson H en taus. De nombreux modèles au-delà du MS, tels que l'extension supersymétrique minimale du MS (MSSM) ou les modèles avec deux doublets scalaires (2HDM), prédisent l'existence de plusieurs boson scalaires. Quatre recherches d'un secteur scalaire étendu au-delà du MS sont présentées dans cette thèse. La première analyse recherche un pseudoscalaire avec une masse entre 220 et 350 GeV, se désintégrant en un boson scalaire similaire à celui du MS et en un boson Z, dans l'état final avec deux taus et deux leptons légers. La deuxième analyse explore la possibilité d'une désintégration exotique de la nouvelle particule en deux bosons scalaires plus légers dans l'état final avec deux muons et deux leptons tau. Dans le cadre de la troisième analyse, une région en masse quasiment inexplorée auparavant au LHC est testée par la recherche d'un pseudoscalaire avec une masse entre 25 et 80 GeV, se désintégrant en leptons tau et produit en association avec deux quarks b, dans le contexte des 2HDM. La dernière analyse recherche une résonance lourde se désintégrant en une paire de leptons tau dans le contexte du MSSM. Aucun indice de nouvelle physique n'a été trouvé dans les analyses décrites ci-dessus, mais des limites strictes sur les sections efficaces des différents signaux ont été déterminées. / This thesis presents a study of the scalar sector in the standard model (SM), as well as different searches for an extended scalar sector in theories beyond the standard model (BSM). All analyses have in common the fact that at least one scalar boson decays to a pair of tau leptons. The results exploit the data collected by the CMS detector during LHC Run-1, in proton-proton collisions with a center-of-mass energy of 7 or 8 TeV.The particle discovered in 2012, H, looks compatible with a SM Brout-Englert-Higgs boson, but this statement is driven by the bosonic decay modes. The H-> tau tau decay mode is the most sensitive fermionic decay channel, and allows to test the Yukawa couplings of the new particle. The search for the SM scalar boson decaying to tau leptons, and produced in association with a massive vector boson W or Z, is described in this thesis. Even though a good background rejection can be achieved by selecting the leptons originating from the vector boson, Run-1 data are not sensitive to the small production cross sections predicted in the SM for the scalar boson. The combination with the gluon-gluon fusion and vector boson fusion production searches leads to an evidence for the decay of the H boson to tau leptons.Many BSM models, such as the minimal supersymmetric SM (MSSM) or models with two scalar doublets (2HDM), predict the existence of several scalar bosons. The decays of these bosons to tau leptons can be enhanced in some scenarios depending on the model parameters, which makes the di-tau decay mode powerful to discover BSM physics. Four searches for an extended scalar sector are detailed in this thesis. The first analysis searches for a pseudoscalar boson with a mass between 220 and 350 GeV, decaying to an SM-like scalar boson and a Z boson, in the final state with two light leptons and two tau leptons. Second, a search for the exotic decay of the new particle H to a pair of light pseudoscalar bosons, which is still allowed by all measurements made up to now, in the final state with two muons and two tau leptons is performed. Third, a mass region almost never explored at the LHC is probed by the search of a light pseudoscalar, with a mass between 25 and 80 GeV, decaying to tau leptons and produced in association with b quarks. The last analysis describes the search for a heavy resonance in the MSSM, decaying to a pair of tau leptons. None of these analyses has found any hint of new physics beyond the SM, but stringent limits on the cross section of such signals could be set. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
|
5 |
Study of Triple-GEM detector for the upgrade of the CMS muon spectrometer at LHCMaerschalk, Thierry 12 July 2016 (has links)
This doctoral thesis is part of the upgrade of the CMS experiment at the Large HadronCollider of CERN, the LHC. CMS, together with the ATLAS experiment, led to thediscovery of the Brout-Englert-Higgs boson in 2012. But the LHC research program isnot over yet. Indeed, the LHC is intended to operate even at least 20 more years. Duringthis period, the luminosity will grow gradually up to five times its nominal value of 10 34cm −2 s −1 initially foreseen. This increase in luminosity requires the LHC experiments,like CMS, to upgrade their detectors as well as their data acquisition system. One of thenext major CMS upgrade is the addition of a new detector layer in the forward muonspectrometer of CMS. The technology that has been chosen by the CMS collaborationfor this upgrade is the Triple Gas Electron Multiplier (Triple-GEM) technology. Thisupgrade aims to maintain the trigger performance despite the increasing rate of particles(> 1 kHz/cm 2 ) and will also improve the reconstruction of muons tracks, thanks to aexcellent spatial resolution (∼ 250 μm). It is the study and characterization of thistechnology that is the subject of this thesis.This characterization of the Triple-GEM detectors starts with a detailed study of thetime resolution. This study has been performed using different Monte Carlo simulationslike GARFIELD, and has demonstrated that the Triple-GEM detectors equipped withthe new VFAT3 electronics (developed for this upgrade) fulfill the requirements for theCMS upgrade.Then we have studied different detector prototypes. First, we have built two small 10×10cm 2 prototypes and developed a test bench at the ULB laboratory. This test bench hasallowed us to study another important parameter of the Triple-GEM detectors: the gain.Later, we also had the opportunity to take part in the data taking and analysis of a testbeam campaign at CERN. The analysis of the data of this test beam is also presentedin detail.The last part of this work concerns the study of the spatial resolution. We have estimatedthe spatial resolution of the Triple-GEM detector equipped with a binary electronics byMonte Carlo simulations as well as analytically. This study has been extended to otherdetector technologies like the Micromegas and the silicon sensors. / Cette th`ese de doctorat s’inscrit dans le cadre de la mise `a niveau de l’exp ́erience CMSaupr`es du grand collisionneur de protons du CERN, le LHC. CMS, avec l’exp ́erienceATLAS, a permis la d ́ecouverte du boson de Brout-Englert-Higgs en 2012. Mais leprogramme de recherche du LHC n’est pas pour autant termin ́e. En effet, le LHC estdestin ́e `a fonctionner encore au moins 20 ans. Pendant cette p ́eriode, la luminosit ́e vacroˆıtre progressivement jusqu’`a atteindre environ cinq fois la valeur nominale de 10 34cm −2 s −1 initialement pr ́evue et ce d’ici 2025. Cette augmentation de luminosit ́e pousseles exp ́eriences du LHC, comme CMS, `a mettre `a jour les d ́etecteurs ainsi que leurssyst`emes d’acquisition de donn ́ees. Une des prochaines mises `a niveau majeures deCMS est l’addition d’une nouvelle couche de d ́etection dans le spectrom`etre `a muonvers l’avant. La technologie de d ́etection qui a ́et ́e choisie par la collaboration CMS estla technologie des Triple Gas Electron Multiplier (Triple-GEM). Cette mise `a niveaua pour but de maintenir les performances du syst`eme de d ́eclenchement et ce malgr ́el’augmentation de taux de particules (> 1 kHz/cm 2 ) et de permettre ́egalement, grˆacea la tr`es bonne r ́esolution spatiale des Triple-GEM (∼ 250 μm), l’am ́elioration de la re-construction des traces de muons. C’est l’ ́etude des caract ́eristiques de cette technologiequi est le sujet de cette th`ese.Cette caract ́erisation des d ́etecteurs Triple-GEM commence par une ́etude d ́etaill ́ee de lar ́esolution temporelle. Cette ́etude a ́et ́e r ́ealis ́ee `a l’aide de diff ́erentes simulations MonteCarlo telles que GARFIELD et a permis de montrer que les Triple-GEMs ́equip ́es de lanouvelle ́electronique VFAT3 (sp ́ecifiquement d ́evelop ́ee pour les Triple-GEMs) remplis-sent les conditions pour la mise `a niveau de CMS.Nous avons ensuite ́etudi ́e diff ́erents prototypes. Tout d’abord nous avons construit deuxpetits (10 × 10 cm 2 ) prototypes de Triple-GEM et d ́evelop ́e un banc de test au sein dulaboratoire de l’ULB. Ce banc de test nous a permis d’ ́etudier un autre param`etre impor-tant des d ́etecteurs Triple-GEM: le gain. Au cours de cette th`ese nous avons ́egalementparticip ́e `a la prise de donn ́ees et `a l’installation de diff ́erents tests en faisceau au CERN.L’analyse des donn ́ees du test en faisceaux d’octobre 2014 est aussi pr ́esent ́ee en d ́etail.La derni`ere partie de ce travail concerne l’ ́etude de la r ́esolution spatiale. Nous avonsestim ́e la r ́esolution spatiale par simulation de Monte Carlo ainsi que de mani`ere an-alytique pour des d ́etecteurs GEM munis d’une ́electronique binaire. Cette ́etude a ́egalement ́et ́e g ́en ́eralis ́ee `a d’autres d ́etecteurs tels que les Micromegas ou encore lescapteurs au silicium. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
|
6 |
Dark Matter on the Galactic Scale : from Particle Physics and Cosmology to Local Properties / La matière sombre à l'échelle Galactique : de la physique des particules et la cosmologie aux propriétés localesStref, Martin 11 September 2018 (has links)
Identifier la nature de la matière sombre est l'un des plus grands problèmes de la physique contemporaine. Si la matière sombre est constituée de particules, on peut espérer la détecter, directement ou indirectement, grâce à des expériences terrestres ou spatiales. Prédire les résultats de ces expériences, ou les interpréter en cas de détection, nécessite une compréhension profonde de la structuration de la matière sombre dans notre Galaxie. En partant de considérations issues de la physique des particules et de la cosmologie, je construits un modèle du halo de matière sombre Galactique contraint dynamiquement qui incorpore une description détaillée des ses inhomogénéités. L'impact des ces inhomogénéités sur les recherches utilisant le rayonnement cosmique est ensuite analysé en détails. J'étudie également une méthode permettant de prédire la distribution dans l'espace des phases des particules de matière sombre, et discute sa possible application aux recherches de matière sombre. Cet outil est ensuite appliqué aux recherches utilisant les électrons et positrons cosmiques, et de nouvelles contraintes très fortes sont obtenues sur les modèles microscopiques de matière sombre. / Understanding the nature of dark matter is one of the greatest challenges of modern physics. If dark matter is made of particles, we can hope to detect it, directly or indirectly, using Earth-based or spatial experiments. Make predictions for the outcome of these experiments, or interpret the results in case of a detection, requires a deep understanding of the structuring of dark matter in our Galaxy. Starting from particle physics and cosmological considerations, I built a dynamically constrained model of the Galactic dark halo including a detailed description of its inhomogeneities. The impact of these inhomogeneities on searches with cosmic rays is then analysed in details. I also study a method allowing to predict the phase-space distribution of dark matter particles, and discuss its possible application to dark matter searches. This method is then applied to searches with cosmic-ray electrons and positrons, and new very stringent constraints are obtained on microscopic models of dark matter.
|
7 |
Validation de la réponse du détecteur de neutrons WENDI-2 dans un faisceau de neutrons quasi-monoénergétiques pour son utilisation dans un centre de protonthérapieNdayizeye, David 05 December 2018 (has links) (PDF)
La radiothérapie est l'une des techniques utilisées pour le traitement des tumeurs cancéreuses. Cette technique utilise un nombre varié de rayonnements, avec des avantages et inconvénients qui dépendent des caractéristiques physiques de ces derniers. La radiothérapie utilisant des faisceaux de protons d’énergie entre 50-250 MeV, appelée communément ‘‘protonthérapie’’, est une technique innovante et très prometteuse, elle permet de traiter efficacement des tumeurs cancéreuses tout en préservant le plus possible les tissus sains environnants. Elle a le grand avantage de pouvoir concentrer la dose de traitement de manière très efficace et très précise dans le volume tumoral, avec moins de dose aux tissus sains et aux organes radiosensibles proches de la tumeur ou traversés par le faisceau d'irradiation. Ainsi, on diminue de manière significative la récidive cancéreuse en donnant une dose létale à la tumeur, et également on évite des cancers radio-induits par l'administration d’une dose acceptable aux tissus sains du patient.Cependant, lors de leur traversée dans la matière (matériaux des installations d'un centre de protonthérapie ou les tissus du patient), les protons peuvent avoir des interactions nucléaires, et des rayonnements secondaires, tels que des neutrons très énergétiques jusqu’à l’énergie maximale des protons d'irradiation peuvent être créés. Pour atténuer le flux de particules secondaires ainsi créées et pour que les doses reçues par les personnes se trouvant aux alentours de l’installation soient les plus faibles possibles et en conformité avec la réglementation en matière de radioprotection, d’importants blindages doivent être construits dans les centres de protonthérapie. Avant leur construction, ces blindages sont d’abord simulés numériquement par des méthodes Monte Carlo de simulation avec des programmes tels que MCNPX, FLUKA, PHITS, GEANT4, etc.En outre, une fois que le centre de protonthérapie est opérationnel, malgré ces blindages de protection, des mesures sont régulièrement effectuées pour estimer la dose d'ambiance, ainsi que la dose reçue par le personnel. Des dosimètres tels que des MOSFETs sont utilisés pour la dosimétrie individuelle des neutrons. En ce qui concerne la dosimétrie d'ambiance, plusieurs techniques ont été développées. On peut citer l’exemple d’un compteur proportionnel appelé ‘‘WENDI-2’’, qui possède une bonne sensibilité aux neutrons. Dans cette thèse, nous présentons les travaux que nous avons menés pour la validation avec des simulations Monte Carlo de GEANT4 de la réponse de ce détecteur en fonction de l'énergie des neutrons. La 1ère validation se focalise sur la comparaison de GEANT4 avec d'autres codes de la littérature. La fonction de réponse de WENDI-2 montre des variations lorsque différents modèles physiques (ou codes) sont utilisés dans les simulations. Ensuite, des mesures expérimentales ont été confrontées aux simulations de GEANT4, et les résultats ont été interprétés avec différents modèles physiques. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
|
8 |
Development of the DAQ System of Triple-GEM Detectors for the CMS Muon Spectrometer Upgrade at LHCLenzi, Thomas 19 December 2016 (has links) (PDF)
The Gas Electron Multiplier (GEM) upgrade project aims at improving the performance of the muon spectrometer of the Compact Muon Solenoid (CMS) experiment which will suffer from the increase in luminosity of the Large Hadron Collider (LHC). After a long technical stop in 2019-2020, the LHC will restart and run at a luminosity of 2 10^34 cm^-2 s^-1, twice its nominal value. This will in turn increase the rate of particles to which detectors in CMS will be exposed and affect their performance. The muon spectrometer in particular will suffer from a degraded detection efficiency due to the lack of redundancy in its most forward region. To solve this issue, the GEM collaboration proposes to instrument the first muon station with Triple-GEM detectors, a technology which has proven to be resistant to high fluxes of particles. Within the GEM collaboration, the Data Acquisition (DAQ) subgroup is in charge of the development of the electronics and software of the DAQ system of the detectors.This thesis presents the work of the author as lead developer of the firmware for the front-end and back-end electronics. These developments have been performed from the ground up and designed to transfer data from the analog front-end to the off-detector electronics while offering extensive control and monitoring capabilities. The developed DAQ chain has been tested extensively during two test beam campaigns which provided results on both the stability of the system and the efficiency of the detectors. The results of these campaigns are described in the present thesis. Further characterization of the electronics is also described along with the procedures and tools built to qualify the components for their installation in CMS. Finally, the results of the irradiation tests performed on the on-detector electronics are presented. These allowed us to understand the effects of radiation on the electronic boards used for the GEM upgrade project and the impact that it has on the design of the firmware for CMS.Additionally, the work of the author on a new architecture for DAQ systems is described. The latter uses modified network topologies and novel web technologies to increase the available bandwidth on the network and yield an event-driven system. / Cette thèse de doctorat s'inscrit dans le projet de mise à niveau du spectromètre à muons du Compact Muon Solénoid (CMS) auprès du Large Hadron Collider (LHC). Après un arrêt pour maintenance prévu en 2019-2020, le LHC reprendra son programme de recherche à une luminosité de 2 $ imes$ 10^34 cm^-2 s^-1, soit deux fois sa valeur nominale. Ceci aura pour conséquence d'accroître le taux de particules auquel seront soumis les détecteurs de CMS et d'entraver l'efficacité de détection de ces derniers. Le spectromètre à muons de CMS sera tout particulièrement touché à cause du manque de redondance dans sa partie avant. Afin de palier à ce problème, il est proposé d'installer des détecteurs Gas Electron Multipliers (GEM) dans la première station à muons. La technologie GEM répond aux besoins de CMS en offrant une excellente efficacité de détection à de hauts flux de particules. Au sein de la collaboration GEM, le sous-groupe en charge du système d'acquisition de données (DAQ) doit développer l'électronique et les logiciels de gestion de la chaîne de lecture des détecteurs.Nous présentons ici le travail de l'auteur réalisé en tant que principal développeur du firmware pour l'électronique du système DAQ. Ces développements visent à créer une architecture qui achemine les données depuis l'électronique de lecture du détecteur jusqu'aux systèmes situés dans la zone de comptage, tout en offrant la possibilité de contrôler et surveiller l'ensemble des composants du DAQ. Le système mis en place a été largement testé durant deux campagnes de tests en faisceaux qui ont fourni des informations concernant la stabilité du DAQ ainsi que des mesures de l'efficacité des détecteurs. Nous décrivons également l'ensemble des travaux réalisés afin de caractériser les composants électroniques avant leur installation dans CMS ainsi que les résultats des tests d'irradiation effectués sur l'électronique du détecteur. Ces derniers permettent de mieux comprendre les conséquences des radiations sur le système et de développer des méthodes de mitigation.De plus, le travail de l'auteur sur la création d'une nouvelle architecture de système DAQ est décrit. Cette dernière combine les avancées récentes en terme de technologies web à une topologie de réseaux non-classique afin d'accroître la bande passante disponible et de créer un système réactif. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
|
9 |
Search for new high mass resonances or quantum black holes decaying to lepton flavor violating final states with the CMS detectorBeghin, Diego 17 December 2020 (has links) (PDF)
Cette thèse présente une analyse de données collectées par le détecteur CMS, dont le but est la recherche de nouvelle physique dans des états finaux qui violent la conservation de la saveur leptonique. Elle commence avec une discussion du Modèle Standard de la physique des particules, en insistant sur la conservation de la saveur leptonique dans ce modèle, et sur la violation de cette conservation qui découle d’un grand nombre de modifications du Modèle Standard. Les problèmes non résolus en physique des particules sont présentés, ainsi que certains des modèles de nouvelle physique qui y répondent, et qui impliquent une violation de la conservation de la saveur leptonique. Nous discutons notamment la supersymétrie avec violation de la R-parité, des modèles avec des dimensions supplémentaires, et des modèles avec une symétrie de jauge U(1) supplémentaire. Ensuite, le LHC, le détecteur CMS, son système de déclenchement et son logiciel de reconstruction des événements sont tous décrits en détail. Les données analysées correspondent à une luminosité intégrée de 137 /fb collectée par CMS pendant trois années du Run 2 du LHC (2016-18), à une énergie du centre de masse √s = 13 TeV. La stratégie d’estimation du bruit de fond est de simuler tous les processus avec de vrais leptons dans l’état final, mais des méthodes basées sur les données sont utilisées pour les principaux bruits de fond où les leptons sont en fait des particules mal identifiées. Des facteurs de correction sont appliqués aux simulations afin de tenir compte d’effets expérimentaux et de calculs théoriques plus précis. Les données s’avèrent être compatibles avec les estimations du bruit de fond, en tenant compte des incertitudes, et une analyse statistique est faite afin d’exclure des modèles de nouvelle physique à un niveau de confiance de 95 %. Pour le modèle de référence, un boson Z’ avec des désintégrations qui ne conservent pas la saveur leptonique, les limites inférieures sur la masse de la résonance sont respectivement 5.0 TeV, 4.2 TeV et 4.1 TeV pour les états finaux eμ,eτ et μτ .C’est la première analyse CMS de ce genre dans les états finaux eτ et μτ ,et dans tous les canaux les résultats sont des améliorations considérables par rapport aux meilleurs résultats précédents. / This thesis presents a novel search for new physics in lepton flavor violating final states, using the CMS detector. There is first a discussion of the Standard Model of particle physics, with a particular emphasis on the issue of lepton flavor conservation, and how often that conservation is violated when generic modifications of the Standard Model are performed. The questions left unanswered by the Standard Model are presented, as well as some new physics models which resolve them, and in so doing imply the existence of processes violating charged lepton flavor conservation. R-parity violating supersymmetry, models with large extra dimensions,and models with an extra U(1) gauge symmetry are discussed. The Large Hadron Collider, the CMS detector, its trigger system and event reconstruction software are all described in detail. The data used for the analysis corresponds to an integrated luminosity of 137 /fb collected by CMS during three years of LHC Run 2 (2016-18), at a center-of-mass energy √s = 13 TeV. The background estimation strategy is to use simulations for all processes with real leptons, while large-yield processes with misidentified leptons are estimated with data-driven methods. The simulations are corrected by scale factors accounting for experimental calibration and more precise theoretical calculations. After comparing the observed data and the expected background, no evidence of new physics is found, and a statistical analysis is performed to exclude new physics models at the 95 % confidence level. For the benchmark lepton flavor violating Z’ model, the lower limit in the eμ (respectively eτ ,μτ ) final state on the resonance mass is 5.0 TeV (resp. 4.2 TeV, 4.1 TeV). Such an analysis had never been performed in the tau channels with the CMS detector, and in all channels these results considerably improve on the previous state-of-the-art results. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
|
10 |
Études de luminosité de l'expérience ATLAS par le détecteur Timepix à l'aide de particules chargées à faible transfert d'énergieGagnon, Clara 12 1900 (has links)
Le réseau ATLAS-TPX est composé de 15 détecteurs Timepix répartis à diverses positions
autour du point d’interaction IP1 (Point d’interaction 1) dans la caverne de l’expérience
ATLAS (A Toroidal LHC ApparatuS) au LHC (Grand Collisionneur de Hadrons). Ce réseau
de détecteurs permet de caractériser le champ de radiation et de mesurer la luminosité
indépendamment de la chaîne d’acquisition de données d’ATLAS. Ses différents modes d’opération
complémentent les mesures de luminosité de référence d’ATLAS, qui sont cruciales
pour la détermination des mesures de sections efficaces de processus du modèle standard de
la physique des particules.
Ce mémoire évalue la capacité des détecteurs ATLAS-TPX à mesurer la luminosité avec
la reconnaissance de traces. Cette méthode permet de filtrer certaines sources d’erreurs
systématiques, telles que la radiation induite, qui affectent d’autres détecteurs de luminosité
de l’expérience ATLAS. L’étude se concentre sur la détection des particules chargées à faible
transfert d’énergie (LETCP) avec un détecteur ayant opéré dans de bonnes conditions de
2017 à 2018, le détecteur TPX14. Les traces laissées par les LETCP sont distinguées des
autres particules par des algorithmes de classification, qui sont appliqués sur les images
enregistrées par le détecteur. Lorsque des pics de luminosité ou des temps d’acquisition trop
longs provoquent une superposition des traces dans les images, une technique de correction
est utilisée. Le comptage de traces est converti en mesure de luminosité grâce aux périodes
de collisions de référence de chaque année. Les résultats sont comparés à ceux provenant des
autres détecteurs de luminosité, soit LUCID (Luminosity measurements Using Cherenkov
Integration Detector), EMEC (ElectroMagnetic End Cap) et FCal (Forward Calorimeter)
dans le but d’étudier la stabilité à long terme de ces luminomètres. L’entièreté des résultats
obtenus diffère par moins de 3% par rapport à LUCID, le détecteur de luminosité de référence
dans ATLAS. Cela prouve donc la validité de la méthode et ouvre la porte à des études de
stabilité avancées. Les fluctuations statistiques observées pourront être réduites dans le futur
en utilisant plus de détecteurs et en optimisant leur positionnement. / The ATLAS-TPX network is made of 15 Timepix detectors distributed at various positions
around the interaction point IP1 (Interaction Point 1) in the ATLAS (A Toroidal LHC ApparatuS)
cavern at the LHC (Large Hadron Collider). This detector network allows the
characterization of the radiation field as well as luminosity measurements that are completely
independent of the ATLAS data acquisition chain. Its different modes of operation
complement the reference luminosity measurements in ATLAS, which are crucial for the
measurement of cross sections of the standard model process of particle physics.
This master thesis evaluates the ability of ATLAS-TPX detectors to measure the luminosity
using track recognition. This method makes it possible to filter certain sources of
systematic uncertainties, such as activation, which affect other luminosity detectors of the
ATLAS experiment. The studies focus on detection of low energy transfer charged particles
(LETCP) with a detector that operated in good conditions throughout 2017 and 2018, the
TPX14. The signature traces left by LETCP are distinguished from others by classification
algorithms, which are applied on the detector’s frames. When luminosity is peaking or when
the acquisition time is too long and cause overlapping of the traces in the frames, a correction
is applied. The track counts are converted to luminosity measurements using the reference
run of each year. The results are compared to those from other luminosity detectors, namely
LUCID (Luminosity measurements Using Cherenkov Integration Detector), EMEC (ElectroMagnetic
End Cap) and FCal (Forward Calorimeter) in order to do long term stability
studies of those luminometers. All results differ by less than 3% from LUCID’s data, the
luminosity of reference in ATLAS. Therefore, the method is valid, which opens the door
to advanced stability studies. The observed statistical fluctuations could be reduced in the
future by using more detectors and optimizing their positioning.
|
Page generated in 0.1148 seconds