• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 33
  • 29
  • 4
  • Tagged with
  • 66
  • 66
  • 59
  • 30
  • 23
  • 23
  • 22
  • 22
  • 19
  • 13
  • 12
  • 11
  • 11
  • 11
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Reconstruction des électrons et recherche de couplages anormaux dans le canal pp->ZZ->4l avec le détecteur CMS auprès du LHC

Sabes, David 19 October 2012 (has links) (PDF)
La thèse en physique des particules que j'ai effectuée au sein de l'équipe CMS (Compact Muon Solenoid) du Laboratoire Leprince-Ringuet de l'École Polytechnique porte sur l'analyse de la production de di-bosons pp→ZZ+X et la recherche de couplages anormaux et ce, dans le cadre de l'expérience CMS et des données accumulées à l'aide du grand collisionneur de hadrons du CERN, le LHC. Elle débute avec le démarrage du LHC en fin 2009 et l'étude et l'optimisation de la reconstruction des électrons via la combinaison de deux algorithmes afin d'améliorer les performances à bas moment transverse. Les critères de sélection des événements caractéristiques des désintégrations de bosons Z, assurant une sélection pure d'électrons, ont été étudiés. Les efficacités de reconstruction des électrons pour les données 2010 et 2011 ainsi que leurs erreurs statistiques et systématiques ont été mesurées et ces mesures ont ensuite été utilisées par la collaboration CMS pour les analyses 2010 et 2011. Une étude des caractéristiques des radiations dans l'état final (Final State Radiation) affectant les leptons issus de la désintégration du Z a été menée. Un algorithme en vue de récupérer les photons FSR et reconstruire pleinement la masse du Z a été développé et optimisé. Il corrige 4.2% des cas ZZ→4μ tout en assurant une pureté de sélection des photons FSR de 95.6%. L'analyse physique développée dans cette thèse porte sur la recherche et l'extraction de limites sur les couplages trilinéaires neutres. L'existence de ces couplages est interdite dans le formalisme du Modèle Standard mais peut cependant être introduite dans un Lagrangien effectif par l'ajout de deux termes de couplages f4Z et f5Z dans le cas du couplage ZZZ, en vue de la recherche d'une nouvelle physique. La présence de ces couplages anormaux se traduit généralement par une augmentation de la section efficace de production des di-bosons ZZ ainsi que par les déformations des distributions cinématiques des Z ou encore de la masse des 4 leptons par rapport à l'attendu Modèle Standard. Dans le cadre de l'analyse du canal pp→ZZ→4l, une sélection pure des événements a été établie et les distributions différentielles du moment transverse et de la rapidité des bosons Z sont également présentées. Une recherche des couplages anormaux est effectuée en utilisant une méthode de repondération des distributions simulées et des limites sont extraites par la technique CLs. Les limites obtenues avec un niveau de confiance de 95% sont: -0.0116< f4Z <0.0116 et -0.0119< f5Z <0.0119.
32

Etude du système de déclenchement électronique pour le projet HL-LHC et recherche de nouvelle physique dans le spectre de masse invariante top anti-top au sein de l'expérience CMS du LHC

Beaupère, Nicolas 19 September 2012 (has links) (PDF)
Ce manuscrit décrit mon travail de thèse au sein de l'expérience CMS du collisioneur LHC. Il présente les deux sujets sur lesquels j'ai travaillé : un sujet orienté détecteur et un sujet orienté analyse de données. Le premier sujet, orienté détecteur, se situe dans le cadre du projet HL-LHC qui prévoit une augmentation de la luminosité instantanée d'un facteur cinq. Une telle augmentation et la conservation du système de haut niveau du déclenchement (HLT), engendre de nouvelles contraintes sur le détecteur CMS. Notamment au niveau du système de déclenchement électronique. La collaboration CMS envisage d'implanter ce dernier au sein du détecteur de traces. La méthode des mémoires associatives est proposée. Elle nécessite toutefois une présélection intelligente des signaux électriques pour être utilisable. La méthode de la largeur des amas est proposée pour présélectionner les signaux. L'optimisation de cette méthode, en particulier des paramètres géométriques des modules et des seuils appliqués pour la présélection des signaux électrique, est le résultat de mon travail. Il est détaillé tout au long de la partie III de ce manuscrit. Le deuxième sujet concerne l'analyse des données récoltées par CMS durant l'année 2011. Cette analyse a pour objectif de rechercher de nouvelles particules dans le spectre de masse invariante top anti-top. De par sa grande masse, proche de la brisure électrofaible, le quark top joue un rôle prépondérant dans de nombreuses extensions du Modèle Standard. L'observation de résonances étroites dans le spectre pourrait en être le signe. L'analyse est subdivisée en trois parties : la sélection des évènements top anti-top, la reconstruction de la masse invariante top anti-top et une étude statistique pour quantifier la présence de nouvelle physique. Les résultats de ce travail sont des limites sur la section efficace de production de nouvelles particules. Ils sont présentés dans la partie IV du manuscrit.
33

Analyse de la désintégration rare B0 ->K*0 e+e- dans l'expérience LHCb

Nicol, M. 05 December 2012 (has links) (PDF)
Grâce a la grande section efficace de production de paires b \bar b, LHC offre une excellente occasion de faire des études de courants neutre changeant la saveur. Ces transitions sont sensibles aux effets de nouvelle physique. Cette these porte sur l'analyse des événements B0 → K∗ 0 e+e− qui permettent de mesurer la fraction de photon avec une polarisation droite et donc de rechercher des signaux de nouvelle physique émis dans la transition b → sγ . En effet, dans le Modele Standard, la polarisation des photons est gauche. La paire e+e−, lors que la masse invariante de la paire de leptons est basse, provient d'un photon virtuel et permet donc de sonder la polarisation de celui-ci. Cette mesure se fait grâce a l'étude des distribution angulaires de cette désintégration a quatre corps. Une première étape est la mesure du rapport d'embranchement dans le domaine de masse 30-1000 MeV/c2 . En effet, cette désintégration n'a jamais été observée dans cette région, y compris auprès des usines a B a cause du très faible rapport d'embranchement. Cette analyse comportant des électrons de basse impulsion transverse est expérimentalement complexe dans un environnement tel que celui du LHC. La mesure est faite relativement au rapport d'embranchement de la désintégration B0 → J/ψ (e + e−)K∗0 . En effet, cela permet de s'affranchir de nombreux effets expérimentaux ainsi que de la détermination absolue des efficacites. Le résultat, repose sur les donnees collectees par LHCb en 2011 et correspondant a une luminosité intégrée de 1 fb−1 : B(B 0 → K∗ 0 e+e−)30−1000 MeV/c = (3.19+0.75 −0.68 (stat) ± 0.22(syst) ± 0.15(PDG)) × 10− 7 en utilisant la valeur PDG pour le rapport d'embranchement de la désintégration B0 → J/ψ (e + e−)K∗0 . La dernière partie de la thèse porte sur des études Monte Carlo qui montrent que la précision sur la fraction de photon avec une polarisation droite que l'on peut espérer obtenir avec l'inclusion des données de 2012 est d'environ 0.1, comparable a la moyenne mondiale obtenue avec des méthodes differentes.
34

Analyse de la désintégration rare B->K*ee dans l'expérience LHCb

Nicol, Michelle 05 December 2012 (has links) (PDF)
Grâce à la grande section efficace de production de paires bb, LHC offre une excellente occasion de faire des études de courants neutres changeant la saveur. Ces transitions sont sensibles aux effets de nouvelle physique. Cette thèse porte sur l'analyse des événements B->K*ee qui permettent de mesurer la fraction de photon avec une polarisation droite et donc de rechercher des signaux de nouvelle physique émis dans la transition b ->s. En effet, dans le Modèle Standard, la polarisation des photons est gauche. La paire e+e-, lors que la masse invariante de la paire de leptons est basse, provient d'un photon virtuel et permet donc de sonder la polarisation de celui-ci. Cette mesure se fait grâce à l'étude des distribution angulaires de cette désintégration à quatre corps. Une première étape est la mesure du rapport d'embranchement dans le domaine de masse 30-1000MeV=c2. En effet, cette désintégration n'a jamais été observée dans cette région, y compris auprès des usines a B a cause du très faible rapport d'embranchement. Cette analyse comportant des électrons de basse impulsion transverse est expérimentalement complexe dans un environnement tel que celui du LHC. La mesure est faite relativement au rapport d'embranchement de la désintégration B->J/Psi(ee)K*. En effet, cela permet de s'affranchir de nombreux effets expérimentaux ainsi que de la détermination absolue des efficacités. Le résultat, repose sur les données collectées par LHCb en 2011 et correspondant a une luminosité intégrée de 1 fb-1: B(B->K*ee)30-1000MeV = (3:19+0:75-0:68(stat) +/- 0:21(syst) =/-0.15(PDG)) x10-7 en utilisant la valeur PDG pour le rapport d'embranchement de la désintégration B->J/Psi(ee)K*. La dernière partie de la thèse porte sur des études Monte Carlo qui montrent que la précision sur la fraction de photon avec une polarisation droite que l'on peut espérer obtenir avec l'inclusion des données de 2012 est d'environ 0.1, comparable à la moyenne mondiale obtenue avec des méthodes différentes.
35

Tests phénoménologiques de la chromodynamique quantique perturbative à haute énergie au LHC

Ducloué, Bertrand 08 July 2014 (has links) (PDF)
Dans la limite des hautes énergies, la petite valeur de la constante de couplage de l'interaction forte peut être compensée par l'apparition de grands logarithmes de l'énergie dans le centre de masse. Toutes ces contributions peuvent être du même ordre de grandeur et sont resommées par l'équation de Balitsky-Fadin-Kuraev-Lipatov (BFKL). De nombreux processus ont été proposés pour étudier cette dynamique. L'un des plus prometteurs, proposé par Mueller et Navelet, est l'étude de la production de deux jets vers l'avant séparés par un grand intervalle en rapidité dans les collisions de hadrons. Un calcul BFKL ne prenant en compte que les termes dominants (approximation des logarithmes dominants ou LL) prédit une augmentation rapide de la section efficace avec l'augmentation de l'intervalle en rapidité entre les jets ainsi qu'une faible corrélation angulaire. Cependant, des calculs basés sur cette approximation ne purent pas décrire correctement les mesures expérimentales de ces observables au Tevatron. Dans cette thèse, nous étudions ce processus à l'ordre des logarithmes sous-dominants, ou NLL, en prenant en compte les corrections NLL aux facteurs d'impact, qui décrivent la transition d'un hadron initial vers un jet, et à la fonction de Green, qui décrit le couplage entre les facteurs d'impact. Nous étudions l'importance de ces corrections NLL et trouvons qu'elles sont très importantes, ce qui conduit à des résultats très différents de ceux obtenus à l'ordre des logarithmes dominants. De plus, ces résultats dépendent fortement du choix des échelles présentes dans ce processus. Nous comparons nos résultats avec des données récentes de la collaboration CMS sur les corrélations angulaires des jets Mueller-Navelet au LHC et ne trouvons pas un bon accord. Nous montrons que cela peut être corrigé en utilisant la procédure de Brodsky-Lepage-Mackenzie pour fixer le choix de l'échelle de renormalisation. Cela conduit à des résultats plus stables et une très bonne description des données de CMS. Finalement, nous montrons que, à l'ordre des logarithmes sous-dominants, l'absence de conservation stricte de l'énergie-impulsion (qui est un effet négligé dans un calcul BFKL) devrait être un problème beaucoup moins important qu'à l'ordre des logarithmes dominants.
36

Calculs de précision dans un modèle supersymétrique non minimal / Precision calculations in the next-to-minimal supersymmetric extension of the standard model

Bizouard, Vincent 30 October 2015 (has links)
Malgré les nombreux succès du Modèle Standard de la physique des particules, plusieurs éléments montrent qu'il ne s'agit que d'une théorie effective à basse énergie. En effet, la masse des neutrinos et la matière noire ne sont pas expliqués dans ce modèle, qui ne prend pas en compte non plus la gravitation dont la version quantique n'a toujours pas été établie. De plus, les divergences quadratiques des corrections à la masse du boson de Higgs dans ce modèle pose un problème de naturalité. Tous ces problèmes indiquent la nécessité de trouver une nouvelle physique, qui doit être décrite par une extension du Modèle Standard. Une des possibilités est d'ajouter une nouvelle symétrie de l'espace-temps, la Supersymétrie, reliant les bosons et le fermions. Dans son extension miminale, la Supersymétrie permet déjà de résoudre le problème de la matière noire en proposant un candidat naturel, le neutralino, et de supprimer les dangereuses corrections quadratiques à la masse du boson de Higgs.Dans cette thèse, les travaux se sont concentrés sur une extension supersymétrique non minimale du Modèle Standard, le NMSSM. Afin de confronter la théorie aux expériences, il est nécessaire de calculer précisément les différentes observables. Ces calculs étant complexes, il est naturel de les automatiser, ce qui a été réalisé à l'aide du code SloopS. Avec ce code, nous avons pu dans un premier temps nous intéresser à la désintégration du boson de Higgs en un photon et un boson Z. Ce mode de désintégration a la particularité d'être généré directement à une boucle, ce qui le rend sensible à la présence de nouvelles particules. Il a commencé à être mesuré lors du Run 1 du LHC et les données vont continuer à s'accumuler avec le Run actuel (Run 2). La possibilité d'une déviation du signal mesuré avec celui prédit par le modèle Standard, requiert donc une analyse théorique préliminaire, que nous avons effectué dans le cadre du NMSSM. Nous nous sommes ensuite intéressé aux corrections radiatives pour des processus plus généraux.Il a d'abord fallu réaliser et implémenter la renormalisation dans SloopS afin de réguler les divergences apparaissant dans ces calculs à une boucle. Puis nous avons pu utiliser le modèle renormalisé pour calculer les corrections radiatives aux masses et largeurs de désintégration des différentes particules supersymétriques et des bosons de Higgs, en comparant les résultats obtenus dans différents schémas de renormalisation. / Although the Standard Model has been very successful so far, it presents several limitations showing that it is only an effective low energy theory. For example, the neutrino masses or dark matter are not predicted in this model. Gravity is also not taken into account and we expect that it plays a quantum role at energies around the Planck mass. Moreover, radiative corrections to the Higgs boson mass suffer from quadratic divergences. All these problems underline the fact that new physics should appear, and this has to be described by an extension of the Standard Model. One well-motivated possibility is to add a new space-time symetry, called Supersymmetry, which link bosons and fermions. In its minimal extension, Supersymmetry can already solve the dark matter paradox with a natural candidate, the neutralino, and provide a cancellation of the dangerous quadratic corrections to the Higgs boson mass.In this thesis, we focussed on the Next-to-Minimal SuperSymmetric extension of the Standard Model, the NMSSM. To compare theoretical predictions with experiments, physical observables must be computed precisely. Since these calculations are long and complex, automatisation is desirable. This was done by developping SloopS, a program to compute one-loop decay width and cross-section at one-loop order in Supersymmetry. With this code, we first analysed the decay of the Higgs boson in a photon and a Z boson. This decay mode is induced at the quantum level and thus is an interesting probe of new physics. Its measurement has been started during Run 1 of the LHC and is continued now in Run 2. The possibility of deviation between the measured signal strength and the one predicted by the Standard Model motivates a careful theoretical analysis in beyond Standard Models which we realised within the NMSSM. Our goal was to compute radiative corrections for any process in this model. To cancel the ultraviolet divergences appearing in higher order computations, we had to carry out and implement the renormalisation of the NMSSM in SloopS. Finally, it was possible to use the renormalised model to compute radiatives corrections to masses and decay widths of Higgs bosons and supersymmetric particles in the NMSSM and to compare the results between different renormalisation schemes.
37

Study of Triple-GEM detectors for the CMS muon spectrometer upgrade at LHC and study of the forward-backward charge asymmetry for the search of extra neutral gauge bosons

Zenoni, Florian 27 April 2016 (has links)
Cette thèse de doctorat a pour cadre l’expérience CMS auprès du grand collisionneur de protons du CERN, le LHC. Le LHC, qui a permis la découverte en 2012 du boson de Brout-Englert-Higgs, est destiné à fonctionner pour encore 20 ans, avec une luminosité qui croîtra progressivement pour atteindre d’ici 2025 la valeur de 7.5 x 10^34 cm^-2 s^-1, c'est à dire environ cinq fois la valeur initialement prévue. Ceci a pour conséquence que les expériences doivent s’adapter et mettre à niveau une série de leurs composants et détecteurs. Une des prochaines mises à niveau de l’expérience CMS concerne les détecteurs Triple Gas Electron Multiplier (GEM) qui sont actuellement en développement pour la partie avant du spectromètre à muons de l’expérience. Ces détecteurs seront installés dans CMS durant le deuxième long arrêt du LHC, en 2018-2019, appelé LS2. Cette mise à niveau a pour but de contrôler les taux de déclenchement d’événements pour la détection de muons, grâce à la haute performance de ces détecteurs Triple GEM en présence de taux de particules extrêmement élevés (>1 kHz/cm^2). De plus, grâce à sa très bonne résolution spatiale (~250 um), la technologie GEM peut améliorer la reconstruction des traces de muons et la capacité d’identification du détecteur avant.Le but de mon travail de recherche est d’estimer la sensitivité des Triple GEMs à l’environnement de radiation hostile dans CMS, essentiellement composé de neutrons et de photons produits lors des interactions entre les particules et les détecteurs constituant l’expérience CMS. L’estimation précise de cette sensitivité est très importante, car une sous-estimation pourrait avoir des effets désastreux pour l’efficacité des Triple GEMs une fois installés dans CMS. Pour valider mes simulations, j’ai également reproduit des résultats expérimentaux obtenus avec d’autres détecteurs similaires déjà installés dans CMS, tels que les Resistive Plate Chambers (RPC).La deuxième partie de mon travail concerne l’étude de la capacité de l’expérience CMS à discerner différents modèles de nouvelle physique prédisant l’existence de bosons vecteurs, appelés Z'. Ces modèles font partie des extensions plausibles du Modèle Standard. En particulier, l’analyse se concentre sur des simulations dans lesquelles le Z' se désintègre en deux muons, et sur l’impact que les mises à niveau avec les détecteurs Triple GEM apporteront à ces mesures tout le long de la phase de haute intensité du LHC. Mes simulations montrent que plus de 20% des événements simulés comptent au moins un muon dans la région en pseudo-rapidité (eta) de CMS couverte par les détecteurs Triple GEM. Les résultats préliminaires démontrent que, dans le case de modèles à 3 TeV/c^2, il sera possible dès la fin de la Phase I de distinguer un Z'I d'un Z'SSM avec un niveau de signification alpha > 3 sigma. / This PhD thesis takes place in the CMS experiment at CERN's Large Hadron Collider (LHC). The LHC allowed the discovery of the Brout-Englert-Higgs boson in 2012, and is designed to run for at least 20 years, with an increasing luminosity that will reach by 2025 a value of 7.5 x 10^34 cm^-2 s^-1, that is a yield five times greater than the one initially intended. As a consequence, the experiments must adapt and upgrade many of their components and particle detectors. One of the foreseen upgrades of the CMS experiment concerns the Triple Gas Electron Multiplier (GEM) detectors, currently in development for the forward muon spectrometer. These detectors will be installed in CMS during the second long LHC shutdown (LS2), in 2018-2019. The aim of this upgrade is to better control the event trigger rate at Level 1 for muon detection, thanks to the high performance of these Triple GEM detectors, in presence of very high particle rates (>1 kHz/cm^2). Moreover, thanks to its excellent spatial resolution (~250 um), the GEM technology can improve the muon track reconstruction and the identification capability of the forward detector.The goal of my research is to estimate the sensitivity of Triple GEMs to the hostile background radiation in CMS, essentially made of neutron and photons generated by the interaction between the particles and CMS detectors. The accurate evaluation of this sensitivity is very important, as an underestimation could have ruinous effects of the Triple GEMs efficiency, once they are installed in CMS. To validate my simulations, I have reproduced experimental results obtained with similar detectors already installed in CMS, such as the Resistive Plate Chambers (RPC).The second part of my work regards the study of the CMS experiment capability to discriminate between different models of new physics predicting the existence of neutral vector bosons called Z'. These models belong to plausible extensions of the Standard Model. In particular, the analysis is focused on simulated samples in which the Z' decays in two muons, and on the impact that the Triple GEM detectors upgrades will bring to these measurements during the high luminosity phase of the LHC, called Phase II. My simulations prove that more than 20% of the simulated events see at least one muon in the CMS pseudo-rapidity (eta) region covered by Triple GEM detectors. Preliminary results show that, in the case of 3 TeV/c^2 models, it will be possible already at the end of Phase I to discriminate a Z'I from a Z'SSM with a significance level alpha > 3 sigma. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
38

Search for rare processes with a Z+bb signature at the LHC, with the matrix element method / Recherche de processus rares avec la signature Z+bb au LHC, à l'aide de la méthode des éléments de matrice

Beluffi, Camille 14 October 2015 (has links)
Cette thèse présente une étude détaillée de l'état final avec un boson Z se désintégrant en deux leptons, produit dans le détecteur CMS au LHC. Pour identifier cette topologie, des algorithmes sophistiqués d'étiquetage des jets b ont été utilisés, et la calibration de l'un d'entre eux, Jet Probability, est exposée. Une étude de la dégradation de cet algorithme à hautes énergies a été menée et une amélioration des performances a pu être notée. Cette étude est suivie par une recherche du boson de Higgs du modèle standard (MS) se désintégrant en deux quarks b, et produit en association avec un boson Z (canal ZH), à l'aide de la Méthode des Éléments de Matrice (MEM) et deux algorithmes d'étiquetage des jets b: JP et Combined Secondary Vertex (CSV). La MEM est un outil perfectionné qui produit une variable discriminante par événement, appelée poids. Pour l'appliquer, plusieurs lots de fonctions de transfert ont été produits. Le résultat final renvoie une limite observée sur le taux de production de ZH avec le rapport d'embranchement H → bb de 5.46xσMS en utilisant CSV et de 4.89xσMS en faisant usage de JP : un léger excès de données est observé seulement pour CSV. Enfin, à partir de l'analyse précédente, une recherche de nouvelle physique modèle-indépendante a été faite. Le but était de discriminer entre eux les processus du MS afin de catégoriser l'espace de phase Zbb, à l'aide d'une méthode récursive basée sur les poids de la MEM. Des paramètres libres ont été ajustés pour obtenir la meilleure limite d'exclusion pour le signal ZH. En utilisant la meilleure configuration trouvée, la limite calculée est de 3.58xσMS, proche de celle obtenue avec l'analyse précédente. / This thesis presents a detailed study of the final state with the Z boson decaying into two leptons, produced in the CMS detector at the LHC. In order to tag this topology, sophisticated b jet tagging algorithms have been used, and the calibration of one of them, the Jet Probability (JP) tagger is exposed. A study of the tagger degradation at high energy has been done and led to a small gain of performance. This investigation is followed by the search for the associated production of the standard model (SM) Higgs boson with a Z boson and decaying into two b quarks (ZH channel), using the Matrix Element Method (MEM) and two b-taggers: JP and Combined Secondary Vertex (CSV). The MEM is an advanced tool that produces an event-by-event discriminating variable, called weight. To apply it, several sets of transfer function have been produced. The final results give an observed limit on the ZH production cross section with the H → bb branching ratio of 5.46xσSM when using the CSV tagger and 4.89xσSM when using the JP algorithm: a small excess of data is observed only for CSV. Finally, based on the previous analysis, a model-independent search of new physics has been performed. The goal was to discriminate all the SM processes to categorize the Zbb phase space, with a recursive approach using the MEM weights. Free parameters had to be tuned in order to find the best exclusion limit on the ZH signal strength. For the best configuration, the computed limit was 3.58xσSM, close to the one obtained with the dedicated search.
39

Etats exotiques du Charmonium / Charmonium Exotic States

Albuquerque, Raphael Moreira de 18 February 2013 (has links)
Cette thèse a utilisé la méthode des règles de somme de QCD pour étudier la nature des résonances du charmonium suivantes: Y(3930), Y(4140), X(4350), Y(4260), Y(4360) et Y(4660). Il y a des fortes indications que ces états ont des structures hadroniques non conventionnelles (ou exotiques) lorsque leurs masses respectives et les modes de désintégration observés expérimentalement sont incompatibles avec ce qui est attendu pour l'état conventionnel du charmonium.Le même phénomène se produit dans le secteur du bottomonium, où les nouveaux états Yb(10890) et Yb(11020), observeés récemment pourraient indiquer l'existence de nouveaux états exotiques du bottomonium. De cette façon, on vérifie que l'état Y(4140) peut être décrit soit par une structure moléculaire D*s D*s (0++) ou par une mélange entre les états moléculaires D*s D*s (0++) et D*D* (0++). Les états Y(3930) et X(4350) ne peuvent pas être décrites par les courants moléculaires D*D* (0++) et D*s D*so (1-+), respectivement. On vérifie également que la structure moléculaire psi' f0(980) (1--) réproduit très bien la masse de l'état Y(4660). Une extension naturelle au secteur du bottomonium indique que l'état moléculaire Y' f0(980) est un bon candidat pour l'état Yb(10890). On a également fait une estimation pour les états moléculaires possibles formées par des mésons D et B, ce qui pourra être observé dans des expériences futures au LHC.Une vaste étude, en utilisant le formalisme habituel des règles de somme et aussi le Double Rapport des règles de somme, est fait pour calculer les masses des baryons lourds en QCD. Les estimations pour les masses des baryons avec un (Qqq) et deux (QQq) quarks lourds sont un excellent test pour la capacité de la méthode de règles de somme à prédire les masses des baryons qui n'ont pas encore été observés. / The QCD sum rules approach was used to study the nature of the following charmonium resonances: Y(3930), Y(4140), X(4350), Y(4260), Y(4360) and Y(4660). There is strong evidence that these states have a non-conventional (or exotic) hadronic structures since their respective masses and decay channels observed experimentally are inconsistent with expected for a conventional charmonium state. The same phenomenon occurs on the bottomonium sector, where new states like Yb(10890) and Yb(11020) observed recently could indicate the existence of new bottomonium exotic states. In this way, one verifies that the state Y(4140) could be described as a D*s D*s (0++) molecular state or even as a mixture of D*s D*s (0++) and D*D* (0++) molecular states. For the Y(3930) and X(4350) states, both cannot be described as a D*D* (0++) and D*s D*s0 (1−+), respectively. From the sum rule point of view, the Y(4660) state could be described as a ψ' f0(980) (1−−) molecular state. The extension to the bottomonium sector is done in a straightforward way to demonstrate that the Y' f0(980) molecular state is a good candidate for describing the structure of the Yb(10890) state. In the following, one estimates the mass of the exotic Bc-like molecular states using QCD sum rules - these exotic states would correspond to a bound states of D(*) and B(*) mesons. All of these mass predictions could (or not) be checked in a near future experiments at LHC.A large study using the Double Ratio of sum rules approach has been evaluated for the study of the heavy baryon masses in QCD. The obtained results for the baryons with one (Qqq) and two (QQq) heavy quarks will be an excellent test for the capability of the sum rule approach in predicting mass of the baryons which have not yet been observed.
40

Probing Lepton Flavour Universality through semitauonic Λb decays using three-pions τ-lepton decays with the LHCb experiment at CERN / Test de l’universalité de la saveur des leptons à travers l’étude des désintégrations semitauoniques de Λb avec les désintégrations en trois pions du lepton τ dans l’expérience LHCb au CERN

Daussy-Renaudin, Victor 26 September 2018 (has links)
L'étude de l'universalité de la saveur des leptons est actuellement un sujet prometteur pour tester la présence de contributions de nouvelle physique dans des processus décrits par le Modèle Standard. Les mesures de désintégrations semitauoniques sont particulièrement intéressantes car de possibles couplages de nouvelle physique au lepton τ pourraient être accrus par rapport aux deux autres leptons du fait de sa masse. Les mesures expérimentales des rapports de branchement des désintégrations B->D*τν et B->Dτν sont présentement en tension avec les prédictions théoriques à la hauteur de 3.78σ. De nouvelles mesures ainsi que l'étude de nouveaux canaux sont ainsi indispensables pour comprendre l'origine de ce désaccord. Le travail présenté dans cette thèse décrit l'utilisation d'une nouvelle technique pour reconstruire le lepton τ via sa désintégration en trois pions et son usage pour mesurer des rapports de rapports de branchements pour deux désintégrations B->D*τν et Λb->Λcτν par rapport aux mêmes désintégrations impliquant des muons. Ces rapports sont respectivement dénommés R(D*) et R(Λc). R(D*) est mesuré en utilisant les 3 fb⁻¹ de collisions proton-proton collectées par le détecteur LHCb pendant le Run1 du LHC à une énergie dans le centre de masse de 7 et 8 TeV via la reconstruction du τ en trois pions. Le résultat obtenu R(D*⁻) = 0.291 ± 0.019(stat) ± 0.026(syst) ± 0.013(ext) est compatible avec la prédiction du Modèle Standard à 1σ près tout en étant cohérent avec les mesures précédemment effectuées. Sa précision permet aussi de conforter le désaccord entre la combinaison des mesures et la prédiction théorique. Ces mêmes données sont aussi analysées dans cette thèse afin d'étudier la désintégration Λb->Λcτν observée pour la première fois avec une significance de 5.7σ. Les incertitudes statistiques et systématiques sont aussi estimées et R(Λc) peut s'écrire R(Λc) = X*(1 ± 0.105(stat) ± 0.162(syst) ± 0.12(ext)) avec la valeur centrale encore masquée à ce jour. / Probing Lepton Flavour Universality has been recently a very promising topic to test for the presence of New Physics contributions in Standard Model processes. Measurements involving semitauonic decays are interesting as potential New Physics couplings to the τ-lepton could be enhanced with respect to the two other leptons due to its mass. Experimental measurements of B->D*τν and B->Dτν branching fractions are currently in tension with theoretical predictions at the 3.78σ level. Both precise measurements and analyses of new channels are thus required to understand the source of this disagreement. The work presented in this thesis describes the use of a new technique to reconstruct τ-lepton using its decay into three pions and its use to measure ratios of branching fractions for two decays B->D*τν and Λb->Λcτν with respect to the same decays involving a muon, these ratios are referred to as R(D*) and R(Λc). Using the 3 fb⁻¹ of proton-proton collisions recorded by the LHCb detector during the LHC Run1 at a centre-of-mass energy of 7 and 8 TeV, R(D*) was measured using the three-pions reconstruction for the τ to be R(D*⁻) = 0.291 ± 0.019(stat) ± 0.026(syst) ± 0.013(ext) This result is compatible with the Standard Model expectation at the 1σ level and is consistent with previous measurements. Its precision is able to slightly enforce the disagreement between the combination of the measurements with the theoretical prediction. The same dataset is also analysed in this thesis to study the Λb->Λcτν decay which is observed for the first time with a significance of 5.7σ. Both statistical and systematic uncertainties were estimated and R(Λc) can then be expressed as R(Λc) = X*(1 ± 0.105(stat) ± 0.162(syst) ± 0.12(ext)) with its central value remaining blind at the moment.

Page generated in 0.129 seconds