• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 89
  • 58
  • 7
  • Tagged with
  • 153
  • 153
  • 101
  • 80
  • 69
  • 58
  • 57
  • 54
  • 51
  • 44
  • 43
  • 41
  • 40
  • 38
  • 36
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Sujets variés concernant les désintégrations hadroniques des mésons B

Imbeault, Maxime January 2009 (has links)
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
52

Preuves de connaissances interactives et non-interactives

Blazy, Olivier 27 September 2012 (has links) (PDF)
Dans cette th ese, nous proposons et utilisons de nouvelles briques conduisant a des protocoles e caces dans le cadre d'une approche modulaire de la cryptographie. Tout d'abord dans un contexte non-interactif en s'appuyant sur les preuves Groth-Sahai, puis avec des interactions en permettant aux Smooth Projective Hash Functions de g erer de nouveaux langages. Dans un premier temps cette th ese s'appuie sur la m ethodologie introduite par Groth et Sahai pour des preuves de connaissance non-interactives pour d evelopper divers protocoles de signatures de groupe dans le mod ele standard, puis de signatures en blanc. Pour cela, nous proposons un syst eme permettant de signer un chi r e de mani ere telle que, sous r eserve de connaissance d'un secret ind ependant du protocole de signature, il soit possible de retrouver une signature sur un clair. Cette approche nous permet entre autre de proposer un protocole de signatures en blanc avec un nombre optimal d'interactions a la n duquel le demandeur peut utiliser une signature usuelle et ce sous des hypoth eses classiques dans le mod ele standard. Ensuite nous proposons une nouvelle m ethodologie pour faire des preuves implicites de connaissance dans un contexte interactif sans oracle al eatoire. Pour cela nous utilisons les smooth projective hash functions, dans un premier temps pour faire des Oblivious Signature-Based Envelopes, puis dans des protocoles d'authenti cation et de mise en accord de cl es. Ce faisant nous pr ecisons la notion de langage, et elargissons grandement le spectre des langages pouvant ^etre trait es a l'aide de ces SPHF. Gr^ace a ce r esultat nous introduisons le concept de LAKE (Language Authenticated Key Exchange) ou encore Echange de cl es authenti e par un langage : un moyen pour deux utilisateurs de se mettre d'accord sur une cl e si chacun poss ede un secret v eri ant une contrainte esp er ee par l'autre. Nous montrons alors comment instancier plusieurs protocoles d' echange de cl e sous ce regard plus effi cacement qu'avec les techniques actuelles, et nous prouvons la s ecurit e de nos instanciations dans le mod ele UC sous des hypoth eses usuelles.
53

Recherche d'un neutrino stérile avec l'expérience STEREO : construction du veto à muons et estimation du bruit de fond corrélé / Search for a sterile neutrino with the STEREO experiment : construction of a muon veto and estimation of the correlated background

Zsoldos, Stephane 30 September 2016 (has links)
La réévaluation théorique du flux d'antineutrinos émis par les réacteurs nucléaires a révélé un déficit de 6% entre le flux observé et le flux attendu. Cette anomalie des antineutrinos de réacteur est significative à 2.7 σ, et une possible interprétation de ce résultat est l'existence d'un état stérile léger du neutrino vers lequel les neutrinos pourraient osciller à très courte distance. Le projet STEREO présenté dans ce manuscrit a pour objectif de prouver ou d'infirmer l'existence d'une telle oscillation.L'expérience est installée près (~10 m) du cœur compact du réacteur de recherche de l'Institut Laue-Langevin (ILL) à Grenoble, France, qui produit un important flux d'antineutrinos électroniques avec une énergie comprise entre 1 et 10 MeV. Le volume utile du détecteur STEREO consiste en une structure de 2 m3 segmentée en six cellules identiques remplies de scintillateur liquide dopé au gadolinium et alignées dans la direction du cœur. La détection s'effectue à l'aide de la réaction beta-inverse.Cette configuration offre une excellente sensibilité à une éventuelle oscillation à courte distance en mesurant la distorsion relative du spectre des antineutrinos dans chaque cellule en fonction de l'énergie et de la distance.Les lignes expérimentales de faisceaux de neutrons de l'ILL produisent un fort bruit de fond qui a été caractérisé à l'occasion de plusieurs campagnes de mesure. Leur analyse a permis de valider le design des lourds blindages passifs installés autour du détecteur et de la zone d'installation pour modérer leurs effets sur l’expérience STEREO.De plus, un détecteur supplémentaire est installé au-dessus de STEREO pour signaler la présence d'un muon issu du rayonnement cosmique et définir un veto aux mesures physiques. Ces muons, lors de leur passage à travers les blindages du détecteur, peuvent produire des neutrons rapides capables d’imiter le signal attendu par les antineutrinos. Il est donc essentiel de définir un veto qui soit le plus efficace et homogène possible.Il prend la forme d'une cuve de 2.5 m3 remplie d'eau dont la détection est basée sur l’effet Tcherenkov. Cette lumière émise par le passage des muons est récoltée sur 20 tubes photomultiplicateurs répartis au-dessus de la cuve et un additif est rajouté dans l'eau pour améliorer la collection de lumière sur les photomultiplicateurs.Ce veto à muons couvre complètement le détecteur STEREO ainsi que ces blindagesL'étude de plusieurs configurations de ce veto à muons sous la forme de prototypes avant la construction de l'instrument final a permis de définir une méthode de déclenchement du signal pour les muons extrêmement efficace tout en conservant une sensibilité réduite aux autres particules. Ces nombreux tests ont par ailleurs permis la validation et l'optimisation de l'électronique développée pour l'expérience au LPSC qui est la même pour le détecteur STEREO et pour le veto à muons.Après avoir caractérisé le flux de muons sur place et l'efficacité du veto à muons, une simulation a été développée et a permis d'évaluer le nombre de faux événements dus à ces neutrons. Ainsi, ce résultat a confirmé les prérequis scientifiques de l'expérience, à savoir la capacité à sonder l'anomalie des antineutrinos de réacteur en 300 jours de données réacteur.Le détecteur est actuellement en place sur site et prévoit de livrer ses premiers résultats fin 2016. / The re-evaluation of the theoretical antineutrino flux emitted by nuclear reactors revealed a deficit of about 6% between the observed flux and the expected one. This so-called reactor antineutrino anomaly has a statistical significance of 2.7σ, and one possible explanation to this deficit could be the existence of a light sterile neutrino state into which reactor antineutrino oscillate at very short distances. The STEREO project, which will be presented in this thesis, aims to find an evidence of such oscillation.The measurement will take place at only few meters (~10 m) from the compact core of the Institut Laue-Langevin (ILL) research reactor in Grenoble, France, which provides a large flux of electron antineutrinos with an energy range from 1 to 10 MeV. The sensitive volume of the STEREO detector is 2m3 of organic liquid scintillator doped with Gadolinium, consisting of 6 cells stacked along the direction of the core and detecting anti-neutrinos via inverse beta decay.This setup will provide excellent sensitivity to short-baseline oscillations effects by precisely measuring any relative distortion of the antineutrino spectrum as a function of both energy and baseline.Close proximity to the reactor yield a high background environment from nearby experiments that is managed through heavy shielding surrounding the detector. Many measurements campaign has been performed to characterized this background and had allowed the improvement of the passive shielding design installed on-site.Moreover, an additional detector is settled above STEREO to tag the presence of an incoming cosmic muon and define a muon veto. These muons will produce fast neutrons during their interaction through the shieldings of STEREO and these neutrons can mimick the expected antineutrino signal. Therefore it is crucial to define the most efficient and homogenous veto to these muons.It consists of a tank of 2.5m3 of water detecting muons by their Cerenkov radiation. The light emitted is collected thanks to 20 photomultipliers positionned at the top of the tank and a chemical compound is added into the water to improve the light collection on the photomultipliers.This muon veto fully covers the STEREO detector along with its shieldings.Several configurations of the muon veto system using prototypes before the final instrumental has allowed to define a trigger system which allows an excellent efficiency to cosmic muons regarding a little sensitivity to others particles. These numerous tests were also used to check and optimize the dedicated electronics builded at LPSC, which is the same for both the STEREO detector and muon veto.After characterization of the muon flux on site and with respect to the muon veto efficiency, a simulation has been developped to evaluate the rate of fake antineutrino event expected from the muon-induced fast neutrons. Thus, this result has confirmed the scientific requirements of the experience, which is the ability to probe the reactor antineutrino anomaly in 300 days of reactor data.STEREO is at the moment being comissionned and will deliver his first results at the end of 2016.
54

Interpréter les recherches de nouvelle physique au LHC à l’aide de modèles simplifiés / Understanding LHC searches for new physics with simplified models

Laa, Ursula 15 September 2017 (has links)
La découverte récente du boson de Higgs complète le Modèle Standard de la physique des particules, mais aucun signal de nouvelle physique n’a été observé en dépit des nombreuses recherches effectuées par les expériences du Large Hadron Collider (LHC). Cependant le problème de hiérarchie et la présence de matière noire sont des motivations importantes pour considérer des théories qui prédisent de nouveaux états à l’échelle électro-faible, de fait, de nombreux travaux ont été initiés sur l’interprétation des résultats négatifs et leurs implications pour de tels scénarios. Les modèles simplifiés sont devenus une norme pour l’interprétation des recherches de supersymétrie (SUSY) au LHC, et plus récemment pour les recherches de matière noire. Le succès de cette approche vient d’un petit nombre de paramètres liés aux observables au LHC de façon claire, ce qui permet une optimisation efficace des stratégies de recherche. De plus, les modèles complets peuvent être projetés sur de tels modèles simplifiés ce qui permet une compréhension intuitive des contraintes sur l’espace des paramètres et un test rapide des contraintes du LHC. Puisque les relations entre les paramètres de modèles généraux et les modèles simplifiés ne sont pas en général directes, des outils numériques sophistiqués sont nécessaires pour faciliter cette projection.Cette thèse explore de nombreux aspects de l’interpretation des recherches du LHC par les modèles simplifiés, et de la façon dont ils sont utilisés pour faire le lien entre les observations expérimentales et les descriptions théoriques. En particulier le code SModelS est présenté, il permet la décomposition automatique de modèles généraux en modèles simplifiés inspirés par la SUSY, et de les tester aux contraintes expérimentales incluses dans une base de données. Sous certaines hypothèses SModelS peut être utilisé pour contraindre une grande classe de modèles comprenant un candidat à la matière noire. Ces hypothèses sont discutées en détail et des études de modèles supersymétriques (non-minimaux) utilisant SModelS pour l’évaluation rapide des contraintes expérimentales sont présentées. Ces études soulignent les avantages ainsi que les limitations de l’utilisation de modèles simplifiés. Finalement, concernant les modèles simplifiés pour la recherche de matière noire, des scénarios avec un médiateur de spin-2 sont étudiés en détail. / The recent discovery of the Higgs boson completes the standard model of particle physics, but no compelling signal for physics beyond the standard model has been observed despite the numerous searches performed by experiments at the Large Hadron Collider (LHC). Nevertheless, the hierarchy problem and the observation of dark matter are compelling arguments to study theories predicting new states at the weak scale, and a main effort has been directed towards understanding the negative search results and their implications for such weak scale new physics scenarios. Simplified models have become a standard in the interpretation of LHC searches for supersymmetry (SUSY), aiming at maximal model independence. More recently a similar approach was adopted for the interpretation of dark matter searches. The success of this approach is due to the fact that the small set of free parameters relates to the observables in LHC searches in a clear way, allowing an efficient optimisation of search strategies. Moreover, generic models can be projected on a simplified model description giving an intuitive understanding of the constraints on the parameter space, and providing a fast test against LHC constraints. As the relation between generic model parameters and simplified models is generally not straightforward, sophisticated computational tools are required to facilitate such a projection.This thesis explores the various aspects of simplified model interpretations of LHC searches and how they can be used to understand the results and bridge the gap between theoretical descriptions and experimental observations. In particular the software tool SModelS is presented, a tool that automates the mapping of generic models onto SUSY-like simplified model components, and that allows direct tests against corresponding experimental limits in the included database. Under certain assumptions SModelS can be used to constrain a wide class of new physics models with a dark matter candidate. These assumptions and some explicit tests are discussed in detail, followed by studies of (non-minimal) supersymmetric models using SModelS for the fast evaluation of constraints from SUSY searches. These studies highlight the capacity as well as the limitations of using simplified model results to study generic models. Finally regarding simplified models for dark matter searches, scenarios with a spin-2 mediator are studied in detail.
55

Mesure de la corrélation de spin ttbar et de la polarisation du W dans les événements ttbar di-leptonique avec ATLAS / Measurement of ttbar spin correlation and w polarization with the tt di-leptonic channel events at Atlas

Chen, Liming 10 December 2013 (has links)
Le modèle standard (SM) est une théorie auto cohérente expliquant les particules élémentaires et leurs interactions. Le grand collisionneur de hadron ou Large Hadron Collider (LHC) a été construit au CERN pour mesurer avec précision les paramètres du SM et en chercher la dernière particule, le boson de Higgs. Le détecteur polyvalent ATLAS, mis en place auprès d’un de ses points d’interaction, couvre la quasi-totalité de l’angle solide et peut détecter les particules issues de collisions proton-proton (pp). Un très grand nombre d’événements ttbar y sont produits et permettent des mesures précises des propriétés du quark top. Les événements contenant exactement deux leptons isolés de charges opposées, au moins deux jets de haute impulsion transverse et une grande énergie manquante, sont considérés comme événements signal ttbar di-leptonique. Pour supprimer le fond, au moins un jet doit être étiqueté de type b. Ce canal a un rapport de branchement plus faible que d’autres canaux mais ses caractéristiques permettent de rejeter significativement le fond QCD et WJet.Cette thèse présente la mesure différentielle de la corrélation de spin ttbar et de l’hélicité du boson W avec les 4.6 fb-1 de données de collisions pp à 7TeV enregistrées en 2011. Les deux mesures appliquent une méthode bayésienne de dé-convolution pour extraire la «vraie» distribution de parton de celle «observée». La régularisation est étudiée dans les différentes analyses. Le spectre différentiel de corrélation de spin combiné de saveur dé-convolué est en accord avec les prédictions NLO SM. Les fractions F0, FL et FR, d’helicité combinée de saveur, du boson W sont également compatibles avec les valeurs NLO SM. / The Standard Model (SM) is a self-consistent theory that explains the elementary particles and interactions. To further confirm the SM theory, the Large Hadron Collider (LHC) was built at CERN to accurately validate the SM and search for the last SM particle, the Higgs boson. The multipurpose ATLAS detector is set up at one of the LHC interaction point. Nearly covering the whole solid angle, it detects particles over a wide range of energies with well-designed sub-detectors to record proton-proton (pp) collision up to a 14TeV center-of-mass energy and a luminosity of 1034 cm-2 s-1. A large number of ttbar events are produced and can be used for precise top quark property studies. Events that decay in exactly two opposite sign isolated leptons, at least two high transverse momentum jets and large missing energy are considered as di-leptonic t tbar signal events. To suppress the background, at least one of jets must be b-tagged. This channel has a lesser branching ratio with respect to other channels but its features allow to reject the QCD and W+jet backgrounds significantly.This thesis presents the differential measurement of ttbar spin correlation and W boson polarization using the 4.6 fb-1 7TeV pp collision data recorded in 2011. Both of the measurements apply Bayesian unfolding algorithm to extract the parton "true" spectrum from the "observed" one. The regularization is well studied in the different analyses. The combined unfolded spectrum of ttbar spin correlation agrees with the SM NLO prediction at differential level. The extracted W boson helicity combined results of F0, FL and FR fractions are also consistent with SM NLO values.
56

Mesure de la section efficace de production de paires de photons isolés dans l'expérience ATLAS au LHC et étude des couplages à quatre photons / Measurement of the isolated di-photon cross section with the ATLAS detector at the LHC and study of four photon couplings

Saimpert, Matthias 27 June 2016 (has links)
Le LHC, qui est le collisionneur proton-proton le plus puissant du monde situé au CERN (Suisse), donne une occasion unique de pouvoir tester nos connaissances des interactions fondamentales à l'échelle du TeV. Au cours de cette thèse, deux projets ont été accomplis dans ce but. Tout d'abord, la mesure de la section efficace de production d'au moins deux photons dans l'état final (pp→γγ+X) a été réalisée à l'aide des données prises avec une énergie dans le centre de masse de 8 TeV par le détecteur ATLAS, qui est l'un des détecteurs polyvalents installé autour du LHC. Les photons sont des particules intéressantes pour tester la théorie de l'interaction forte (chromodynamique quantique ou QCD) car ils sont couplés aux quarks et aux gluons sans pour autant s'hadroniser, ce qui permet de pouvoir les mesurer avec une très bonne résolution. La mesure de leur taux de production au LHC permet de tester la QCD à la fois dans le domaine perturbatif et non-perturbatif. Elle est également sensible à l'émission de particules à basse énergie dans l'état initial, qui est un phénomène délicat à décrire d'un point de vue théorique à cause des divergences molles et collinéaires découlant de la QCD. Les incertitudes expérimentales ont été divisées par un facteur 2 ou plus comparé aux mesures réalisées précédemment au LHC ou au Tevatron (Fermilab, États-Unis) et la très bonne statistique des données d'ATLAS à 8 TeV a permis une augmentation significative à la fois de la résolution et de la portée de la mesure. En général, un bon accord est observé avec les prédictions théoriques. Le second projet réalisé au cours de la thèse est consacré à l'évaluation du potentiel de découverte relié à la mesure de la diffusion γγ au LHC (γγ→γγ). La diffusion γγ est un processus singulier car prédit uniquement via des fluctuations quantiques qui n'a jamais été observé directement. Il implique un terme de couplage à quatre photons, qui montre une sensibilité significative à une large gamme de modèles d'extension du modèle standard à haute énergie, tels que ceux prédisant l'existence de dimensions supplémentaires de l'espace pour résoudre le problème de hiérarchie. En tirant profit du flux important de photons venant des protons au LHC, je montre qu'il est possible de découvrir des couplages anomaux à quatre photons avec une sensibilité permettant de rivaliser avec certaines recherches directes. Enfin, j'ai eu l'occasion de tester la nouvelle puce SAMPIC qui vise à réaliser des mesures de temps de vol avec une précision de l'ordre de quelques picosecondes grâce à un échantillonnage rapide des signaux de détecteur. Les performances de SAMPIC ont été testées à partir de signaux gaussiens produits par un générateur et par des détecteurs soumis à des impulsions infrarouges. Dans ces conditions idéales, SAMPIC permet de réaliser des mesures de temps de vol avec une résolution de l'ordre de 4 (40) ps pour les signaux générés (de détecteurs). / The LHC, which is the most powerful proton-proton collider in the world located at CERN (Switzerland), brings unprecedented opportunities to test our knowledge of the fundamental interactions at the TeV scale. In this work, two main projects have been achieved for this purpose. First, the production cross section measurement of at least two photons in the final state (pp→γγ+X) is performed with data taken at a center-of-mass energy of 8 TeV by the ATLAS detector, which is one of the multipurpose detector installed around the LHC ring. Photons are interesting probes to test the theory of strong interactions (Quantum chromodynamics or QCD) since they couple significantly to quarks and gluons but do not hadronize and thus still allow to perform high resolution measurements. The measurement of their production rate at the LHC allows to test QCD in both the perturbative and the non-perturbative domain. It is also sensitive to the emission of soft particles in the initial-state, which is tricky to handle on the theory side due to the collinear and soft divergences arising in QCD. Experimental uncertainties have been reduced by a factor 2 or more with respect to the measurements performed previously at the LHC or at the Tevatron (Fermilab, USA) and the high statistics of the ATLAS data sample at 8 TeV allows to increase significantly both the reach and the resolution of the measurement. In general, a good agreement is observed with theoretical predictions. The second project achieved in this work is dedicated to the evaluation of the light-by-light scattering potential (LbyL, γγ→γγ) for new physics searches. LbyL is an intriguing process arising from quantum fluctuations only that has never been observed directly. It involves four-photon couplings, which are shown to be highly sensitive to a broad range of new physics models at high energy such as the ones predicting the existence of extra spatial dimensions to solve the hierarchy problem currently affecting the standard model of particle physics. By taking benefit of the photon flux from the protons at the LHC, I show that one may discover anomalous four photon couplings with a sensitivity allowing to compete with several direct new physics searches. Finally, I had the opportunity to test the new SAMPIC chip which aims to perform time-of-flight measurements with a few picoseconds precision from fast samplings of detector signals. SAMPIC timing capabilities have been tested using Gaussian signals generated by a signal generator or by silicon detectors pulsed with an infrared laser. Under these ideal conditions, the SAMPIC chip has proven to be capable of timing resolutions down to 4 (40) ps with synthesized (silicon detector) signals.
57

Recherche d'une résonance lourde dans le canal X→WW→eνμν avec le détecteur ATLAS au LHC / Search for heavy resonances in the X→WW→eνμν channel with the ATLAS detector at the LHC

Zhao, Yongke 03 June 2018 (has links)
Une recherche de résonance neutre et lourde X est effectuée dans le canal X→WW→eνμν en utilisant les données en collision pp correspondant à une luminosité intégrée d'environ 36,1 fb⁻¹, prises à une énergie dans le centre-de-masse de 13 TeV par le détecteur ATLAS au LHC. La résonance peut être soit un boson de Higgs scalaire lourd soit d'autres résonances lourdes aux spins différents. Deux scénarios de largeur sont étudiés pour un boson de Higgs lourd dans les modes de fusion gluon-gluon et de fusion vecteur-boson; une largeur soit étroite soit grande. Plusieurs hypothèses sont utilisées pour rechercher d'autres résonances, comme le modèle avec deux doublets de Higgs, le modèle de Georgi-Machacek, le modèle avec un triplet vectoriel en mode d'annihilation quark-antiquark, le modèle de Randall-Sundrum avec un graviton de spin 2 correspondant à un paramètre d'échelle de courbure de 1 ou 0,5 et un signal de spin 2 dans le mode de fusion vecteur-boson. Trois catégories d'événements indépendantes sont définies dans l'analyse : une catégorie inclusive où les espaces de phase en fusion vecteur boson sont exclus et deux autres catégories qui sont optimisées pour les signaux produits en mode de fusion vecteur-boson avec un jet ou au moins deux jets. Aucun excès significatif d'événements au-delà de la prédiction du bruit de fond du Modèle Standard ne se trouve dans la gamme de masse comprise entre 200 GeV et 5 TeV. Les limites supérieures sont obtenues sur le produit de la section efficace de la production de la résonance et du rapport de branchement X→WW. Pour les signaux de bosons de Higgs lourds, les valeurs supérieures à 6,4 pb et 1,3 pb à mH = 200 GeV et supérieures à 0,008 pb et 0,005 pb à 4 TeV sont exclues à un niveau de confiance de 95% pour la fusion gluon-gluon et la fusion vecteur-boson, respectivement. Pour les signaux prédits par le modèle avec un triplet vectoriel, les valeurs de masse inférieures à 1,3 TeV sont exclues. De la même manière, pour les signaux prédits par le modèle de Randall­ Sundrum, les valeurs de masse inférieures à 1,1 TeV et 850 GeV sont exclues pour le paramètre d'échelle de courbure de 1 et 0.5, respectivement. / A search for a heavy neutral resonance X is performed in the X→WW→eνμν decay channel using pp collision data corresponding to an integrated luminosity of 36.1 fb⁻¹, collected at a centre-of-mass energy of 13 TeV by the ATLAS detector at the Large Hadron Collider. The resonance can be either a heavy scalar Higgs boson or other heavy resonances with different spins. Two scenarios are considered for the heavy Higgs boson hypotheses with different decay widths in both the gluon-gluon fusion and the vector­ boson fusion production modes, namely a narrow-width approximation and a large width assumption. Several hypotheses are used for the interpretation to search for other resonances, like two Higgs doublet models, Georgi-Machacek model, heavy vector triplet model in the quark-antiquark annihilation mode, a bulk Randall-Sundrum graviton model with a spin-2 Graviton with a curvature scale parameter of either 1 or 0.5 and a spin-2 signal in the vector-boson fusion mode. Three orthogonal event categories are defined in the analysis: two vector-boson fusion categories which are optimised for the signals produced in the vector-boson fusion mode with one jet or at least two jets and one quasi-inclusive gluon-gluon fusion category where the vector boson fusion phase spaces defined by the two vector-boson fusion categories are excluded. No significant excess of events beyond the Standard Model background prediction is found in the mass range between 200 GeV and up to 5 TeV. Upper limits are set on the product of the production cross section of the resonance and the X→WW branching fraction. For heavy Higgs boson signals, values above 6.4 pb and 1.3 pb at 200 GeV and above 0.008 pb and 0.005 pb at 4 TeV are excluded at 95% confidence level for the gluon-gluon fusion and the vector-boson fusion production modes, respectively. For signals predicted by the heavy vector triplet model, mass values below 1.3 TeV are excluded. Similarly, for signals predicted by the bulk Randall-Sundrum graviton model, mass values below 1.1 TeV and 850 GeV are excluded for the curvature scale parameter of 1 and 0.5, respectively.
58

Dark matter phenomenology : from simplified WIMP models to refined alternative solutions / Phénoménologie de la matière noire : étude de modèles WIMPs et solutions alternatives

Pierre, Mathias 25 September 2018 (has links)
Un des problèmes les plus intrigants de la physique moderne est l'identification de la nature d'une composante de matière non-relativiste présente dans l'univers, contribuant à plus de 25% de sa densité d'énergie totale, appelée matière noire. Les particules "WIMPs" (Weakly Interacting Massive Particles) sont parmi les catégories de candidats à la matière noire les plus considérées. Cependant, en l'absence de résultats concluants d'expériences de détection directe, indirecte et auprès de collisionneurs de particules, la première partie de cette thèse est dévouée à l'étude du paradigme "WIMP" dans le contexte de modèles simplifiés. Des modèles considérant des extensions de jauge sont étudiés par la suite tels que des théories présentant des couplages de Chern-Simons ainsi qu'un modèle motivé par l'observation récente d'anomalies dans le domaine de la physique la saveur lié à l'observable RK(*). La deuxième partie de cette thèse est dévouée à l'étude de mécanismes alternatifs de production thermique de matière noire en particulier en considérant une réalisation spécifique du mécanisme "SIMP" (Strongly Interacting Massives Particles) dans le contexte d'une symétrie de jauge non-abélienne cachée. Dans une dernière partie, la possibilité de produire une composante de matière noire de manière non-thermique à travers le mécanisme "freeze-in" est étudiée. En particulier, le fort impact de l'époque post-inflationnaire de l'univers sur la production de densité de matière noire est illustré par l'étude d'un modèle de matière noiremédiée par un champ de spin 2 massif en plus du graviton standard. / One of the most puzzling problems of modern physics is the identification of the nature a non-relativistic matter component present in the universe, contributing to more than 25% of the total energy budget, known as Dark Matter. Weakly Interacting Massive Particles (WIMPs) are among the best motivated dark matter candidates. However, in light of non conclusive detection signals and strong constraints from collider, direct and indirect detection experiments, this thesis presents constraints on several realizations of the WIMP paradigm in the context of simplified dark matter models. More elaborated models considering extended gauge structures are discussed further on, such as constructions involving generalized Chern-Simons couplings and a specific WIMP scenario motivated by some recently observed flavor anomalies related to the RK(*) observable. The second part of this thesis is devoted to the discussion of an alternative dark matter thermal production mechanism where an explicit realization of the Strongly Interacting Massive Particles (SIMPs) paradigm is discussed in the context of a non-Abelian hidden gauge structure. In a last part, the possibility of producing non-thermally a dark matter component via the "freeze-in" mechanism was investigated and the strong impact of the postinationary reaheating stage of the universe on such constructions illustrated by the specific case where dark matter density production is mediated by a heavy spin-2 field in addition to the standard graviton.
59

Measurements of Higgs boson properties in the four-lepton final state at sqrt(s) = 13 TeV with the CMS experiment at the LHC. / Mesure des propriétés du boson de Higgs dans l’état final à quatre leptons à √s = 13 TeV avec l’expérience CMS au LHC

Regnard, Simon 07 November 2016 (has links)
Cette thèse présente une étude de la production de boson de Higgs dans les collisions proton-proton à sqrt(s) = 13 TeV enregistrées avec le détecteur CMS au Grand collisionneur de hadrons (LHC) du CERN, exploitant la voie de désintégration en une paire de bosons Z qui se désintègrent à leur tour en paires d’électrons ou de muons (H->ZZ->4l, l = e,mu).Ce travail s’inscrit dans le contexte du début du Run II du LHC, une nouvelle période de prise de données qui a commencé en 2015 après une interruption de deux ans. Ce redémarrage est marqué par une augmentation de l’énergie dans le centre de masse de 8 TeV à 13 TeV et un resserrement de l’espacement entre paquets de protons de 50 ns à 25 ns. Ces nouveaux paramètres augmentent à la fois la luminosité et placent des contraintes inédites sur le déclenchement, la reconstruction et l’analyse des données de collisions pp. Un effort important est donc consacré à l’amélioration et la réoptimisation du système de déclenchement de CMS pour le Run II, en mettant l’accent sur la reconstruction et la sélection des électrons et sur la préparation de chemins de déclenchement multi-leptons préservant une efficacité maximale pour le canal H->ZZ->4l.Dans un second temps, les algorithmes de sélection hors-ligne des électrons et des muons sont optimisés et leurs efficacités sont mesurées dans les données, tandis que la logique de sélection des candidats à quatre leptons est améliorée. Afin d’extraire des modes de production rares du boson de Higgs tels que la fusion de bosons vecteurs, la production par « Higgsstrahlung » VH et la production associée ttH, une nouvelle répartition des événements sélectionnés en catégories exclusives est introduite, fondée sur des discriminants utilisant le calcul d’éléments de matrice et l’étiquetage de saveur des jets.Les résultats de l’analyse des premières données à 13 TeV sont présentés pour des lots de données enregistrés en 2015 et au début de 2016, qui correspondent à des luminosités intégrées respectives de 2.8 fb-1 and 12.9 fb-1. Le boson de Higgs est redécouvert de façon indépendante à la nouvelle énergie. L’intensité du signal relative à la prédiction du modèle standard, la masse et la largeur de désintégration du boson sont mesurées, ainsi qu’un jeu de paramètres contrôlant les contributions des principaux modes de production attendus. Tous les résultats sont en bon accord avec les prévisions du modèle standard pour un boson de Higgs à 125 GeV, aux incertitudes de mesure près, ces dernières étant dominées par la composante statistique avec l’échantillon de données actuel. Enfin, une autre résonance se désintégrant en quatre leptons est recherchée à haute masse, et aucun excès significatif n’est observé. / This thesis reports a study of Higgs boson production in proton-proton collisions at sqrt(s) = 13 TeV recorded with the CMS detector at the CERN Large Hadron Collider (LHC), exploiting the decay channel into a pair of Z bosons that in turn decay into pairs of electrons or muons (H->ZZ->4l, l = e,mu).This work is carried out in the context of the beginning of Run II of the LHC, a new data-taking period that started in 2015, following a two-year-long shutdown. This restart is marked by an increase of the centre-of-mass energy from 8 TeV to 13 TeV, and a narrowing of the spacing of proton bunches from 50 ns to 25 ns. These new parameters both increase the luminosity and set new constraints on the triggering, reconstruction and analysis of pp collision events. Therefore, considerable effort is devoted to the improvement and reoptimization of the CMS trigger system for Run II, focusing on the reconstruction and selection of electrons and on the preparation of multilepton trigger paths that preserve a maximal efficiency for the H->ZZ->4l channel.Secondly, the offline algorithms for electron and muon selection are optimized and their efficiencies are measured in data, while the selection logic of four-lepton candidates is improved. In order to extract rare production modes of the Higgs boson such as vector boson fusion, VH associated production and ttH associated production, a new classification of selected events into exclusive categories is introduced, using discriminants based on matrix-element calculations and jet flavour tagging.Results of the analysis of first 13 TeV data are presented for two data sets recorded in 2015 and early 2016, corresponding to integrated luminosities of 2.8 fb-1 and 12.9 fb-1, respectively. A standalone rediscovery of the Higgs boson in the four-lepton channel is achieved at the new energy. The signal strength relative to the standard model prediction, the mass and decay width of the boson, and a set of parameters describing the contributions of its main predicted production modes are measured. All results are in good agreement with standard model expectations for a 125 GeV Higgs boson within the incertainties, which are dominated by their statistical component with the current data set. Finally, a search for an additional high-mass resonance decaying to four leptons is performed, and no significant excess is observed.
60

Mesure du temps de vie de la composante CP paire du $B{^0} _{s}$ dans LHCb. Qualification des phototubes du preshower.

Borras, D. 26 October 2006 (has links) (PDF)
Ce document de thèse présente un travail à la fois instrumental et de prospective pour la Physique dans le cadre de l'expérience LHCb, sise auprès de la machine LHC, au Cern, dont la mise en service est prévue au printemps 2008. Collisionneur proton-proton délivrant une énergie dans le centre de masse de 14 TeV, le LHC produira nominalement dans l'expérience LHCb 1012 paires de particules belles par an. Après les succès expérimentaux remarquables enregistrés par les usines à mésons B BaBar (SLAC) et Belle (KEK), le Modèle Standard (MS) de la Physique des Particules accommode correctement l'ensemble des données de la Physique des Saveurs et singulièrement le mécanisme CKM est établi comme la source dominante de violation de la symétrie CP dans les systèmes de particules contenant un quark beau ou un quark étrange. La très grande statistique dont disposera l'expérience LHCb devrait permettre à la fois la scrutation de modes rares particulièrement sensibles à des contributions de Nouvelle Physique et des mesures de précision pour une métrologie améliorée des paramètres pertinents du MS. Dans ce cadre, il sera possible de faire une exploration systématique des propriétés du méson $B{^0} _{s}$. Ce travail de thèse porte sur la faisabilité d'une mesure précise du temps de vie de la composante courte de cette particule par l'étude de sa désintégration $B{^0} _{s}\ to \ D ^{+}_{s} D^{-}_{s}$ dont l'état final est CP pair. Nous avons montré qu'une précision de 2% pouvait être atteinte après une année de prise de données à la luminosité nominale et contraignait significativement la différence de largeurs $ \Delta Gamma _ {s} /Gamma {s}$. L'autre volet de ce travail de thèse concerne la qualification des photodétecteurs qui équipent le détecteur de pieds de gerbe pour lequel l'équipe de Clermont a la responsabilité de l'entièreté de la chaîne de lecture. Le photodétecteur que nous avons retenu est un photomultiplicateur compact 64 anodes produit par la compagnie Hamamatsu. J'ai participé à la caractérisation systématique et à la certification des 100 tubes du détecteur au moyen d'un banc de test spécialement conçu à cette fin. Un élément crucial de ces études à été la mise en évidence d'une diaphonie entre canaux inacceptable au regard des spécifications de physique pour une fraction non négligeable de la production et la sélection finale du nombre de tubes nécessaires qui satisfaisaient tous les critères d'acceptation.

Page generated in 0.0744 seconds