• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 64
  • 44
  • 6
  • Tagged with
  • 115
  • 115
  • 90
  • 57
  • 42
  • 36
  • 34
  • 34
  • 32
  • 25
  • 24
  • 22
  • 17
  • 17
  • 16
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Mesure des processus de double désintégration bêta du 100Mo vers l'état excité 0+1 du 100Ru dans l'expérience Nemo3 - Programme de R&D SuperNEMO : mise au point d'un détecteur BiPo pour la mesure de très faibles contaminations de feuilles sources

Chapon, A. 10 October 2011 (has links) (PDF)
Le détecteur Nemo3 a été conçu pour étudier la double désintégration bêta, et notamment, le processus sans émission de neutrino ( bb0v). Toutefois, la quantité de 100Mo présente dans le détecteur (7 kg) permet aussi une mesure compétitive de la double désintégration bêta avec émission de deux neutrinos ( bb2v) du 100Mo vers l'état excité 0+1 du 100Ru (canal eeNy). Ledit processus et les sources de bruit de fond attendues ont d'abord fait l'objet 'études par simulations Monte-Carlo, a n d'estimer ensuite leurs contributions respectives à l'ensemble des données expérimentales de Nemo3 (2003-2011). Celles-ci ont été analysées : la demi-vie du processus bb2v a pu être mesurée et une limite inférieure sur la demi-vie du processus bb0v établie. Par ailleurs, l'expérience SuperNEMO, successeur de Nemo3, vise à atteindre une sensibilité de 1026 années sur la demi-vie du processus bb0v. Aussi, la radiopureté des feuilles sources de SuperNEMO est soumise à des contraintes que ne permettent pas de mesurer les méthodes usuelles de spectrométrie y : 2 µBq.kg-1 en 208Tl et 10 µBq.kg-1 en 214Bi. C'est pourquoi un détecteur dédié, BiPo, a été développé pour mesurer les contaminations en 208Tl et en 214Bi des feuilles sources de SuperNEMO, par détection de la chaîne b-alpha de décroissance Bi->Po->Pb. Après avoir validé le principe de mesure, la contamination intrinsèque au détecteur a été mesurée. Extrapolée à un détecteur BiPo final de 3:6m2, ce dernier permettra de mesurer les contaminations des feuilles sources de SuperNEMO en 208Tl et en 214Bi, en six mois de mesure, avec la sensibilité requise.
92

Factorisations des processus exclusifs en chromodynamique quantique perturbative

Segond, Mathieu 07 December 2007 (has links) (PDF)
Le travail effectué dans cette thèse présente diverses études théoriques et phénoménologiques du processus de production exclusive de mésons vecteurs rho neutres polarisés longitudinalement dans les collisions entre photons virtuels, dans le cadre de la chromodynamique quantique (QCD). La virtualité des photons permet de situer notre approche dans le secteur perturbatif de la théorie. Les régimes cinématiques envisagés mènent à l'utilisation d'outils théoriques variés qui font apparaître différentes propriétés de factorisation de l'amplitude de diffusion: deux types de factorisation colinéaire (à courte distance) pour ce processus sont discutés au chapitre 1, faisant apparaître –suivant la polarisation des photons virtuels et le régime cinématique considéré- des Amplitudes de Distribution Généralisées (GDA) ou des Amplitudes de Distribution de Transition (TDA), outils communément utilisés dans la description des processus exclusifs. Nous introduisons dans le Chapitre 2 de manière autocohérente les bases du formalisme BFKL valide dans la limite à haute énergie (limite de Regge) de QCD, en vue de son utilisation phénoménologique détaillée dans le Chapitre 3: l'amplitude de diffusion du processus est décrite dans ce formalisme en exploitant la factorisation dans l'espace bidimensionnel des impulsions transverses, ou kT-factorisation. Nous prédisons la valeur de la section efficace du processus à l'ordre de Born de la resommation BFKL et nous discutons de son observation possible auprès du futur collisionneur linéaire international (ILC). Nous obtenons également les sections efficaces différentielles du processus sans transfert d'impulsion avec resommation BFKL complète à l'ordre des logarithmes dominants (Leading-Order) ainsi qu'à l'ordre suivant (Next-to-Leading-Order) afin d'établir un test fin du processus d'échange d'un Poméron dur décrit par le formalisme BFKL, observable au futur collisionneur linéaire ILC.
93

Développement de détecteur gazeux à micropistes pour le trajectographe de l'expérience CMS et mesures de rapports d'embranchement de désintégrations hadroniques du méson B dans l'expérience BaBar

Zghiche, A. 22 January 2007 (has links) (PDF)
Les détecteurs gazeux à micropistes (MSGC) ont fait l'objet d'un vaste programme de recherche et développement dans le but de les qualifier pour équiper le trajectographe de l'expérience Compact Muon Solenoid (CMS) installée sur l'un des 4 points d'interaction du collisionneur proton proton de 14 TeV: le Large Hadron Collider (LHC) en construction au CERN. Les points étudiés les plus critiques pour que les MSGC et leurs variantes telles que les grilles de multiplication d'électrons (GEM) fonctionnent dans l'environnement difficile du LHC sont: la tenue aux flux de particules très ionisantes, le vieillissement dû aux radiations ainsi que la rapidité du signal pour un déclenchement à 40 MHz. Les paramètres importants pour l'optimisation du gain de ces détecteurs sont le mélange de gaz, la résistivité des substrats qui constituent le support des détecteurs et le métal des pistes. L'étude de ces paramètres a permis de définir le détecteur gazeux qui assure une stabilité de fonctionnement avec un gain constant pendant dix ans de collisions LHC. Il se compose de deux étages de multiplication d'électrons dans le gaz (amplification), associant un détecteur MSGC à un détecteur GEM. <br /> L'expérience BaBar, installée sur l'anneau PEP II à SLAC, a été conçue pour étudier la violation de CP dans le système des mésons B. Les premières collisions e+ e- ont été enregistrées en mai 1999. En août 2006, la luminosité intégrée enregistrée par l'expérience s'élevait à plus de 390 fb-1 dont 350 fb-1 à la résonance Y(4S) correspondant à plus de 385 millions de désintégrations e+ e- -> Y(4S)->BB. Dès les conférences de l'été 2001, la collaboration BaBar avait pu présenter la première observation significative de la violation de CP dans le secteur des B. Avec l'accumulation des données, la précision statistique de cette mesure s'est améliorée de plus qu'un facteur 4 et la précision systématique de près d'un facteur 3. Le grand nombre de désintégrations BB permet aussi de construire un échantillon de données où un premier méson B est totalement reconstruit. Les paramètres du second B sont alors calculés à partir de ceux des faisceaux et du premier B. Grâce à cet échantillon, la détermination du nombre de charme moyen (le nombre de quarks c produits dans les désintégrations des mésons B) avec les mesures inclusives des désintégrations des mésons B- et B0 en mésons D et Ds et baryons charmés Λc a pu être effectuée séparément pour les mésons B chargés et neutres en s'affranchissant d'un grand nombre d'hypothèses ainsi que des erreurs systématiques qui en découlent. Avec le même échantillon de données, la mesure des rapports d'embranchement des modes B- ->D0(* , **)pi - et B 0->D+(* , **)pi- a été effectuée avec une méthode originale dans BaBar, celle de la masse manquante. Dans le système du second B, les rapports d'embranchement ont été mesurés en calculant la masse manquante au pi -, qui est le module du quadrivecteur impulsion manquant (les quadrivecteurs impulsion du Y(4S), du premier méson B et du pi- étant déterminés). Ceci a permis d'améliorer la précision de la mesure en réduisant la contribution des incertitudes systématiques. Cette mesure ainsi que la mesure du taux de charme permettent respectivement de contraindre l'hypothèse de la factorisation dans les calculs de la Heavy Quark Effective Theory (HQET), et les paramètres de la chromodynamique quantique (QCD), tels que le rapport des masses des quarks et l'échelle de renormalisation.
94

Mesure de la section efficace de production de quarks top en paires dans le canal lepton+jets à D0 et à ATLAS et interprétation en terme de boson de Higgs chargé dans ATLAS.

Chevallier, Florent 10 May 2007 (has links) (PDF)
La mise en évidence de nouvelle physique est l'un des enjeux des expériences auprès des grands collisionneurs TeVatron et LHC. Le quark top se place dans ce contexte de recherche. Des mesures de couplages et de propriétés du quark top non conformes aux prédictions théoriques seraient les premiers effets indirects d'une physique non décrite par le Modèle Standard.<br /><br />Le travail décrit dans cette thèse porte sur l'étude de la section efficace de production de quarks top par interaction forte au sein des deux collaborations D0 et ATLAS.<br /><br />Mon travail à D0 a tout d'abord consisté en l'amélioration de la reconstruction des électrons de faible impulsion au sein de jets. Ce nouvel algorithme peut désormais être utilisé pour identifier les jets de quarks b, produits dans les événements top-antitop recherchés. Ce travail s'est poursuivi par une analyse de mesure de la section efficace de production de paires de quarks top, avec 420 pb-1 de données de l'expérience D0. Les résultats de cette analyse sont en accord avec les prédictions du Modèle Standard.<br /><br />Dans l'expérience ATLAS, mon travail a consisté à élaborer une procédure de sélection des événements top-antitop, en adaptant les connaissances et les techniques issues de l'expérience D0 à l'environnement plus exigeant des collisions du LHC. Cette analyse a permis d'identifier les sources d'incertitudes qui auront un impact sur la mesure. Pour une année de fonctionnement du détecteur à basse luminosité, cette section efficace pourrait être mesurée avec une précision de quelques pourcents. Cette sensibilité permettrait de déceler des signes de nouvelle physique. La phénoménologie des événements top-antitop est modifiée par la présence de bosons de Higgs chargés apparaissant dans des modèles standard non minimaux. L'analyse effectuée dans ce nouveau cadre théorique a ainsi montré qu'une découverte serait possible pour certaines régions de l'espace des paramètres.
95

Mesure de la section efficace de production de paires de quarks top dans le canal tau+jets dans l'expérience CMS auprès du LHC

Ferro, Cristina 14 May 2012 (has links) (PDF)
Cette thèse a pour sujet la mesure de la section efficace de production de paires de quarks top-antitop dans l'expérience CMS auprès du LHC. L'état final considéré est le canal semi-leptonique "tau+jets". Un boson W issu de la désintégration du quark top se désintègre en un tau hadronique et neutrino tandis que le second boson W se désintègre en une paire quark-antiquark. La conduite de cette analyse a nécessité le développement d'un nouveau mode de déclenchement des données (trigger) incluant la présence de quatre jets dont un identifié en tant que tau hadronique. La configuration de ce trigger ainsi que son efficacité ont été étudiés dans cette thèse. Un échantillon de données correspondant à 3.9 fb−1 a été enregistré avec ce trigger et analysé. Les leptons taus ont été reconstruits grâce à un algorithme identifiant leurs résonances intermédiaires tandis que les jets de quarks beaux issus de la désintégration des quarks tops ont été identifiés grâce à l'algorithme "probabilité par jet". Cet algorithme pour lequel j'ai mis en oeuvre une procédure de calibration depuis 2009 utilise le paramètre d'impact des traces de particules chargées pour calculer leur probabilité de venir du vertex primaire. Des études de performance de cet algorithme sont également présentées dans cette thèse. Afin de séparer le signal de l'important bruit de fond majoritairement constitué des processus multijets QCD et W+jets un réseau de neurones utilisant des variables dites d'environnement (aplanarité, HT, M(τ,jets), énergie transverse manquante...) a été développé. La section efficace a été extraite à l'aide d'un ajustement par méthode du maximum de vraisemblance de la sortie du réseau de neurones. Les incertitudes systématiques ont fait l'objet d'une étude détaillée. La valeur de la section efficace mesurée, σ(top-antitop) = 156 ± 12 (stat.) ± 33 (syst.) ± 3 (lumi) pb, est en accord avec la section efficace prédite par le modèle standard.
96

Mesure de la section efficace de production de paires de quarks top dans le canal tau+jets dans l'expérience CMS auprès du LHC / Measurement of the tt production cross section in the tau+jets channel in pp collisions at √S=7TeV [sqrt(S)=7TeV]

Ferro, Cristina 14 May 2012 (has links)
Cette thèse a pour sujet la mesure de la section efficace de production de paires de quarks top-antitop dans l’expérience CMS auprès du LHC. L’état final considéré est le canal semi-leptonique ”tau+jets”. Un boson W issu de la désintégration du quark top se désintègre en un tau hadronique et neutrino tandis que le second boson W se désintègre en une paire quark-antiquark. La conduite de cette analyse a nécessité le développement d’un nouveau mode de déclenchement des données (trigger) incluant la présence de quatre jets dont un identifié en tant que tau hadronique. La configuration de ce trigger ainsi que son efficacité ont été étudiés dans cette thèse. Un échantillon de données correspondant à 3.9 fb−1 a été enregistré avec ce trigger et analysé. Les leptons taus ont été reconstruits grâce à un algorithme identifiant leurs résonances intermédiaires tandis que les jets de quarks beaux issus de la désintégration des quarks tops ont été identifiés grâce à l’algorithme ”probabilité par jet”. Cet algorithme pour lequel j’ai mis en oeuvre une procédure de calibration depuis 2009 utilise le paramètre d’impact des traces de particules chargées pour calculer leur probabilité de venir du vertex primaire. Des études de performance de cet algorithme sont également présentées dans cette thèse. Afin de séparer le signal de l’important bruit de fond majoritairement constitué des processus multijets QCD et W+jets un réseau de neurones utilisant des variables dites d’environnement (aplanarité, HT, M(τ,jets), énergie transverse manquante...) a été développé. La section efficace a été extraite à l’aide d’un ajustement par méthode du maximum de vraisemblance de la sortie du réseau de neurones. Les incertitudes systématiques ont fait l’objet d’une étude détaillée. La valeur de la section efficace mesurée, σ(top-antitop) = 156 ± 12 (stat.) ± 33 (syst.) ± 3 (lumi) pb, est en accord avec la section efficace prédite par le modèle standard. / In this thesis we present the first measurement in the CMS experiment of the top-antitop production cross section in the tau+jets final state. To perform this measurement we designed a specific trigger requiring the presence of four jets, one of them being identified as an hadronic tau. The performance of this trigger has been studied in this thesis. A dataset of 3.9 fb-1 was collected with this trigger and analyzed. At offline level we needed to apply a sophisticated tau identification technique to identify the tau jets, based on the reconstruction of the intermediate resonances of the hadronic tau decay modes. Another crucial point was the b-jet identification, both to identify the b-jets in the final state and to modelize the background using a data driven technique. The studies done on the b-tag algorithms along the PhD period are also presented with particular attention to the ”Jet Probability” algorithm. It is the algorithm for which I performed the calibration since 2009 as well as the one used to tag the b-jets from the top decays. A neural network has been developed to separate the top-antitop events from the W+jets and multijet backgrounds. A binned likelihood fit to the neural network output distribution is done in order to extract the signal contribution from the background. A detailed estimation of the systematic uncertainties on the cross section measurement is also presented. The result for the cross section measurement, σ(tt) = 156 ± 12 (stat.) ± 33 (syst.) ± 3 (lumi) pb, is in perfect agreement with the standard model expectation.
97

Conception d'un ADC de résolution 8 bits basse consommation et 2 GHz de fréquence d'échantillonnage en technologie CMOS 180 nm / Design of an 8 bit low power 2 GHz sampling rate ADC on 180 nm CMOS process

Puech, Gabriel 20 December 2017 (has links)
Après un rappel du contexte dans lequel ce travail de recherche a été conduit, le 1er chapitre présente les caractéristiques communes aux convertisseurs analogiques numériques (ADC) avec leurs figures de mérites. Un état de l’art exhaustif sur les ADC réalisés et plus particulièrement avec le nœud technologique CMOS 1 180 nm y est présenté. Ce travail préliminaire permet de donner un aperçu du défi relevé. Les architectures multi-étapes à échantillonnage analogique ont été éliminées de l’étude du fait des limitations de la technologie pour les contraintes de performances de l’ADC. Le chapitre 2 présente plus en détail les différentes implémentations possibles d’une famille d’ADC à échantillonnage numérique, les flash. Le portage de l’architecture TIQ est détaillé dans ce chapitre. Le chapitre 3 détaille l’étude et le portage en CMOS 180 nm des ADC à échantillonnage numérique à repliement de signal. Cette première partie conclut par le choix de l’architecture flash. La conception des briques de bases de l’ADC flash est détaillée dans les chapitres constituant la partie II du document. Le chapitre 4 est dédié à l’étude et au portage en CMOS 180 nm des étages de comparateurs latchés responsables de l’échantillonnage à 2 GHz de l’ADC flash. La non linéarité ramenée en entrée de l’architecture retenue ayant défini les contraintes sur l’étage de pré-amplification, celui ci est présenté dans le chapitre 5. Le chapitre 5, présente les différentes charges actives étudiées pour l’étage de pré-amplification. Le passage en différentiel passif avec le comparateur full différentiel et l’architecture retenue y sont détaillés. La technique du QV et son portage sur l’architecture de préamplificateur retenu sont présentés. Le décodeur thermométrique 2 binaire est présenté dans le chapitre 6. Deux implémentations de cette logique de décodage sont étudiées et portées. L’une est réalisée à partir d’un code de description matériel (VHDL) et la synthèse de cellules numériques en logique CMOS pull-up pull-down 3 . L’autre est réalisé à partir de multiplexeurs 1 bit et des flip flop à verrou en logique Pass gates complémentaire. Le chapitre 7 présente les limitations et l’implémentation de l’interpolation avec l’emploi des pré-amplificateurs et du comparateur latché retenus. L’étude de l’insertion de paires de suiveurs en drain commun, nécessaire à la polarisation des étages de pré-amplification y est présentée. Enfin, les analyses de tirage de Monte Carlo en mismatch 4 des résistances comme échelle de références sont comparées pour différents dimensionnements et topologies. Le synoptique global de l’ADC est présenté avec les cellules et techniques retenues. L’approche bottom-up incontournable pour la conception de circuits analogiques ou full custom présentée dans cette deuxième partie conclut sur le choix de concevoir un ASIC de preuve de concept. Ce dernier contient ainsi les briques de bases ayant une valeur ajoutée et potentiellement critiques pour la conversion de signaux. L’approche Top-down pour la conception est ainsi détaillée dans la 3e partie en partant du synoptique global de l’ASIC de preuve de concept envoyé en fonderie de circuit multi projet BuBlC1. contenant les cellules critiques à tester. La conception front-end de l’ASIC BuBlC1 avec notamment l’arbre d’horloge et les pads d’entrées sorties est présentée dans le chapitre 8. La phase de back-end avec les layouts des cellules retenues dans la partie II ainsi que leur intégration dans des ensembles (clusters) est présentée dans le chapitre 9 avec le padring et l’intégration finale des macro-ensembles (Cores analogiques et numériques). / After a a brief recall of the context this research work have been carried, the 1st chapter present the common analog to digital converters (ADC) characteristics with their figures of merit (FoM). A relevant state of the art on realized ADC architectures is presented. A particular emphasis has been done on 180 nm CMOS process node. This preliminary work gives a pertinent overview of the faced challenge. Multi step analog sampling architectures have been avoided from the study because of the transistors limited frequency performances. Chapter 2 presents the different implementations of the Flash digital sampling ADC family architecture. The TIQ architecture embedding in the 180 nm CMOS process are detailed in this chapter. Chapter 3 details the study and the design of an other digital sampling ADC family architecture on 180 nm CMOS process i.e. the signal folding architecture. This 1st part of the document conclude with the choice of the Flash ADC architecture. The building bloc design for this ADC are detailed in the following chapters constituting the part II. Chapter 4 is dedicated to the study and the design on 180 nm CMOS process of the latch comparator responsible of the 2 GHz sampling constraint of the overall ADC. As the retained comparator architecture input refereed non linearity defined the gain constraints of the preamplifier stage, the preamplifier is presented in the next chapter. Chapter 5 present the different characteristics and techniques of the quantifier stage. The comparator preamplifier stage with its different actives loads, its passive full differential transposition and the retained architecture are detailed. The QV technique and its embedding in the retained preamplifier architecture are presented. The thermometric 1 to binary encoder tree is presented in chapter 6. Two implementations of this encoding are studied and design on the Front-End (FE) level. The 1st one is a pipelined Wallace tree realized with a register transfer level (RTL) code on VHDL hardware description language. The synthesis flow on CMOS pull-up pull-down 2 combinatorial logic and rising edge flip flops are used for this architecture. The other architecture is designed using 1 bits multiplexers combinatorial pipelined with pass gated D latches with a full custom schematic implementation. Chapter 7 presents the limitations and the embedding of the interpolation with the retained preamplifier and comparator latch. The study of common drain source follower (CDSF) pairs insertion, mandatory for the biasing of the preamplifier input stage to reach the 8 bits resolution is studied with details. Finally, Monte Carlo sampling mismatch 3 analysis on the resistor references are studied by comparing different topologies and sizing. The overall ADC synoptic is presented with the retained cells and techniques. The bottom-up design approach, mandatory for analog and full-custom design, exposed in this 2nd part conclude on the choice to design a proof of concept ASIC (BuBlC1) including all the critical piece of circuits of the overall ADC with added value and potentially critical for signal conversion. The top-down approach for this ASIC design is detailed in the IIIrd part with the overall ASIC synoptic of the BuBlC1 ASIC sent to multi project wafer (MPW) foundry run integrating all the critical cells.The FE design of this ASIC with its clock tree and its input/output PAD are presented in chapter 8. The Back-End design with the retained cells layout in part II with the cells integration in clusters are presented in chapter 9 with the pad-ring and final integration in digital and analog macro-cells cores.
98

Exploration of 6-dimensional models with non trivial topology and their predictions for fermions masses and mixings, neutrino physics, flavour changing interactions and CP violation

Mollet, Simon 08 June 2016 (has links)
In this thesis, we study several scenarios which go beyond the Standard Model of particle physics with the aim of gaining a better understanding for the multiplication of fermion families, their masses and mixings pattern and its relation to CP violation. The common feature of the models we envisaged (and the guiding principle of the thesis) is the introduction of extra space dimensions. In a first attempt to explain the fermion mass structure, we elaborate on a model with two extra-dimensions and a Nielsen- Olesen vortex background established on it. In this framework, three families in 4D can be seen as different modes of a single generation in 6D, while their extra-dimensional wavefunctions turn out highly constrained by the dynamics, which allows to determined the mass matrices with few parameters. Moreover, with a few additional hypotheses only, it is possible to simultaneously account for the striking differences between neutrinos and charged fermions. After a summary of the model, we illustrate this with the explicit formulation of a benchmark model which reproduces convincingly all the mass and mixing parameters of the Standard Model, taking advantage of new, more precise numerical solutions of the field equations, and including the recent measurements of the Standard Model scalar boson mass and of the neutrino heta_13 mixing angle (the latter has however been correctly predicted by the model before its first measurement). We then turn to the predictions which mainly concern the neutrino and gauge sectors. In the former, we remind the Majorana nature, and the natural tendency for inverted hierarchy pattern with an almost maximally suppressed neutrinoless double beta decay. On the other hand, we predict new (neutral) gauge bosons whose couplings to fermions are not flavour-diagonal but are however constrained (in their strength and their flavour structure) by the 6D anatomy of the theory. We compare their detectability in precision low energy processes and at colliders (especially at the LHC), and show that in the simplest geometries at least, the bounds from the former exclude interesting phenomenology for the latter. Nevertheless, we turn to more phenomenological effective Lagrangians with the same overall structure and in which we are able to lower the mass scale of the new bosons to a reachable energy, and thus analyse the possible signatures for LHC.In the last part of this work, we turn to the issue of CP violation and show how in certain 6D models with non simply connected topologies, it is possible to generate a non negligible CP violation at the 4D level in a pure gauge approach. We carefully study how the 4D CP symmetry is related to particular transformations of the original 6D theory and subsequently show how an incompatibility of such transformations with the compactification scheme can lead to an effective CP breaking. As a proof of concept, we build a toy model with two extra-dimensions compactified on a flat torus and end in 4D with a light neutral fermion with a non zero electric dipole moment.Dans cette thèse, nous étudions plusieurs scénarios au-delà du Modèle Standard de la physique des particules à la recherche d'une meilleure compréhension de la multiplication des familles de fermions, de leurs masses et de leurs mélanges, ainsi que la relation à laviolation de CP.La caractéristique commune à tous les modèles envisagés (et le concept sous-jacent à toute la thèse) est l'introduction de nouvelles dimensions spatiales. Dans une première tentative pour expliquer le spectre des fermions, nous développons un modèle où une structure de vortex à la Nielsen-Olesen est établie sur deux dimensions supplémentaires. Dans ce cadre, les trois familles à 4D peuvent être vues comme différents modes d'une unique génération à 6D, tandis que leur fonctions d'onde extra-dimensionnelles s'avèrent fortement contraintes par la dynamique ;ceci permet d'établir les matrices de masses en terme d'un petit nombre de paramètres. De plus, grâce à quelques hypothèses additionnelles seulement, il est possible de justifier simultanément les différences marquées entre neutrinos et fermions chargés. Nous synthétisons le modèle et l'illustrons en en formulant une réalisation particulière qui parvient à reproduire de manière convaincante tous les paramètres de masse et de mélange du Modèle Standard. Pour l'occasion, nous exploitons de nouvelles solutions aux équations des champs, numériquement plus précises, et prenons en compte les mesures récentes de la masse du boson scalaire et de l'angle de mélange heta_13 pour les neutrinos (le modèle avait cependant prédit ce dernier avant qu'il ne soit mesuré pour la première fois). Nous nous tournons ensuite vers les prédictions du modèle et qui concernent principalement le secteur des neutrinos et celui des bosons de jauge. Pour le premier, nous rappelons la nature "Majorana" des neutrinos, ainsi que la tendance naturelle à une hiérarchie inverse avec une suppression quasi maximale de la double désintégration bêta sans neutrino. D'autre part, nous prédisons de nouveaux bosons de jauge (neutres) dont les couplages aux fermions ne sont pas diagonaux dans l'espace des saveurs mais sont contraints (autant en terme de valeurs qu'en termes de structure) par l'anatomie de la théorie à 6D. Nous comparons leurs détections potentielles dans les processus de précision à basse énergie et auprès des collisionneurs (en particulier au LHC). Nous montrons que, dans les géométries les plus simples du moins, les limites imposées par les premiers excluent toute phénoménologie intéressante du côté des seconds. Toutefois, en nous tournantvers des Lagrangiens effectifs qui conservent la même structure d'ensemble mais ouvrent à une étude plus phénoménologique, nous sommes capables de réduire l'échelle de masse de ces nouveaux bosons jusqu'à une énergie accessible, et donc d'en analyser de potentielles signatures au LHC.Dans la dernière partie de ce travail, nous nous intéressons à la question de la violation de CP et montrons comment dans certains modèles à 6D avec une topologie non-simplement connexe, il est possible de générer une violation de CP non négligeable à 4D dans une approche de "pure jauge". Nous étudions attentivement comment la symétrie CP à 4D est reliée à des transformations particulières de la théorie originale à 6D, suite à quoi nous montrons comment l'incompatibilité de ces transformations avec la façon dont sont "compactifiées" les dimensions supplémentaires peut conduire à une brisure effective de CP. Pour illustrer la faisabilité de notre approche, nous élaborons un "modèle jouet" où deux dimensions supplémentaires sont compactifiées sur un tore plat, et obtenons à 4D un fermion neutre léger et qui possède un moment électrique dipolaire non nul. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
99

Mechanical Study of Silicon Strip Detector Modules During Quality Control for the ATLAS Phase-II Detector Upgrade

Demontigny, Gabriel 03 1900 (has links)
Suite à la détection du très attendu boson de Higgs, le Grand Collisionneur de Hadrons (LHC) ainsi que le détecteur ATLAS se prépare pour une importante mise à niveau. Prévu pour le LHC à Haute Luminosité (HL-LHC), le ITk (Inner TracKer), un trajectomètre pour particules chargées fait de silicium, est la mise à niveau du détecteur interne du détecteur ATLAS. Une phase de test des modules de détecteur du ITk est cruciale puisque le détecteur sera inaccessible pour environ 10 ans suite à l’installation. Ce mémoire se concentrera sur les tests effectués sur un sous-ensemble du détecteur ITk, soit le détecteur ITk Strip. Pour détecter les bris prématurés sur les 20 000 modules qui seront produits, une procédure de cyclage thermique sera mise en oeuvre, où les modules seront refroidis et réchauffés pour recréer les 10 ans d’opération. Ces tests seront effectués dans une enceinte appelé coldbox. Le thème de ce mémoire est le calcul du stress mécanique dans les modules ITk Strip induit par la procédure de cyclage thermique à l’aide de la méthode des éléments finis. Le premier résultat obtenu est que le stress induit dans le module installé dans le coldbox est causé par le vide appliqué sous le module pour le tenir en place. De plus, le stress maximal durant le cyclage thermique est grandement dépendant de l’épaisseur du joint sous-vide utilisé. Ainsi, un joint plus mince cause un stress plus faible. Finalement, le stress dans le coldbox est entre 20 MPa et 100 MPa variant avec l’épaisseur du joint, ce qui est en accord avec le stress calculé pour une disposition semblable au détecteur final, donnant un stress de 64.8MPa. Il est donc possible de conclure que le coldbox est un bon candidat pour effectuer le cyclage thermique. / Following the great achievement by the ATLAS experiment at the Large Hadron Col- lider (LHC) that is the detection of the long-awaited Higgs boson, an upgrade of the LHC is planned, requiring an upgrade of ATLAS. Planned for the High-Luminosity LHC, the ITk (Inner TracKer), an all-silicon charged particle tracker, is the upgrade of the current ATLAS Inner Detector. Testing of the detector modules comprised in the ITk is crucial because the detector will be inaccessible for approximately 10 years following the installation. In this thesis, the focus will be kept on a subset of the ITk detector, namely the ITk Strip detector. To detect premature failure in the 20 000 Strip modules that will be produced, a series of tests will be performed, one of which will be the thermal cycling, where modules are monitored while being thermally cycled to replicate 10 years of operating conditions. These tests will occur in a special enclosure known as a coldbox. The subject of this work is to study the induced mechanical stress in future ITk Strip detector modules due to thermal cycling using Finite Element Analysis. Our first result is that the stress created in the module is mostly due to the vacuum applied to hold the module. Moreover, the maximum stress felt during thermal cycling is highly dependent on the thickness of the vacuum seal used: A thinner seal causes a lower stress. Finally, the stress in the module in our thermal cycling setup is between ∼ 20 MPa and ∼ 100 MPa depend- ing on the selected seal thickness, which is consistent with the stress expected in the final detector design which is approximately 64.8MPa. We can then conclude that the proposed design for the coldbox is a good candidate to perform thermal cycling.
100

Searching for supersymmetry using deep learning with the ATLAS detector

Gagnon, Louis-Guillaume 07 1900 (has links)
Le Modèle Standard de la physique des particules (MS) est une théorie fondamentale de la nature dont la validité a été largement établie par diverses expériences. Par contre, quelques problèmes théoriques et expérimentaux subsistent, ce qui motive la recherche de théories alternatives. La Supersymétrie (SUSY), famille de théories dans laquelle une nouvelle particule est associée à chaque particules du MS, est une des théories ayant les meilleures motivations pour étendre la portée du modèle. Par exemple, plusieurs théories supersymétriques prédisent de nouvelles particules stables et interagissant seulement par la force faible, ce qui pourrait expliquer les observations astronomiques de la matière sombre. La découverte de SUSY représenterait aussi une importante étape dans le chemin vers une théorie unifiée de l'univers. Les recherches de supersymétrie sont au coeur du programme expérimental de la collaboration ATLAS, qui exploite un détecteur de particules installé au Grand Collisioneur de Hadrons (LHC) au CERN à Genève, mais à ce jours aucune preuve en faveur de la supersymétrie n'a été enregistrée par les présentes analyses, largement basées sur des techniques simples et bien comprises. Cette thèse documente l'implémentation d'une nouvelle approche à la recherche de particules basée sur l'apprentissage profond, utilisant seulement les quadri-impulsions comme variables discriminatoires; cette analyse utilise l'ensemble complet de données d'ATLAS enregistré en 2015-2018. Les problèmes de la naturalité du MS et de la matière sombre orientent la recherche vers les partenaires supersymétriques du gluon (le gluino), des quarks de troisième génération (stop et sbottom), ainsi que des bosons de gauge (le neutralino). Plusieurs techniques récentes sont employées, telles que l'utilisation directe des quadri-impulsions reconstruites à partir des données enregistrées par le détecteur ATLAS ainsi que la paramétrisation d'un réseau de neurone avec les masses des particules recherchées, ce qui permet d'atteindre une performance optimale quelle que soit l'hypothèse de masses. Cette méthode améliore la signification statistique par un facteur 85 par rapport au dernier résultat d'ATLAS pour certaines hypothèses de masses, et ce avec la même luminosité. Aucun excès signifif au-delà du Modèle Standard n'est observé. Les masses du gluino en deçà de 2.45 TeV et du neutralino en deça de 1.7 TeV sont exclues à un niveau de confiance de 95%, ce qui étend largement les limites précédentes sur deux modèles de productions de paires de gluinos faisant intervenir des stops et des sbottoms, respectivement. / The Standard Model of particle physics (SM) is a fundamental theory of nature whose validity has been extensively confirmed by experiments. However, some theoretical and experimental problems subsist, which motivates searches for alternative theories to supersede it. Supersymmetry (SUSY), which associate new fundamental particles to each SM particle, is one of the best-motivated such theory and could solve some of the biggest outstanding problems with the SM. For example, many SUSY scenarios predict stable neutral particles that could explain observations of dark matter in the universe. The discovery of SUSY would also represent a huge step towards a unified theory of the universe. Searches for SUSY are at the heart of the experimental program of the ATLAS collaboration, which exploits a state-of-the-art particle detector installed at the Large Hadron Collider (LHC) at CERN in Geneva. The probability to observe many supersymmetric particles went up when the LHC ramped up its collision energy to 13~TeV, the highest ever achieved in laboratory, but so far no evidence for SUSY has been recorded by current searches, which are mostly based on well-known simple techniques such as counting experiments. This thesis documents the implementation of a novel deep learning-based approach using only the four-momenta of selected physics objects, and its application to the search for supersymmetric particles using the full ATLAS 2015-2018 dataset. Motivated by naturalness considerations as well as by the problem of dark matter, the search focuses on finding evidence for supersymmetric partners of the gluon (the gluino), third generation quarks (the stop and the sbottom), and gauge bosons (the neutralino). Many recently introduced physics-specific machine learning developments are employed, such as directly using detector-recorded energies and momenta of produced particles instead of first deriving a restricted set of physically motivated variables and parametrizing the classification model with the masses of the particles searched for, which allows optimal sensitivity for all mass hypothesis. This method improves the statistical significance of the search by up to 85 times that of the previous ATLAS analysis for some mass hypotheses, after accounting for the luminosity difference. No significant excesses above the SM background are recorded. Gluino masses below 2.45 TeV and neutralino masses below 1.7 TeV are excluded at the 95% confidence level, greatly increasing the previous limit on two simplified models of gluino pair production with off-shell stops and sbottoms, respectively.

Page generated in 0.1636 seconds