• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 37
  • 34
  • 12
  • Tagged with
  • 83
  • 83
  • 83
  • 81
  • 81
  • 81
  • 62
  • 62
  • 62
  • 26
  • 23
  • 15
  • 14
  • 14
  • 13
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Prompt photons at the LHC : selection, measurements of single- and di-photon production cross sections, and Higgs boson searches with the ATLAS detector

Marchiori, Giovanni 06 November 2013 (has links) (PDF)
This document, prepared to obtain the "Habilitation à Diriger des Recherches", is a compendium of the photon-related analysis activities I carried on within ATLAS in the past four years and a half. The activities I will describe can be broadly classified into three categories: optimization and/or in situ measurement of photon-related performance, measurements of the cross sections of Standard Model processes producing prompt photons, and searches (leading to discovery!) of a Standard Model Higgs boson decaying to final states containing photons.
22

Recent B-decay implications beyond the Standard Model

Neshatpour, Siavash 23 May 2013 (has links) (PDF)
Des progr ès exp erimentaux importants sont en cours dans l' étude des d ésint égrations rares de m ésons contenant un quark beau et impliquant un quark étrange et une paire de leptons. Le travail pr ésent mesure la port ée indirecte de ces progr ès sur des extensions supersym etriques du mod èle standard. Même dans des mod èles contraints, les limites indirectes ainsi obtenues peuvent dans certains cas être plus fortes que celles provenant de la recherche directe de particules supersym étriques. La pr écision gagn ée par les facteurs de forme et les corrections d'ordre sup érieur nouvellement impl ément és dans le programme public "SuperIso" montrent alors leur importance.
23

Test des Flash-ADCs, optimisation de la conception du détecteur et développement d'un nouveau concept de reconstruction spatiale dans l'expérience de neutrino Double Chooz pour la mesure de l'angle de mélange θ13.

Akiri, Tarek 24 September 2010 (has links) (PDF)
Double Chooz (DC) est une expérience d'oscillation de neutrinos auprès de réacteurs, dont la finalité est la mesure du dernier angle de mélange encore inconnu θ13 . Elle hérite de l'expérience passée CHOOZ qui était limitée par des erreurs statistiques et systématiques à un niveau similaire d'environ 2.8%. Afin de diminuer l'erreur statistique, la masse de la cible du détecteur DC a été augmentée tandis que la réduction de l'erreur systématique est assurée par l'utilisation de deux détecteurs identiques. Un détecteur sera situé dans le voisinage des coeurs des réacteurs dans le but de contrôler le flux et le spectre des anti-νe émis alors que l'autre sera placé à l'endroit où l'effet d'oscillation maximal est attendu. Le premier est communément dénommé 'détecteur proche' par opposition au second dénommé 'd ́etecteur lointain'. Les erreurs attendues sont 0.5% (stat.) et 0.6% (syst.) pour une ultime mesure sin2 2θ13 = 0.05 (θ13 = 6.5◦ ) à trois écart-type après trois années de prise de données. Le démarrage du détecteur lointain est attendu pour novembre 2010 tandis que le détecteur proche sera opérationnel pour la mi-2012. Cette thèse présente tout d'abord une contribution matérielle à l'expérience avec le test des Flash-ADCs qui constituent le coeur du système d'acquisition. Ensuite, elle présente des analyses effectuées sur des simulations Monte Carlo afin d'optimiser la conception du détecteur. Ce travail était composé d'analyses dans le but de choisir des composantes du détecteur avec la contamination radioactives qui convient, des analyses dans le but d'obtenir la meilleure résolution en énergie possible et une manière de déclencher la sauvegarde des données par le système d'acquisition la plus stable et la plus robuste possible. Les travaux sur l'optimisation du détecteur et les connaissances acquises sur les Flash-ADCs nous ont amené à envisager une nouvelle reconstruction spatiale basée sur le temps de vol des photons. Toutes ces contributions à l'expérience sont présentées en détails à travers ce manuscrit.
24

Corrections radiatives en Supersymétrie et applications au calcul de la densité relique au-delà de l'ordre dominant.

Chalons, Guillaume 08 July 2010 (has links) (PDF)
Cette thèse porte sur le calcul des corrections radiatives supersymétriques pour des processus entrants dans le calcul de la densité relique de matière noire, dans le MSSM et le scénario cosmologique standard, ainsi que sur l'influence du choix du schéma de renormalisation du secteur des neutralinos/charginos à partir de la mesure de trois masses physiques. Cette étude a été faite à l'aide d'un programme automatique de calcul à une boucle d'observables physiques dans le MSSM, appelé SloopS. Pour le calcul de la densité relique nous nous sommes penchés sur des scénarios où le candidat supersymétrique le plus étudié, le neutralino, se désintégrait en majoritairement en bosons de jauge. Nous avons couvert les cas où sa masse était de l'ordre de quelques centaines de GeV jusqu'à 2 TeV. Cela a nécessité la prise en compte complète des corrections électrofaibles et fortes, impliquées dans des processus sous-dominants impliquant des quarks. Dans le cas des neutralinos très lourds deux effets importants ont été mis à jour : les amplifications de type Sommerfeld dues aux bosons de jauge massifs et peut-être plus important encore des corrections de type Sudakov.
25

La problématique de l'évolution des moments d'une densité de particules soumises à des forces non linéaires

Peaucelle, Christophe 12 October 2001 (has links) (PDF)
L'utilisation des accélérateurs linéaires de forte puissance dans différents projets (production de neutrons par spallation, réacteurs hybrides) nous a amené à se pencher sur les problèmes de la dynamique de faisceaux de haute intensité. Dans le cas de faisceaux intenses, les particules sont soumises à des forces non linéaires, principalement dues à l'effet de charge d'espace. Afin de disposer d'outils à la fois moins lourds et plus réalistes que les méthodes classiques de simulation (interaction particule-particule, modèle coeur-particule), la description de l'évolution d'une distribution de particules à partir de ses paramètres statistiques, ses moments, a donc été envisagée. Nous présentons donc dans une première partie une analyse détaillée de la problématique, menée dans un cadre simplifié mais non limitatif : tout d'abord, nous développons un formalisme original basé sur les propriétés fines des polygones orthogonaux permettant l'étude des moments d'une densité en une dimension. De cette analyse, nous voyons que l'on peut extraire, d'un nombre fini de moments, un certain nombre d'informations concernant la densité. En particulier, il en découle la notion fondamentale d'enveloppe convexe définissant le domaine d'existence de cette densité. Ceci permet de mieux comprendre la signification des moments. La généralisation de cette description en deux dimensions permet d'estimer avec une bonne précision où sont localisées les particules dans cet espace des phases. Enfin, nous abordons les difficultés rencontrées au cours de cette étude, fixant ainsi les limites de cette méthode. La deuxième partie de cette thèse, plus expérimentale, présente les mesures de faisceaulogie effectuées sur l'accélérateur GENEPI (GEnérateur de NEutrons Pulsé Intense) dans le cadre de l'étude des systèmes hybrides. Elles permettent, entre autres, la calibration du faisceau et la validation des codes de calculs nécessaires à la conception de la machine.
26

La reconstruction et l'identification des photons dans l'expérience CMS au LHC. Applications à la recherche de bosons de Higgs dans le canal H $\rightarrow \gamma\gamma$

Brun, Hugues 29 February 2012 (has links) (PDF)
Le Modèle Standard de la physique des particules explique avec succès les données expérimentales. L'origine de la masse des bosons W et Z est expliquée à l'aide du mécanisme de Higgs qui permet de briser la symétrie de jauge de l'interaction électro-faible. Cependant ce mécanisme prédit l'existence d'une particule, appelée le boson de Higgs, qui n'a pas été observée pour l'instant. Cette particule est recherchée au LHC en particulier dans les expériences ATLAS et CMS. Les premiers résultats utilisant les données du LHC permettent d'exclure, avec un niveau de confiance de 95%, un boson de Higgs qui aurait la section efficace du Modèle Standard entre 128 et 600 GeV/c$^2$ et les résultats plus anciens du LEP ont exclu un boson de Higgs plus léger que 114.4 GeV/c$^2$. Dans l'intervalle de masse restant, le canal de désintégration du Higgs en deux photons est le canal idéal pour la recherche du boson de Higgs car, malgré son faible rapport d'embranchement (environ quelques pour mille) et grâce à son état final clair, il permet d'obtenir une résonance de faible largeur dans le spectre de masse invariante des événements di-photons. La manière dont un photon est reconstruit dans CMS sera d'abord décrite et la compréhension de cette reconstruction avec les premières données du LHC présentée. Du fait de la faible largeur de la résonance du boson de Higgs à basse masse, un grand intérêt doit être porté à la résolution sur l'énergie des photons. C'est pourquoi, nous étudierons les corrections apportées à cette énergie. Ensuite, comme les pions neutres qui se désintègrent en deux photons sont le principal bruit de fond aux photons dans les données, nous verrons comment utiliser la forme du dépôt d'énergie dans le calorimètre électromagnétique de CMS à l'aide d'un réseau de neurones artificiels pour discriminer ces pions neutres des vrais photons. La chromodynamique quantique est la source d'un large nombre d'événements di-photons qui forment la majorité du bruit de fond à la désintégration du boson de Higgs. La mesure de la section efficace de ces processus et de leur cinématique aide aussi à la compréhension du Modèle Standard. La possibilité d'utiliser le pouvoir discriminant du réseau de neurones pour mesurer le nombre d'événements diphotons dans les données, a été étudiée. Les mésons neutres sont aussi un bruit de fond pour les photons issus de la désintégration du boson de Higgs. L'amélioration de l'identification à l'aide d'une coupure sur la variable de sortie du réseau de neurones a donc été évaluée : la conséquence de cette amélioration en termes de limite sera présentée sur le premier 1.6fb$^1$ des données de 2011 enregistrées par l'expérience CMS.
27

Hydrodynamique et intrication dans la correspondance AdS/CFT

Kontoudi, Konstantina 13 December 2013 (has links) (PDF)
Nous présentons dans cette thèse deux applications de la correspondance AdS/CFT. La première est l'analyse des propriétés de transport des modes fermioniques dans les théories des champs fortement couplées. Nous étudions en particulier les propriétés de la constante de diffusion du phonino dans N=4 SYM à densité nulle ou finie. Nous trouvons que la constante de diffusion dépend du potentiel chimique et par conséquent qu'elle n'a pas une propriété d'universalité similaire à celle de la viscosité de cisaillement. La deuxième application traite du comportement de l'entropie d'intrication dans des théories qui contiennent des degrés de liberté massifs. Pour identifier les contributions de la masse à l'entropie d'intrication nous l'évaluons dans un système comprenant des branes de saveur et nous identifions certains des termes dépendants de la masse. Nous trouvons que le coefficient du terme logarithmique est différent de celui calculé dans la théorie des champs libre, un résultat qui est qualitativement en accord avec de résultats holographique antérieurs. De plus nous calculons d'autres termes, prédits dans la théorie des champs, mais qui n'ont pas été identifiés auparavant dans un système holographique.
28

Étude des détecteurs planaires pixels durcis aux radiations pour la mise à jour du détecteur de vertex d'ATLAS

Benoit, Mathieu 10 June 2011 (has links) (PDF)
Le Large Hadron Collider (LHC), située au CERN, Genève, produit des collisions de protons accélérés à une énergie de 3.5 TeV depuis le 23 Novembre 2009. L'expérience ATLAS enregistre depuis des données et poursuit sa recherche de nouvelle physique à travers l'analyse de la cinématique des événements issues des collisions. L'augmentation prévue de la luminosité sur la période s'étalant de 2011 2020 apportera de nouveaux défis pour le détecteur qui doivent être considérés pour maintenir les bonnes performance de la configuration actuelle. Le détecteur interne sera le sous-détecteur le plus affecté par l'augmentation de la luminosité qui se traduira par une augmentation des dommages occasionnés par la forte radiation et par la multiplication du nombre de traces associées à chaque croisement de faisceau. Les dommages causés par l'irradiation intense entrainera une perte d'efficacité de détection et une réduction du nombre de canaux actifs. Un intense effort de Recherche et Développement (R&D) est présentement en cours pour concevoir un nouveau détecteur pixel plus tolérant aux radiations et au cumul des événements générant un grand nombre de traces à reconstruire. Un premier projet de mise-à-jour du détecteur interne, nommé Insertable B-Layer (IBL) consiste à ajouter un couche de détection entre le tube à vide du faisceau et la première couche de silicium. Le projet SLHC prévoit de remplacer l'ensemble du détecteur interne par une version améliorée plus tolérante aux radiations et aux cumuls des événements. Dans cet ouvrage, je présente une étude utilisant la simulation technologique assisté par ordinateur (TCAD) portant sur les méthodes de conception des détecteurs pixels planaires permettant de réduire les zones inactives des détecteurs et d'augmenter leurs tolérances aux radiations. Les différents modèles physiques disponible ont étés étudiés pour développer un modèle cohérent capablede prédire le fonctionnement des détecteurs pixels planaires après irradiation. La structure d'anneaux de gardes utilisée dans le détecteur interne actuel a été étudié pour obtenir de l'information sur les possible méthodes permettant de réduire l'étendu de la surface occupée par cette structure tout en conservant un fonctionnement stable tout au long de la vie du détecteur dans l'expérience ATLAS. Une campagne de mesures sur des structures pixels fut organisée pour comparer les résultats obtenue grâce à la simulation avec le comportement des structures réelles. Les paramètres de fabrication ainsi que le comportement électrique ont été mesurés et comparés aux simulations pour valider et calibrer le modèle de simulation TCAD. Un modèle a été développé pour expliquer la collection de charge excessive observée dans les détecteurs planaires en silicium lors de leur exposition a une dose extrême de radiations. Finalement, un modèle simple de digitalisation à utiliser pour la simulation de performances détecteurs pixels individuels exposés à des faisceau de haute énergie ou bien de l'ensemble du détecteur interne est présenté. Ce modèle simple permets la comparaison entre les données obtenue en faisceau test aux modèle de transport de charge inclut dans ladigitalisation. Le dommage dû à la radiation , l'amincissement et l'utilisation de structures à bords minces sont autant de structures dont les effets sur la collecte de charges affectent les performance du détecteur. Le modèle de digititalisation fut validé pour un détecteur non-irradié en comparant les résultats obtenues avec les données acquises en test faisceau de haut énergie. Le modèle validé sera utilisé pour produire la première simulation de l'IBL incluant les effets d'amincissement du substrat, de dommages dûes aux radiations et de structure dotés de bords fins.
29

Etude de la densité de particules chargées et des mésons vecteurs de basses masses en collisions Pb-Pb à sqrt(s)NN = 2.76 TeV dans ALICE au LHC

Guilbaud, M. 25 October 2013 (has links) (PDF)
La matière que nous connaissons est composée de hadrons dont les quarks et les gluons sont les composants élémentaires. Ces derniers n'existent pas libres dans la matière ordinaire et sont donc en permanence confinés dans les hadrons. Cependant, d'après les prédictions théoriques, quelques microsecondes après le Big Bang, la température était suffisamment élevée pour que les quarks et les gluons ne soient pas contenus dans les hadrons. Il s'agit d'une phase déconfinée de la matière hadronique appelée Plasma de Quarks et Gluons (QGP). Le Large Hadron Collider (LHC) au CERN (Genève) est un accélérateur de particules permettant d'accélérer, entre autres, des ions et de produire des collisions à des énergies dans le centre de masse par nucléons allant jusqu'à plusieurs TeraélectronVolts. Il est ainsi possible d'atteindre des températures permettant de recréer cette phase de QGP pour en étudier les propriétés. C'est dans ce cadre que se place l'expérience ALICE (A Large Ion Collider Experiement) qui est dédiée à l'étude des collisions d'ions lourds ultra-relativistes. Le temps de vie du QGP étant trop faible, il n'est pas possible de l'étudier directement. Il est alors nécessaire d'utiliser des observables indirectes. Ce travail de thèse s'inscrit directement dans ce programme de physique par le biais de l'étude des collisions d'ions lourds à 2.76 TeV. Deux observables sont abordées : la densité de particules chargées par unité de pseudorapidité et les mésons vecteurs de basse masse (rho, omega et phi) dans le canal dimuons. La première observable permet d'accéder à des informations sur les conditions initiales et la dynamique sous-jacente des mécanismes de production de particules. La mesure est réalisée sur la gamme en pseudo-rapidité la plus large jamais atteinte au LHC (10 unités) grâce au développement d'une méthode d'analyse originale dite " méthode des vertex déplacés ". La technique employée et les résultats obtenus sont décrits dans le chapitre 3. L'étude des mésons vecteurs de basse masse permet d'accéder à la production d'étrangeté via le méson phi et à la symétrie chirale à travers la modification de la fonction spectrale du rho. L'analyse a été menée à l'aide du spectromètre à muons d'ALICE et les résultats obtenus sur le taux de production du méson phi par rapport au mésons rho et omega sont présentés dans le chapitre 4. Dans ce chapitre, une étude sur la sensibilité du détecteur aux effets liés à la restauration de la symétrie chirale est aussi menée.
30

Mesure de la section efficace totale proton-proton avec le détecteur ATLAS au LHC

Abdel khalek, Samah 28 November 2013 (has links) (PDF)
Celà fait maintenant presque 50 ans qu'on a découvert que la section efficace totale proton-proton augmentait avec l'énergie, alors qu'on pensait précédemment qu'elle deviendrait asymptotiquement constante. Les incertitudes des mesures sur les rayons cosmiques effectuées à haute énergie ne permettent pas de déterminer la forme exacte de l'augmentation de la section efficace avec l'énergie.Le LHC au CERN à Genève fournit des collisions avec une énergie jamais atteinte dans un accélérateur de particule. L'énergie dans le centre de masse était 7 TeV en 2010 - 2011, 8 TeV en 2012 et atteindra 14 TeV dans un futur proche. Le détecteur ATLAS installé sur un des quatre points d'interaction du LHC, est utilisé pour collecter le résultat des collisions proton-proton. Son sous-détecteur ALFA, situé à 240 m du point d'interaction, est utilisé pour détecter les proton résultant des collisions élastiques. ALFA est donc capable, dans certaines conditions particulières de l'optique, de mesurer la section efficace totale et la pente nucléaire.Le travail effectué durant cette thèse a permit de mesurer σtot = 94.88 ± 0.12 stat ± 1.56syst mb et b = 19.45 ± 0.05stat ± 0.31syst GeV-2 à 7 TeV.

Page generated in 0.0941 seconds