• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 430
  • 227
  • 53
  • 41
  • 16
  • 4
  • 2
  • 1
  • 1
  • Tagged with
  • 1039
  • 1039
  • 1039
  • 544
  • 533
  • 240
  • 228
  • 219
  • 193
  • 147
  • 142
  • 127
  • 95
  • 92
  • 87
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
671

Phénoménologie du LHC, prédictions théoriques et leurs incertitudes dans un contexte Bayesien

Houdeau, Nicolas 30 September 2011 (has links) (PDF)
Le récent démarrage du LHC appelle à la mise à jour et à l'amélioration des prédictions théoriques obtenues à partir du Modèle Standard. Les éventuels signes d'une nouvelle physique devraient apparaître dans un premier temps sous la forme de légères différences entre ces résultats et les observations. Les sections efficaces recherchées doivent donc être ré-estimées à l'énergie de collision du nouvel accélérateur, puis calculées à des ordres supérieurs en perturbation. La complexité des manipulations mises en jeu impose le développement de nouvelles techniques, notamment numériques. Une fois les prédictions théoriques obtenues, leur précision doit également être évaluée de la manière la plus juste possible. Une différence notable avec les résultats expérimentaux ne pourra être mise en évidence qu'à cette seule condition. Cette thèse présente des travaux effectués sur ces trois aspects. D'une part, l'outil numérique FONLL déjà existant a été utilisé pour actualiser les prédictions de production de quarks lourds au premier ordre en perturbation à l'énergie de collision de 7 TeV du LHC. L'étude d'une approche alternative de la gestion d'un type de divergences apparaissant dans la procédure de calcul des sections efficaces, les divergences infrarouges, est également présentée. Enfin, un modèle de confiance (ou probabilités bayésiennes) permettant de décrire rigoureusement la contribution de l'effet de troncature des séries perturbatives à l'incertitude théorique est détaillé. Une discussion sur les notions de mesure de probabilité et de mesure de confiance introduit cette étude.
672

Phénomènes hors équilibres de l'Univers inflationnaire en théorie quantique des champs

Giraud, Alexandre 16 March 2010 (has links) (PDF)
Dans cette thèse j'étudie le reheating de l'Univers inflationnaire. Cette ère fait le lien entre l'inflation de l'Univers et le modèle du Big- Bang chaud. Pendant celle-ci, l'Inflaton se désintègre en matière qui, via ses propres intéractions, thermalise et donne une description statistique au contenu de l'Univers. Ce travail est réalisé dans le cadre d'une théorie quantique des champs utilisant des méthodes hors équilibre telle que l'action effective 2-Particule-Irreductible permettant de faire face aux difficultés de la théorie quantique des champs hors équilibre traditionelle. J'étudie premièrement le cas où la matière produite peut être décrite par des champs scalaires puis par des degrés de liberté fermioniques, où l'approximation classique n'existe pas. Je développe l'action effective à l'ordre sous dominant d'un développement non perturbatif en inverse du nombre de champs de matière ce qui permet d'explorer des théories où la matière est fortement couplée à elle-même. Dans une deuxième partie j'étudie la décohérencedes fluctuations primordiales de densité. L'inflaton peut être vu comme un condensat quantiquement cohérent et sa désintégration comme une décohérence de celui-ci. Cette décohérence et perte de pureté est fortement liée à la perte d'information qu'un observateur a sur le système si il se restreint au sousespace Gaussien des fonctions de corrélations. Cette étude montre que, même dans le cadre peu habituel où le système n'est pas en intéraction avec un environnement extérieur incohérent et/ou thermique, celui-ci perd sa pureté et sa cohérence initiale au profit d'une production du nombre de degré de liberté ou d'entropie.
673

Recherche du boson de Higgs dans le canal de désintégration en deux photons avec le détecteur ATLAS au LHC

Bernat, P. 24 June 2010 (has links) (PDF)
Cette thèse a traité trois différents aspects ayant trait à la recherche du boson de Higgs dans le canal de désintégration en deux photons avec le détecteur ATLAS. Le premier est une étude sur l'uniformité intrinsèque du calorimètre électromagnétique (EM) d'ATLAS en utilisant la mesure du temps de dérive des électrons d'ionisation. Environs 500 000 signaux provenant de rayons cosmiques sont enregistrés et sont comparés à la forme du signal prédite en utilisant la méthode FPM (pour First Principle Method). L'ajustement de la forme prédite à celle mesurée permet de mesurer le temps de dérive des électrons d'ionisation de l'argon liquide. L'uniformité du temps de dérive dans le compartiment Middle calculée par blocs de taille 0.1 x 0.1 dans le plan (η,φ) est estimée à 1.27 ± 0.03%. L'impact de la variation du temps de dérive sur l'uniformité de la réponse du calorimètre est estimée à 0.29 ± 0.01%. En tenant compte de la variation de l'épaisseur des plaques de plomb qui constituent le milieu passif et qui ont été mesurées par ailleurs, l'uniformité intrinsèque du calorimètre est estimée à 0.34%. La vitesse de dérive des électrons mesurée dans les différents compartiments du calorimètre est en moyenne V_{D(E = 1 kV/mm) = 4.58 ± 0.07 mm.μ s^-1 en bon accord avec des mesures antérieures de la vitesse de dérive des électrons dans l'argon liquide à la température de 88.5K. Le second aborde la question de l'estimation de la matière en amont du calorimètre, utilisant une cartographie du détecteur interne. Cette mesure est faite relativement au nombre de conversions dans le tube à vide (beam pipe) de manière à être indépendante du flux initial de photons. Une connaissance précise de la matière en amont du calorimètre est essentielle à la calibration en énergie des électrons et photons reconstruits dans le calorimètre. Puisqu'une large fraction des photons proviennent de mésons π^0, le flux initial de photons qui intervient dans le taux de conversions dans le beam pipe est normalisé aux désintégrations Dalitz du π^0. L'observable qui permet de comparer les données aux simulations Monte-Carlo (MC) est le rapport du nombre de conversions reconstruites dans le beam pipe et du nombre de Dalitz reconstruits. Ce rapport estimé avec les données de collision à une énergie de 7 TeV dans le centre de masse donne un bon accord sur la mesure de la matière dans le beam pipe avec la prédiction du MC : X/X_0 = 0.669 ± 0.033(stat) ^+0.013_-0.080(syst)%, X/X_0 = 0.709 ± 0.028(syst) %, et X/X_0 = 0.709 ± 0.028(syst) %respectivement. Le dernier est l'étude de la normalisation du signal et du bruit de fond ainsi que l'analyse du potentiel discriminant dans l'analyse inclusive du canal H → γγ. Différentes simulations MC sont utilisées pour estimer une normalisation à l'ordre NLO du signal et du bruit de fond irréductible (γγ) ainsi que les erreurs systématiques associées. Celles-ci représentent respectivement 16% et 26% de la section efficace totale. Le pouvoir discriminant de l'impulsion transverse du système diphoton et du cosθ* est aussi étudié. En particulier, une forte corrélation entre le cosθ* et la masse invariante diphoton est observée. Le bruit de fond semi-réductible (γ-jet) est normalisé à NLO avec 27% d'erreurs systématiques. Une nouvelle normalisation qui s'applique après l'identification des photons est proposée. Elle prend en compte la différente réjection des jets provenant de quark ou de gluon et est estimée à 1.9 ± 0.6. Les perspectives d'exclusion du boson de Higgs dans le canal diphoton à 10 TeV et l'extrapolation à 7 TeV pour un luminosité intégrée de 1 f b^−1 sont présentées. Dans le dernier scénario, environ 5 fois le Modèle Standard est exclu à 95% de niveau de confiance pour une masse du boson de Higgs autour de 120 GeV/c^2 .
674

Contributions à l'étude de la chromodynamique quantique perturbative appliquée à la diffusion profondément inélastique à petit x

Munier, Stéphane 15 September 2000 (has links) (PDF)
Le proton est un objet composite, constitué d'une collection de partons, quarks et gluons, qui interagissent selon les lois de la chromodynamique quantique (QCD). Dans cette thèse, on expose une formulation hamiltonienne de cette théorie dans le repère du cône de lumière.<br /><br />On retrouve dans ce cadre les équations d'évolution des partons en impulsion transverse (équation DGLAP), et longitudinale (équation BFKL). Cette dernière se présente ici sous la forme du modèle des dipôles de couleur. On transpose dans ce formalisme l'ensemble des calculs nécessaires à nos recherches personnelles, portant sur le développement et les applications du modèle des dipôles.<br /><br />Ce modèle est ajusté aux données expérimentales d'HERA pour les fonctions de structure inclusives, qui sont reliées aux sections efficaces d'interaction électron-proton. La contribution à celles-ci de la production de particules charmées est prédite, en bon accord avec l'expérience. D'autre part, l'importance phénoménologique de certaines composantes sous-dominantes de l'équation BFKL (de spin conforme non nul), qui apparaissent comme solutions des équations d'évolution, est démontrée: on compare leur effet à celui du poméron mou de Donnachie-Landshoff.<br /><br />On montre sur des observables particulières l'équivalence entre la formulation hamiltonienne et une formulation covariante de la QCD, et on l'applique à la détermination de la densité effective de dipôles primordiaux à l'origine d'un jet vers l'avant qui se matérialise quelquefois dans l'état final d'une réaction de diffusion profondément inélastique ou d'une diffusion de protons.<br /><br />Enfin, le processus de diffraction dure, plus exclusif, est considéré dans l'approche BFKL. Sur le plan phénoménologique, une étude des données des expériences d'HERA dans le cadre du modèle des dipôles est présentée. Sur le plan théorique, le calcul des composantes de spin conforme non nul de l'équation BFKL pour la production diffractive de photons est effectué.
675

Habilitation à Diriger des Recherches

Calvet, D. 21 March 2011 (has links) (PDF)
Ce document résume mes activités entre 1995 et 2010. Dans un premier temps, le développement d'un détecteur à pixels de silicium pour l'amélioration du Forward Proton Spectrometer de l'expérience H1 à DESY est présenté. Ensuite, les développements des circuits de lecture du détecteur à pixels de l'expérience ATLAS au CERN sont détaillés, en particulier le développement de bancs de test de ces circuits ainsi que la simulaton de leur comportement dans un environnement réaliste. Puis, l'infrastructure de la digitization des détecteurs à silicium (Pixels et SCT) est présentée. Une deuxième partie décrit la production de l'électronique frontale de lecture du calorimètre hadronique à tuiles scintillantes d'ATLAS (TileCal), en particulier le développement du système de test MobiDICK. Les logiciels de contrôle du système de calibration du TileCal par laser sont aussi détaillés. Pour finir, mes activités d'enseignement, d'encadrement et de diffusion des connaissances (en particulier le Cosmophone) sont mentionnées.
676

Mise en oeuvre de l'étiquetage des jets issus de quarks beaux dans l'expérience ATLAS au LHC

Lapoire, C. 22 September 2010 (has links) (PDF)
Le Modèle Standard de la physique des particules prédit l'existence du boson de Higgs, dont le canal de désintégration privilégié à basse masse est la production de paires de quarks beaux. L'identification des jets issus de tels quarks dans le détecteur ATLAS, situé sur l'anneau du LHC, tient donc un rôle majeur dans la physique des particules moderne. Dans ce document, un aper//çu des méthodes d'étiquetage de ces jets b utilisées dans ATLAS ainsi que l'optimisation d'un algorithme en particulier, JetProb, sont présentés. La préparation à la mesure de l'efficacité de ces algorithmes dans les données est également développée. Enfin, après la prise de données à 900 GeV au centre de masse puis à l'énergie record de 7 TeV en 2009-2010, les premiers résultats concernant l'étude des traces chargées et la mise en place de l'étiquetage des jets b dans les données ont été obtenus et sont rassemblés ici. La comparaison avec la simulation montre un bon accord et les premiers candidats jets b et événements top observés sont étudiés.
677

Recherche du boson de Higgs chargé dans le canal H+ -> tb et étiquetage des jets b avec l'expérience ATLAS auprès du LHC.

Zaidan, R. 17 September 2009 (has links) (PDF)
La seule particule du Modèle Standard qui n'a toujours pas été découverte est le boson de Higgs, qui serait à l'origine de la masse des particules élémentaires. Dans le Modèle Standard Supersymétrique Minimal (MSSM), le secteur de Higgs consiste en cinq bosons dont deux sont chargés. La recherche du boson de Higgs chargé dans le canal gg ! ¯tbH+(H+ ! t¯b), constitue l'objet principal de cette analyse. Nous présentons une analyse qui fait usage d'une fonction de vraisemblance pour résoudre les combinatoires et reconstruire la masse du boson de Higgs chargé, et de l'étiquetage des jets b pour la supression du bruit de fond t¯t+jets. Nous montrons aussi les difficultés apportées par le bruit de fond combinatoire et affectant le pouvoir de découverte de ce canal. La présence de 4 quarks b dans l'état final que nous recherchons rend l'étiquetage des jets b très important pour l'analyse. Une partie de ce travail y a été consacrée. Nous présentons dans le cadre de la préparation aux premiéres données, plusieurs études d´dédiées à l'optimisation et la compréhension des performances. Nous présentons aussi la mise en œuvre d'un algorithme d'étiquetage simple (JetProb) qui sera utilisé pour les analyses qui seront faites avec les premiéres données.
678

Optimisation du détecteur ATLAS pour la recherche du boson de Higgs se désintegrant en deux photons au LHC

Tisserand, Vincent 03 February 1997 (has links) (PDF)
Le mode de désintégration en une paire de photons est la signature la plus claire permettant de rechercher un boson de Higgs de masse intermédiaire auprès du futur grand collisionneur de protons du CERN, le LHC. Puisque la largeur naturelle du Higgs est très faible dans cette zone, son observation dans ce canal repose sur les performances du calorimètre électromagnétique. Une étude complète a été effectuée pour évaluer le potentiel de découverte du détecteur ATLAS. Les paramètres et la géométrie du calorimètre électromagnétique à argon liquide ont été optimisés. Les résultats de la simulation utilisée pour ce travail sont confirmés par des tests sur faisceau d'un prototype. Cette simulation inclut différentes contributions comme le terme d'échantillonnage, les bruits d'électronique et d'empilement, le terme constant global du calorimètre et la mesure de direction de l'angle d'émission des photons de la paire. Le niveau de bruit de fond irréductible des paires de photons directs a été évalué, tout comme celui du bruit de fond réductible des jets de hadrons, et plus particulièrement celui des pions neutres isolés. Pour cela, la capacité du détecteur à rejeter ces bruits de fonds a été estimée. Le calcul de la résolution de masse invariante des paires de photons et l'estimation du taux d'événements de signal et de bruit de fond ont permis de calculer le potentiel de découverte du Higgs par le détecteur ATLAS pour ce canal. Un effet systématique à plus de cinq écarts types sera mis en évidence en une année de prise de données au LHC, si la masse du boson de Higgs est comprise entre 100 GeV/c2 et 150 GeV/c2.
679

Étude de la désintégration B+ --> K_S pi^+pi^0 avec le détecteur BABAR à SLAC

Prendki, Jennifer 08 October 2009 (has links) (PDF)
Les désintégrations B+- -> KSpi+pi0 ont été extraites des données enregistrées par le détecteur BABAR auprès de l'accélérateur PEP2 du SLAC et mesurées en mettant en œuvre une analyse en amplitude (analyse de Dalitz). La désintégration recherchée fait partie d une classe de processus susceptibles de mettre en évidence une physique au-delà du modèle standard et du formalisme de Cabibbo, Kobayashi et Maskawa. L'originalité de ce travail réside dans la mise au point d un algorithme d'ajustement des événements utilisant la méthode du maximum de vraisemblance étendue applicable sur un lot non discrétisé. Des outils statistiques et de mathématique appliquée originaux ont été développés pour gérer le faible rapport signal sur bruit d'un canal avec un pi0 dans l état final et auquel une désintégration charmée contribue sans aucun facteur d interdiction. Faute de statistique, la méthode n'atteint pas la sensibilité requise pour tester le modèle standard en mesurant les phases fondamentales. Elle permet par contre de préciser les rapports d embranchement et les asymétries de CP directes des canaux qui contribuent à la désintégration étudiée.
680

Développement et caractérisation d'un ASIC de lecture de macro-cellule de photo-détecteurs de grande dimension

Conforti Di Lorenzo, S. 06 October 2010 (has links) (PDF)
PMm² est un projet financé pour 3 ans (2007-2010) par l'Agence Nationale de la Recherche (ANR) dont le titre exact est “Electronique innovante pour photo-détecteurs distribués en physique des particules et astroparticule”. Le projet regroupe les partenaires suivants: le LAL, l'IPN Orsay, le LAPP et une collaboration avec l'Université libre de Bruxelles (ULB). La couverture de très grandes surfaces de photo-détection est un élément essentiel des dispositifs expérimentaux dévolus aux études des gerbes atmosphériques de grande énergie, des neutrinos de différentes sources (soleil, atmosphérique, supernova, réacteurs, accélérateurs). La prochaine génération d'expériences, comme l'après Super-Kamiokande ou tous les détecteurs Cerenkov à eau de très grande taille, ne pourront plus baser leur construction seulement sur un simple agrandissement des expériences existantes, pour améliorer les performances de détection. Ils doivent concentrer leurs efforts de R&D sur la réduction de la complexité. L'objectif de ce projet est donc une “recherche amont” en vue de facilité la réalisation de grands détecteurs utilisant des milliers de photomultiplicateurs (PMTs). Le projet PMm² propose de segmenter les grandes surfaces de photo-détection en “macro modules” de 16 PMTs de 12-inch (2x2 m²), connectés à une électronique innovante autonome qui fonctionne en déclenchement automatique et est installée proche des PMTs. Ce développement est rendu possible par les progrès de la microélectronique qui permettent d'intégrer la lecture et le traitement des signaux de tous ces photomultiplicateurs à l'intérieur d'un même circuit intégré (ASIC) baptisé PARISROC (Photomultiplier ARray Integrated in SiGe Read Out Chip) et seules les données numérisées sont ensuite transmises par réseau vers le système de stockage des données en surface. Le circuit PARISROC, réalisé en technologie AMS SiGe 0.35 μm, contient 16 voies totalement indépendantes correspondant aux 16 PMTs de chaque module. Chacune de ces voies permet la lecture de la charge du signal reçu ainsi que du temps associé. La voie pour la mesure de charge est réalisée par un préamplificateur de tension et un “shaper” lent (200 ns) qui permet de mettre en forme le signal. Le signal obtenu est ensuite stocké dans une mémoire analogique, avant d'être converti en signaux numériques grâce à un convertisseur analogique numérique (ADC). La voie pour la mesure de temps est, quant à elle, réalisée à partir du même préamplificateur suivi d'un “shaper” rapide (15ns) et d'un discriminateur. Grâce à un système de TDC (Time to Digital Converter) qui permet de convertir l'amplitude en temps, la mesure de temps est stockée dans une mémoire analogique, en parallèle de la charge, avant d'être convertie en signaux numériques. Une des innovations de PARISROC, est la partie numérique compilée, incluse dans l'ASIC pour gérer les compteurs, l'échantillonnage des signaux, leur conversion ainsi que la transmission des données. Le premier prototype du circuit PARISROC a une surface totale de 19 mm2. Il a été envoyé en fabrication en juin 2008 chez Austrian Micro-System (AMS) par l'intermédiaire du centre de multi-projet CMP (à Grenoble), puis livré au laboratoire en décembre 2008. Les mesures effectuées sur l'ASIC ont conduit à la réalisation d'un second prototype. Des améliorations notables ont été apportées, en termes de bruit, de dynamique, de vitesse de lecture du circuit (augmentation des horloges de 10 MHz à 40 MHz), de mesure de temps (améliorations de la TDC), de mesure de charge (améliorations du “shaper” lent). Envoyé en fabrication en novembre 2009 et reçu au laboratoire en février 2010, ce nouveau prototype PARISROC 2 a été testé en laboratoire et l'analyse a montré un comportement répondant aux besoins du projet et la réalisation des modifications apportées.

Page generated in 0.0429 seconds