• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1167
  • 634
  • 248
  • 220
  • 176
  • 122
  • 95
  • 63
  • 41
  • 23
  • 12
  • 9
  • 8
  • 7
  • 7
  • Tagged with
  • 3144
  • 747
  • 610
  • 582
  • 533
  • 274
  • 193
  • 182
  • 181
  • 178
  • 174
  • 173
  • 170
  • 159
  • 158
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1041

Mesures précises de sections efficaces e^+e^− → Hadrons : tests du Modèle Standard et applications en QCD

Malaescu, B. 19 July 2010 (has links) (PDF)
Le Modèle Standard (MS) de la physique de particules avec les théories de jauge pour les interactions forte et électrofaible n'a pas encore été mis en défaut par les données expérimentales. Dans les recherches de nouvelle physique, au delà du MS, deux approches sont en général suivies : les recherches exploratoires à la frontière de haute énergie et des tests de précision à des énergies plus basses. Le but de cette thèse est dans le cadre de la deuxième approche, d'obtenir et utiliser des données précises des annihilations e+e− en hadrons, à des énergies de l'ordre 1 GeV. Ces données représentent un ingrédient important pour les tests du MS impliquant la polarisation du vide, comme par exemple la comparaison du moment magnétique du muon avec la théorie, ainsi que pour des tests de QCD et applications. Les différentes parties de cette thèse décrivent quatre aspects de mon travail dans ce contexte. (1) Les mesures de sections efficaces en fonction de l'énergie nécessitent la déconvolution des spectres de données des effets de détecteur. Je propose une nouvelle méthode itérative de déconvolution des données expérimentales, qui présente des améliorations par rapport aux outils existants. On peut déconvoluer, d'une manière dynamiquement stable, des spectres de données qui peuvent être fortement affectées par des fluctuations dans la soustraction du bruit de fond, et simultanément reconstruire des structures qui n'étaient pas initialement simulées. (2) Le coeur expérimental de cette thèse est constitué par l'étude du processus e+e− en K+K−, du seuil jusqu'à 5 GeV, utilisant la méthode de rayonnement dans l'état initial (ISR), par la mesure de e+e− en K+K− gamma avec le détecteur BABAR. Toutes les efficacités utiles sont mesurées utilisant les données expérimentales, et la normalisation absolue est fournie par la mesure simultanée du processus mu mu gamma. J'ai effectué l'analyse complète où une incertitude systématique de 0.7 % a été obtenue sur la résonance dominante, phi. Le facteur de forme du kaon chargé a été mesuré. Il présente une décroissance rapide au delà du phi et des structures distinctes dans la région 1.7-2.5 GeV, où on connaît l'existence de résonances de type vecteur. La dépendance en énergie, à haute masse, est comparée à la prédiction de QCD. On présente aussi les résultats du canal e+e− en pi+pi− , du seuil jusqu'à 3 GeV, pour lequel j'ai effectué la déconvolution des effets de détecteur et j'ai obtenu les résultats finals qui sont comparés avec les données existantes. (3) La prédiction pour le moment magnétique du muon (exprimée par l'intermédiaire de son 'anomalie', i.e. la déviation par rapport à la valeur de Dirac pour le rapport gyromagnétique égale à 2) est calculée dans le cadre su MS. Notre travail concerne seulement la contribution de polarisation hadronique du vide, obtenue à partir des données e+e− par une intégrale de dispersion. Comme la même information peut en principe être obtenue avec des données sur les désintégrations hadroniques du tau, on fait d'abord la mise à jour de la comparaison entre les utilisations des deux sources de données, et on trouve une différence réduite entre les évaluations correspondantes. Le nouveau résultat basé sur les données tau s'écarte de 1.9 déviations standard de la mesure directe. En suite, les nouvelles données précises de BABAR sont inclues dans une analyse combinée utilisant des outils (avec une procédure d'interpolation et moyennage de données améliorée, une propagation des incertitudes plus rigoureuse et une validation systématique) que j'ai développés. Avec les nouvelles données, le désaccord entre les résultats basés sur des données e+e− et tau pour le mode dominant 2 pi est réduit davantage, du 2.4 sigma précédent à 1.5 sigma, dans l'intégrale de dispersion, bien que des différences locales significatives entre les spectre persistent encore. Nous obtenons l'évaluation basée sur des données e+e− a_μ^had LO = (695.5 +- 4.1)*10^-10, où l'incertitude prend en compte toutes les sources. L'incertitude la plus grande pour la prédiction du MS est encore due à la polarisation hadronique du vide, mais elle est maintenant plus petite que l'erreur expérimentale. La comparaison actuelle entre la mesure directe et notre prédiction (basée sur les données e+e−) montre une indication intéressante de nouvelle physique (un effet à 3.2 sigma). (4) Les règles de somme de QCD sont des outils puissants pour obtenir des informations précises sur les paramètres de QCD, comme la constante de couplage fort α_S. Cette étude devrait faire usage de la mesure complète de e+e− en hadrons jusqu'à environ 2 GeV. Comme BABAR n'a pas encore mesuré complètement tous les processus hadroniques, j'ai travaillé sur une situation similaire utilisant les fonctions spectrales des désintégrations hadroniques du tau, mesurées par ALEPH. Je discute en détail la prédiction de QCD perturbatif, obtenue avec deux méthodes différentes : la théorie de perturbations à ordre fixe (FOPT) et la théorie de perturbations avec intégration de contour améliorée (CIPT). Les incertitudes théoriques correspondantes sont étudiées aux échelles de masse du tau et respectivement du Z. On trouve que la méthode CIPT est plus stable par rapport aux contributions manquantes d'ordre supérieur et par rapport à des changements de l'échelle de renormalisation. Il est également montré que FOPT souffre à cause de problèmes de convergence le long du contour d'intégration. La fiabilité d'une classe de modèles pour la fonction d'Adler, basée sur des renormalons, est étudiée dans le contexte de la comparaison entre CIPT et FOPT. On trouve que ces modèles ne sont pas suffisamment contraints pour qu'ils puissent identifier la meilleure méthode à utiliser pour la détermination de α_S(m_τ^2). La détermination de αS est mise à jour et une valeur très précise pour α_S(m_τ^2) est obtenue en utilisant CIPT (0.344 +- 0.005 (exp) +- 0.007 (th)). Une fois évoluée à la masse du Z, cette valeur est en accord avec α_S(m_Ζ^2) mesurée directement à partir de la largeur du Z. Ce résultat représente le test le plus précis du running de α_S en QCD.
1042

A new LHC search channel for a light Higgs boson and associated QCD calculations

Rubin, Mathieu 21 June 2010 (has links) (PDF)
Cette thèse a pour objet l'étude de divers sujets liés à la physique du LHC et à ses prédictions. Nous nous sommes dans un premier temps intéressés à la recherche au LHC d'un boson de Higgs léger ($M_H\simeq 120$ GeV) et boosté ($p_{t,H}>200$ GeV) dans le canal $pp\rightarrow WH$ et $pp\rightarrow ZH$ avec $H\rightarrow b\bar b$. Nous avons montré comment, à partir d'une analyse de la sous-structure des jets en deux étapes respectivement appelées ``mass-drop'' et ``filtering'', il est possible de réduire de manière significative les divers backgrounds (mass-drop) et d'améliorer la résolution en masse lors de la reconstruction du Higgs (filtering). Cela nous a permis de rendre prometteur ce canal de recherche au LHC, longtemps considéré comme trop difficile. A partir de là nous nous sommes concentrés plus particulièrement sur la procédure du ``filtering'', qui permet de supprimer autant que possible l'effet du bruit de fond diffus que constituent l'underlying-event et le pile-up, en majeur partie responsable de la dégradation de la résolution. Nous avons optimisé ses paramètres à partir d'une analyse semi-analytique, ce qui nous a conduits à l'étude de la structure des ``non-global'' logarithms qui interviennent lors du calcul de la distribution en masse du Higgs. Finalement, nous nous sommes penchés sur les processus dont la série perturbative présente une mauvaise convergence au next-to-leading (NLO) order pour certaines observables, une caractéristique que nous avions en particulier remarquée pour les processus Z+jet et W+jet à grand $p_t$ lors de notre première étude sur le Higgs. Cet aspect est important car cette mauvaise convergence induit une perte de confiance sur les prédictions résultant des calculs perturbatifs. Il devient donc nécessaire d'examiner les ordres supérieurs, ce que permet de façon approximative un nouvel outil que nous avons élaboré, appelé ``LoopSim'', qui combine divers ordres de la théorie des perturbations de manière à annuler les divergences molles et collinéaires qui apparaissent inévitablement.
1043

Les chocs radiatifs générés par les lasers à haute énergie: une opportunité pour l'astrophysique de laboratoire.

Vinci, Tommaso 10 May 2006 (has links) (PDF)
Le travail de cette thèse s'inscrit dans le vaste domaine de l'astrophysique de laboratoire, avec la création et la caractérisation d'un régime dans lequel la matière et le rayonnement sont étroitement couplés. Cela met en jeu des techniques de génération de chocs très rapides et très chauds conduisant à ce que l'on appelle les chocs radiatifs. L'objectif de cette thèse est d'une part de recréer en laboratoire les conditions d'un choc radiatif, d'autre part de l'étudier en mesurant un grand nombre de paramètres simultanément pour donner une cohérence la plus haute possible. On présentera aussi pour chaque mesure, la comparaison avec les codes de simulation de l'hydrodynamique radiative. Au cours de cette thèse, nous avons effectué au sein du laboratoire LULI deux campagnes expérimentales sur deux installations laser différentes (l'ancienne chaîne 6F et le tout nouveau LULI2000). La première campagne s'est déroulée en 2002 et la seconde au début 2005. Ces expériences ont fait l'objet de nombreuses collaborations. Outre l'apport important des équipes techniques du LULI (équipe laser, équipe d'exploitation, équipe mécanique, ...), les équipes extérieures (le CEA-DAM, le LUTH et le GEPI de l'observatoire de Paris Meudon et l'université de Rome «La Sapienza» en Italie) ont notamment participé à la définition des expériences, la conception et fabrication des cibles et au calcul numérique.
1044

Etude de la production du J/psi dans les collisions or-or à 200 GeV par paire de nucléons dans l'expérience PHENIX.

Tram, Vi-Nham 26 January 2006 (has links) (PDF)
Parmi les signatures proposées pour l'observation du plasma de quarks et de gluons (PQG), l'une des plus prometteuses est la suppression des résonances quark-antiquark de saveurs lourdes par effet d'écran de couleur. Les premières mesures auprès du SPS du CERN ont montré une "suppression anormale" de la production du J/psi (résonance ccbar) dans les collisions centrales. La mesure de cette production dans différents systèmes et à différentes énergies de collisions pourrait permettre de conclure quant à la formation du PQG. Cette recherche se poursuit maintenant auprès de l'accélérateur RHIC, dont l'énergie dans le centre de masse est dix fois supérieure à celle obtenue au SPS.Le travail exposé dans cette thèse porte sur l'étude de la production du J/psi mesuré via son mode de déintégration e! n paires de muons, par l'expéience PHENIX dans les collisions Au-Au à 200 GeV par paire de nucléons. L'étude de la production du J/psi en fonction de la centralité des collisions montre une suppression d'un facteur 3 dans les collisions les plus centrales par rapport à la simple proportionalité avec le nombre de collisions binaires nucléon-nucléon.Pour comparer les résultats obtenus dans les collisions or-or à ceux des collisions proton-proton, les "effets nucléaires froids" doivent être pris en compte. Ils ne suffisent pas à expliquer la suppression observée, suggèrant l'existence de mécanismes supplémentaires. Les modèles qui prennent en compte la recombinaison du J/psi semblent mieux reproduire cette suppression. Néanmoins, l'ensemble de ces résultats est compatible avec le scénario selon lequel seules les résonances chi_c et psi' subissent l'écrantage de couleur.
1045

Etude d'un prototype de calorimètre électromagnétique auprès de l'expérience CALICE dans le cadre du projet "International Linear Collider".

Benyamna, Mustapha 19 May 2010 (has links) (PDF)
Ce mémoire de thèse est réalisé dans le cadre du Projet International Linear Collider. Il porte sur l'étude d'un prototype de calorimètre électromagnétique auprès de la collaboration internationale CALICE. Le prototype a été soumis à plusieurs reprises à des faisceaux test au CERN, à DESY et à FNAL. L'auteur présente deux sujets d'études: une partie d'instrumentation concernant la résolution d'un problème des événements carrés découvert lors des prises des données en 2006 au CERN. Afin d'en expliquer l'origine et résoudre le problème dû à une phénomène de diaphonie entre les pixels périphériques et le guard ring qui entoure le capteur, deux études ont été faites: une étude de simulation en utilisant SILVACO et l'autre avec un banc test pour étudier plusieurs types de capteurs. La deuxième partie de cette thèse est une étude physique concernant l'identification des photons (électrons) en utilisant des estimateurs qui sont liés aux paramètres de la forme de la gerbe électromagnétique. Des données Monte Carlo ont été utilisés pour élaborer ces estimateurs, ensuite les utiliser pour des données réelles.
1046

Recherche directe de la matière noire : analyse et interprétation de premières données de l'expérience EDELWEISS-II

Scorza, Siliva 06 November 2009 (has links) (PDF)
La présence de grandes quantités de matière noire invisible, c'est-à-dire non lumineuse, donc sans couplage avec les photons, autour des galaxies et à l'intérieur de leurs amas, a été confirmée par toute une série d'observations indépendantes au niveau galactique, extragalactique et cosmologique. De quoi cette matière noire est composée représente un des mystères de l'Univers qui intrigue cosmologistes et physiciens des particules. Les modèles supersymétriques proposent des candidats naturels : les WIMPs (Weakly Interacting Massive Particle). Dans la plupart des cas de figure, l'Univers est suffisament rempli de WIMPs pour qu'il soit possible de les détecter indirectement ou directement. Pendant mon doctorat, je me suis intéressée â la recherche directe de matière noire au sein de la collaboration EDELWEISS. EDELWEISS est une expérience de recherche directe de matière noire, cette dernière interagissant avec la matière baryonique par diffusion élastique. Dans le but de mesurer les énergies des reculs nucléaires dus à ces rares interactions, EDELWEISS emploie des détecteurs cryogéniques à double composante chaleur et ionisation (de type Ge-NTD). Chacun de ces détecteurs est constitué d'un cristal de Germanium de 320g, refroidi à une température de 20 mK. La mesure simultanée de deux signaux chaleur et ionisation permet la discrimination entre les reculs électroniques et les reculs nucléaires, ces derniers étant principalement induits par des WIMPs ou des neutrons. Le coeur de mon travail de thèse a été l'analyse des données du run 8 de physique comportant 11 bolomètres caractérisés par une très bonne stabilité en terme de résolution ligne de base et correspondant à une exposition fiducielle de 93.5 kg.j. Les différentes étapes de l'analyse sont détaillées ci-dessous. J'ai commencé par l'étalonnage des détecteurs cryogéniques avec des sources gamma 133Ba et neutron Am-Be dans le but d'évaluer leurs performances dans l'environnement du nouveau cryostat EDELWEISS-II et de la nouvelle chaîne d'acquisition. Ensuite j'ai traité l'optimisation des méthodes d'analyse et des paramètres de la chaîne de lecture des données. Enfin les résultats sont interprétés en terme de limite sur la section efficace d'interaction d'un WIMP avec un nucléon en fonction de la valeur de sa masse. Pour un seuil en énergie de recul de 30 keV (choisi a priori), 3 événements ont été enregistrés dans la bande de reculs nucléaires, correspondant à une sensibilité de 5*10^-7 pb pour une masse de WIMP de 80 GeV/c^2. J'ai également mené une étude pour comprendre le bruit de fond radioactif résiduel, regardant avec attention le fond gamma et le fond beta provenant du 210Pb. Pour ce dernier, un bolomètre Ge-NTD a été equipé avec une source de 210Pb. Le fond gamma pour des énergies supérieures à 100 keV montre une réduction globale et uniforme d'un facteur deux par rapport à la première phase de l'expérience, EDELWEISS-I, arrêtée en 2004. La comparaison entre les données expérimentales et les simulations des contaminations radioactives des matériaux proches des détecteurs comme le cuivre (pour les chaînes de désintégration U/Th, l'activation du 60Co et la contamination en 40K) faites avec GEANT4, m'a permis une évaluation de la contamination radioactive du cuivre. Il en résulte qu'elle est de 2 à 5 fois inférieure aux limites supérieures mesurées en spectrométrie HPGe. Ceci indique une plus grande propreté du Cuivre proche par rapport à EDELWEISS-I.Sachant que l'expérience peut être contaminée par une pollution en plomb due au Radon, l'étude du détecteur équipé avec une source de 210Pb m'a permis une investigation des betas de basse énergie qui tombent dans la bande de recul nucléaire et peuvent être interprétés comme un événement WIMP. Cette étude a permis de prédire le nombre de betas de basse énergie attendus pour le run de physique. Cette prédiction se révèle compatible avec le spectre expérimental de trois événements observés dans la zone des reculs nucléaires. Néanmoins cela n'est pas suffisant pour permettre une soustraction du fond, du fait des grandes incertitudes liées au profil de collection de charge et au profil d'implantation du Pb.
1047

Mesure de la luminosité absolue et de la section efficace totale proton-proton dans l'expérience ATLAS au LHC

Heller, M. 05 March 2010 (has links) (PDF)
Le Large Hadron Collider (LHC) au CERN à Genève délivrera bientôt des collisions avec une énergie jamais atteinte jusqu'alors dans un accélérateur de particules. Une énergie dans le centre de masse entre 10 et 14 TeV permettra de dépasser les frontières de la physique actuelle. Le détecteur ATLAS fera la chasse au boson de Higgs et recherchera une nouvelle physique au delà du modèle standard. Tout processus physique est décrit par sa section section efficace. Les détecteurs positionnés aux différents points de collision du LHC déterminerons les taux de comptage associés aux divers processus. Cependant, pour en déduire la section efficace associée, il faut connaître la luminosité. Pour l'expérience ATLAS, une mesure relative de la luminosité peut être fournie par quelques uns de ses sous-détecteurs. Cependant, pour calibrer ces détecteurs, une mesure absolue doit être effectuée. Le détecteur ALFA a été conçu pour mesurer le spectre de diffusion élastique qui permettra de déterminer la luminosité absolue et par la même occasion, la section efficace totale proton-proton fournissant ainsi un outils de calibration très précis, de l'ordre du %. Ces détecteurs, installés à 240 m de part et d'autre du point d'interaction sont appelés pots romains. Il s'agit d'un système mécanique permettant d'approcher un trajectographe à fibres scintillantes à une distance de l'ordre du millimètre du cœur du faisceau. La simulation de la mesure nécessite l'utilisation d'un logiciel de transport de particules chargées. Ce logiciel doit être soigneusement choisi car il sert à la détermination des protons perdus dans la séquence de l'accélérateur, entre le point d'interaction jusqu'aux détecteurs. L'impact des incertitudes systématiques qui affectent la mesure de la luminosité et de la section efficace totale est également déterminé en utilisant la simulation. Les détecteur ALFA opère dans un environnement complexe et en conséquence sa conception requiert une grande attention. Une large campagne de tests sur l'électronique front-end a été effectuée. L'analyses des données résultant de ces tests a permis de démontrer que toutes les exigences étaient remplies. A chaque avancement majeur dans la conception du détecteur, celui-ci doit être soumis à des tests en faisceau. Durant ces périodes, tous les aspects du détecteur sont étudiés. L'algorithme de reconstruction des traces, les méthodes pour extraire des données l'efficacité de détection ou encore le niveau de diaphonie sont autant de paramètres qu'il a fallu déterminer. Les conclusions de ces tests ont permis de valider les différents choix techniques effectués permettant ainsi le lancement de la fabrication en série des huit détecteurs utiles à la mesure. L'installation prévue courant 2011 permettra de mesurer la luminosité et la section efficace totale proton-proton courant 2012.
1048

Reconstruction et identification de jets beaux dans l'expérience LHCb en vue d'étudier sa sensibilité à un boson de Higgs standard se désintégrant en paires bb{bar}

Coco, V. 29 September 2008 (has links) (PDF)
La sensibilité du détecteur LHCb au Higgs standard léger dans le canal H + (W,Z) -> bb{bar} + (ll{bar}, nu_l l) est étudiée. Une procédure de reconstruction des jets b a été mise en place. Après correction, la résolution de la distribution en masse des di-jets b est de (sigma_m)/(m_moyen) ~ 22%. La procédure d'identification mise en place sélectionne ~ 80% des jets b en rejetant ~ 99:5% des autres jets. Après réduction du bruit de fond en bb{bar} + l, on obtient, pour m_H = 120 GeV=c^2, une signification statistique du signal supérieure à 1 pour 4 ans de fonctionnement à une luminosité de 5.10^32 cm^-2 s^-1.
1049

Etude du calorimètre électromagnétique silicium-tungstène du concept de détecteur ILD pour l'ILC et mesure de la masse du boson de Higgs dans le canal e$^{+}$e$^{-} \to$ Z H $\to$ e$^{+}$e$^{-}$ + X

Morin, Laurent 02 February 2010 (has links) (PDF)
Dans le cadre du développement du détecteurs ILD devant équiper l'ILC (projet d'accélérateur linéaire $e^+$$e^-$) un prototype de calorimètre électromagnétique répondant aux critères du "Particule Flow Algorithm" a été réalisé puis testé en faisceau au CERN (Suisse) et à FNAL (USA). La granularité du prototype a été utilisée afin d'identifier les particules incidentes à partir de la forme de leur gerbe. La résolution en énergie a été mesurée pour des électrons~: $\Delta E /E (\%) = (17,96\pm0,7) / \sqrt{E (GeV)} \oplus (0,8\pm0,06)$ puis comparée aux prédictions des simulations Monte-Carlo. Nous avons ensuite cherché différentes méthodes pour compenser les non-uniformités du détecteur dues aux zones non instrumentées~: anneaux de gardes protégeant les matrices de diodes de détection. Nous avons d'abord étudié des méthodes de cartographie globales ou couche par couche de l'efficacité du détecteur, puis des méthodes locales. Certaines de ces méthodes seront facilement adaptables au futur calorimètre électromagnétique de l'ILD. Nous avons aussi mesuré la résolution en position~: $\Delta X (mm)= (3,32 \pm 0,06)/\sqrt{E (GeV)} \oplus (9,0 \pm0 ,07) / E (GeV) \oplus (0,9\pm0,01)$. Enfin, à partir de simulations Monte-Carlo de l'ensemble du détecteur ILD, nous avons entrepris de mesurer la masse du boson de Higgs dans le canal $e^{+} e^{-} \to Z H \to e^{+}e^{-} + X$. Avec une luminosité intégrée de 250~fb$^{-1}$, le boson de Higgs est susceptible d'être clairement mis en évidence. L'incertitude sur la mesure de sa masse sera comprise entre 100 et 125 MeV selon l'état de polarisation du faisceau.
1050

Le Calorimètre Électromagnétique d'ATLAS, Recherche d'une Nouvelle Physique au LHC

Lafaye, Remi 22 March 2010 (has links) (PDF)
ATLAS, une des quatre expériences opérant auprès du Grand Collisionneur de Hadrons, est conçue pour découvrir la pièce manquante du Modèle Standard de la physique des particules, le boson de Higgs et pour rechercher des signes d'une nouvelle physique à l'échelle du Teraélectron-volt. Le calorimètre électromagnétique, un des sous-système majeur d'ATLAS, utilise une technologie argon liquide avec une géométrie en accordéon. Ce détecteur fut testé, pendant la phase de construction, lors d'une série de tests en faisceaux, puis, après son installation, à l'aide de muons cosmiques. Les performances du calorimètre, telles que résolution en énergie, linéarité et uniformité, furent étudiées. Si une nouvelle physique est découverte au LHC, l'étape suivante sera de mettre en évidence les propriétés de la théorie sous-jacente. A partir de l'exemple du lagrangien supersymétrique à l'échelle du TeV, nous montrerons comment, grâce au programme SFitter, il est possible d'étudier un espace de vraisemblance de grande dimension et d'extraire les valeurs des paramètres de la théorie ainsi que leur domaine de vraisemblance. Nous discuterons en particulier la présence de maximums secondaires et les corrélations entre paramètres.

Page generated in 0.0487 seconds