• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1173
  • 634
  • 248
  • 220
  • 176
  • 123
  • 95
  • 63
  • 41
  • 23
  • 12
  • 9
  • 8
  • 7
  • 7
  • Tagged with
  • 3154
  • 748
  • 610
  • 582
  • 533
  • 274
  • 195
  • 182
  • 182
  • 178
  • 174
  • 173
  • 170
  • 161
  • 159
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1041

J/ψ production study at the LHCb experiment

Qian, W. 02 September 2010 (has links) (PDF)
Le LHC (Large Hadron Collider) situé au CERN (Conseil Européen pour la Recherche Nucléaire) à Genève est le plus grand accélérateur pour la physique des particules. Les collisions proton-proton à des energies dans le centre de masse pouvant aller jusqu'à 14 TeV qui seront produites au LHC vont offrir la possibilité de s'intéresser aux questions les plus fondamentales en Physique. L'expérience LHCb est l'une des quatre expériences principales au LHC. Dédiée aux études de physique du b, le but principal de l'expérience LHCb est d'explorer d'éventuels modèles de Nouvelle Physique au-delà du Modèle Standard à travers l'étude des désintégrations rares des hadrons charmés ou beaux, et à travers des mesures de précision des observables de la violation de CP. Même lors de sa phase de fonctionnement initial, un nombre important de J/ψ va être collecté par le détecteur LHCb et va nous permettre de réaliser des études très intéressantes sur la production du charmonium. Ces mesures pourront apporter un éclairage nouveau pour la compréhension des mécanismes de production des quarkonia dans les collisions de hadrons. Dans cette thèse, les études de la production de J/ψ à LHCb est presentée, basée sur un échantillon d'événements Monte Carlo complétement simulés. La procédure dévelopée dans cette thèse sera utilisée pour analyser les données réelles lorsque suffisamment de statistique sera accumule. L'analyse a été effectuée en utilisant des événements Monte Carlo générés à une énergie dans le centre de masse égale à 14 TeV, et à une luminosité de 2 × 10^32 cm^−2 s^−1 . La taille du lot de données simulées correspond à une luminosité intégrée de 0.79 pb^−1 . Les événements J/ψ sont reconstruits en utilisant des critères de sélection optimisés pour atteindre la meilleure discrimination contre les processus de bruit de fond. L'étude réalisée montre que 6.5 ×10^6 J/ψ peuvent être reconstruits par pb^−1 de données avec une résolution en masse de 11 MeV/c^2 et un rapport signal sur bruit S/B résolution en masse de 11 MeV/c et un rapport signal sur bruit S/B ∼ 18 dans une fenêtre de masse de ±3σ. La section efficace de production des J/ψ prompt et des J/ψ de désintégrations de b est mesurée dans 28 bins en pT et η recouvrant la région 0 < pT < 7 GeV/c et 3 < η < 5. Dans chaque bin, une variable est définie pour distinguer les J/ψ prompt de ceux de désintégrations de b. Pour 0.79 pb−1 de données, une précision de 10% peut être obtenue pour la ma jorité des bins. Les erreurs systématiques sont estimées à un niveau équivalent. L'analyse montre également que la polarisation du J/ψ joue un rôle important dans la détermination de la section efficace. Elle peut contribuer à une erreur systématique jusqu'à 30% dans certains bins. Un tel effet peut être grandement réduit si une analyse de la polarisation du J/ψ est effectuée simultanément. La mesure des paramètres de polarisation aidera aussi grandement pour la compréhension du méchanisme de production du J/ψ. Dans le but de réduire la quantité de données simulées nécessaire pour les estimations d'efficacité, une méthode est dévelopée pour prendre en compte les efficacités 2-D par trois paramètres, et toutes les erreurs à part les erreurs statistiques ne dépendront que de ces trois paramètres. A partir des trois paramètres estimés avec les mêmes données Monte Carlo, les erreurs sur les paramètres de polarisation pour la ma jorité des bins sont d'environ 0.1 pour les J/ψ prompt et d'environ 0.2 pour les J/ψ de désintégrations de b. L'expérience LHCb ayant déjà enregistré 14 nb^−1 de données, une partie de l'analyse peut être effectuée. Environ 3000 candidats J/ψ sont reconstruits avec une résolution en masse de 16 MeV/c^2 et un rapport signal sur bruit S/B ~ 18 dans une fenêtre en masse de ±3σ. En se basant sur cet échantillon, la section efficace en fonction de pT est mesurée. La mesure préliminaire de la section efficace des J/ψ dans la région pT ∈ [0, 9] GeV/c et y [2.5, 4] est 7.6 ± 0.3 µb où seule l'erreur statistique est donnée.
1042

Aspects de calorimétrie - Recherche du scalaire top

Gris, P. 19 March 2010 (has links) (PDF)
Ce mémoire d'Habilitation à Diriger des Recherches résume une partie des travaux que j'ai réalisés ces dix dernières années dans le domaine de la physique des particules au sein d'expériences situées auprès de collisionneurs. Il est organisé en deux parties. La première concerne les réalisations instrumentales liées à la calorimétrie et la seconde résume les recherches du scalaire top, partenaire supersymétrique du quark top.
1043

Resommations QCD pour la production hadronique de paire de jauginos

Debove, Jonathan 08 September 2010 (has links) (PDF)
L'ajout de la supersymétrie au Modèle Standard (MS) de la physique des particules est très bien motivée. Reliant les bosons aux fermions dans un formalisme élégant, la supersymétrie propose une solution naturelle au problème de hiérarchie et permet l'unification des trois constantes de couplages du MS à grande échelle d'énergie. De plus, si la R-parité est conservée, elle fournit un candidat naturel pour expliquer la grande quantité de matière noire observée dans l'univers. Dans le MS supersymétrique minimal, c'est généralement le neutralino, l'un des partenaires supersymétriques des bosons électrofaibles (jauginos) et des bosons de Higgs (Higgsinos), qui se mélangent pour former quatre états propres de masses neutres (neutralinos) et deux chargés (charginos). Après une introduction sur la supersymétrie, nous présentons les formalismes de resommation au seuil et en impulsion transverse. Ensuite, nous considérons la production de paires de jauginos aux collisionneurs hadroniques actuellement en marche, i.e. RHIC, Tevatron et LHC. Nous étudions les effets dus à la polarisation des hadrons initiaux et aux corrections QCD supersymétriques complètes. Finalement, nous appliquons les resommations au seuil et en impulsion transverse à la production de paires de jauginos, et nous montrons qu'elles ont un impact important sur les distributions de masses invariantes et d'impulsion transverses. Tout au long de ces études, nous analysons en détail les erreurs théoriques venant des variations d'échelles et des fonctions de densités de partons.
1044

Recherche du boson de Higgs du modele standard dans le canal de pp{bar}ZH -> e+e-b{bar}, avec le détecteur D0 auprès du TeVatron à Fermilab.

Calpas, Betty 11 June 2010 (has links) (PDF)
Le boson de Higgs est le maillon manquant du modele standard de la physique des particules, et il fait l'objet d'intenses recherches au Tevatron. Cette these presente le travail realise pour la recherche du boson de Higgs de basse masse (100-150 GeV) dans le canal ZH ->e+e-b{bar}, avec les donnees du detecteur D0 correspondant a une luminosite integree de 4.2 fb-1. D'abord le cadre theorique et le dispositif experiemental sont decrits. Ensuite mes etudes sont elaborees pour l'identification des electrons, en particulier dans la region d'intercryostat du detecteur. Enfin, l'analyse de la recherche du Higgs est decrite en detail, et les limites sur la section efficace de la production du boson de Higgs sont presentees.
1045

Mesures précises de sections efficaces e^+e^− → Hadrons : tests du Modèle Standard et applications en QCD

Malaescu, B. 19 July 2010 (has links) (PDF)
Le Modèle Standard (MS) de la physique de particules avec les théories de jauge pour les interactions forte et électrofaible n'a pas encore été mis en défaut par les données expérimentales. Dans les recherches de nouvelle physique, au delà du MS, deux approches sont en général suivies : les recherches exploratoires à la frontière de haute énergie et des tests de précision à des énergies plus basses. Le but de cette thèse est dans le cadre de la deuxième approche, d'obtenir et utiliser des données précises des annihilations e+e− en hadrons, à des énergies de l'ordre 1 GeV. Ces données représentent un ingrédient important pour les tests du MS impliquant la polarisation du vide, comme par exemple la comparaison du moment magnétique du muon avec la théorie, ainsi que pour des tests de QCD et applications. Les différentes parties de cette thèse décrivent quatre aspects de mon travail dans ce contexte. (1) Les mesures de sections efficaces en fonction de l'énergie nécessitent la déconvolution des spectres de données des effets de détecteur. Je propose une nouvelle méthode itérative de déconvolution des données expérimentales, qui présente des améliorations par rapport aux outils existants. On peut déconvoluer, d'une manière dynamiquement stable, des spectres de données qui peuvent être fortement affectées par des fluctuations dans la soustraction du bruit de fond, et simultanément reconstruire des structures qui n'étaient pas initialement simulées. (2) Le coeur expérimental de cette thèse est constitué par l'étude du processus e+e− en K+K−, du seuil jusqu'à 5 GeV, utilisant la méthode de rayonnement dans l'état initial (ISR), par la mesure de e+e− en K+K− gamma avec le détecteur BABAR. Toutes les efficacités utiles sont mesurées utilisant les données expérimentales, et la normalisation absolue est fournie par la mesure simultanée du processus mu mu gamma. J'ai effectué l'analyse complète où une incertitude systématique de 0.7 % a été obtenue sur la résonance dominante, phi. Le facteur de forme du kaon chargé a été mesuré. Il présente une décroissance rapide au delà du phi et des structures distinctes dans la région 1.7-2.5 GeV, où on connaît l'existence de résonances de type vecteur. La dépendance en énergie, à haute masse, est comparée à la prédiction de QCD. On présente aussi les résultats du canal e+e− en pi+pi− , du seuil jusqu'à 3 GeV, pour lequel j'ai effectué la déconvolution des effets de détecteur et j'ai obtenu les résultats finals qui sont comparés avec les données existantes. (3) La prédiction pour le moment magnétique du muon (exprimée par l'intermédiaire de son 'anomalie', i.e. la déviation par rapport à la valeur de Dirac pour le rapport gyromagnétique égale à 2) est calculée dans le cadre su MS. Notre travail concerne seulement la contribution de polarisation hadronique du vide, obtenue à partir des données e+e− par une intégrale de dispersion. Comme la même information peut en principe être obtenue avec des données sur les désintégrations hadroniques du tau, on fait d'abord la mise à jour de la comparaison entre les utilisations des deux sources de données, et on trouve une différence réduite entre les évaluations correspondantes. Le nouveau résultat basé sur les données tau s'écarte de 1.9 déviations standard de la mesure directe. En suite, les nouvelles données précises de BABAR sont inclues dans une analyse combinée utilisant des outils (avec une procédure d'interpolation et moyennage de données améliorée, une propagation des incertitudes plus rigoureuse et une validation systématique) que j'ai développés. Avec les nouvelles données, le désaccord entre les résultats basés sur des données e+e− et tau pour le mode dominant 2 pi est réduit davantage, du 2.4 sigma précédent à 1.5 sigma, dans l'intégrale de dispersion, bien que des différences locales significatives entre les spectre persistent encore. Nous obtenons l'évaluation basée sur des données e+e− a_μ^had LO = (695.5 +- 4.1)*10^-10, où l'incertitude prend en compte toutes les sources. L'incertitude la plus grande pour la prédiction du MS est encore due à la polarisation hadronique du vide, mais elle est maintenant plus petite que l'erreur expérimentale. La comparaison actuelle entre la mesure directe et notre prédiction (basée sur les données e+e−) montre une indication intéressante de nouvelle physique (un effet à 3.2 sigma). (4) Les règles de somme de QCD sont des outils puissants pour obtenir des informations précises sur les paramètres de QCD, comme la constante de couplage fort α_S. Cette étude devrait faire usage de la mesure complète de e+e− en hadrons jusqu'à environ 2 GeV. Comme BABAR n'a pas encore mesuré complètement tous les processus hadroniques, j'ai travaillé sur une situation similaire utilisant les fonctions spectrales des désintégrations hadroniques du tau, mesurées par ALEPH. Je discute en détail la prédiction de QCD perturbatif, obtenue avec deux méthodes différentes : la théorie de perturbations à ordre fixe (FOPT) et la théorie de perturbations avec intégration de contour améliorée (CIPT). Les incertitudes théoriques correspondantes sont étudiées aux échelles de masse du tau et respectivement du Z. On trouve que la méthode CIPT est plus stable par rapport aux contributions manquantes d'ordre supérieur et par rapport à des changements de l'échelle de renormalisation. Il est également montré que FOPT souffre à cause de problèmes de convergence le long du contour d'intégration. La fiabilité d'une classe de modèles pour la fonction d'Adler, basée sur des renormalons, est étudiée dans le contexte de la comparaison entre CIPT et FOPT. On trouve que ces modèles ne sont pas suffisamment contraints pour qu'ils puissent identifier la meilleure méthode à utiliser pour la détermination de α_S(m_τ^2). La détermination de αS est mise à jour et une valeur très précise pour α_S(m_τ^2) est obtenue en utilisant CIPT (0.344 +- 0.005 (exp) +- 0.007 (th)). Une fois évoluée à la masse du Z, cette valeur est en accord avec α_S(m_Ζ^2) mesurée directement à partir de la largeur du Z. Ce résultat représente le test le plus précis du running de α_S en QCD.
1046

A new LHC search channel for a light Higgs boson and associated QCD calculations

Rubin, Mathieu 21 June 2010 (has links) (PDF)
Cette thèse a pour objet l'étude de divers sujets liés à la physique du LHC et à ses prédictions. Nous nous sommes dans un premier temps intéressés à la recherche au LHC d'un boson de Higgs léger ($M_H\simeq 120$ GeV) et boosté ($p_{t,H}>200$ GeV) dans le canal $pp\rightarrow WH$ et $pp\rightarrow ZH$ avec $H\rightarrow b\bar b$. Nous avons montré comment, à partir d'une analyse de la sous-structure des jets en deux étapes respectivement appelées ``mass-drop'' et ``filtering'', il est possible de réduire de manière significative les divers backgrounds (mass-drop) et d'améliorer la résolution en masse lors de la reconstruction du Higgs (filtering). Cela nous a permis de rendre prometteur ce canal de recherche au LHC, longtemps considéré comme trop difficile. A partir de là nous nous sommes concentrés plus particulièrement sur la procédure du ``filtering'', qui permet de supprimer autant que possible l'effet du bruit de fond diffus que constituent l'underlying-event et le pile-up, en majeur partie responsable de la dégradation de la résolution. Nous avons optimisé ses paramètres à partir d'une analyse semi-analytique, ce qui nous a conduits à l'étude de la structure des ``non-global'' logarithms qui interviennent lors du calcul de la distribution en masse du Higgs. Finalement, nous nous sommes penchés sur les processus dont la série perturbative présente une mauvaise convergence au next-to-leading (NLO) order pour certaines observables, une caractéristique que nous avions en particulier remarquée pour les processus Z+jet et W+jet à grand $p_t$ lors de notre première étude sur le Higgs. Cet aspect est important car cette mauvaise convergence induit une perte de confiance sur les prédictions résultant des calculs perturbatifs. Il devient donc nécessaire d'examiner les ordres supérieurs, ce que permet de façon approximative un nouvel outil que nous avons élaboré, appelé ``LoopSim'', qui combine divers ordres de la théorie des perturbations de manière à annuler les divergences molles et collinéaires qui apparaissent inévitablement.
1047

Les chocs radiatifs générés par les lasers à haute énergie: une opportunité pour l'astrophysique de laboratoire.

Vinci, Tommaso 10 May 2006 (has links) (PDF)
Le travail de cette thèse s'inscrit dans le vaste domaine de l'astrophysique de laboratoire, avec la création et la caractérisation d'un régime dans lequel la matière et le rayonnement sont étroitement couplés. Cela met en jeu des techniques de génération de chocs très rapides et très chauds conduisant à ce que l'on appelle les chocs radiatifs. L'objectif de cette thèse est d'une part de recréer en laboratoire les conditions d'un choc radiatif, d'autre part de l'étudier en mesurant un grand nombre de paramètres simultanément pour donner une cohérence la plus haute possible. On présentera aussi pour chaque mesure, la comparaison avec les codes de simulation de l'hydrodynamique radiative. Au cours de cette thèse, nous avons effectué au sein du laboratoire LULI deux campagnes expérimentales sur deux installations laser différentes (l'ancienne chaîne 6F et le tout nouveau LULI2000). La première campagne s'est déroulée en 2002 et la seconde au début 2005. Ces expériences ont fait l'objet de nombreuses collaborations. Outre l'apport important des équipes techniques du LULI (équipe laser, équipe d'exploitation, équipe mécanique, ...), les équipes extérieures (le CEA-DAM, le LUTH et le GEPI de l'observatoire de Paris Meudon et l'université de Rome «La Sapienza» en Italie) ont notamment participé à la définition des expériences, la conception et fabrication des cibles et au calcul numérique.
1048

Etude de la production du J/psi dans les collisions or-or à 200 GeV par paire de nucléons dans l'expérience PHENIX.

Tram, Vi-Nham 26 January 2006 (has links) (PDF)
Parmi les signatures proposées pour l'observation du plasma de quarks et de gluons (PQG), l'une des plus prometteuses est la suppression des résonances quark-antiquark de saveurs lourdes par effet d'écran de couleur. Les premières mesures auprès du SPS du CERN ont montré une "suppression anormale" de la production du J/psi (résonance ccbar) dans les collisions centrales. La mesure de cette production dans différents systèmes et à différentes énergies de collisions pourrait permettre de conclure quant à la formation du PQG. Cette recherche se poursuit maintenant auprès de l'accélérateur RHIC, dont l'énergie dans le centre de masse est dix fois supérieure à celle obtenue au SPS.Le travail exposé dans cette thèse porte sur l'étude de la production du J/psi mesuré via son mode de déintégration e! n paires de muons, par l'expéience PHENIX dans les collisions Au-Au à 200 GeV par paire de nucléons. L'étude de la production du J/psi en fonction de la centralité des collisions montre une suppression d'un facteur 3 dans les collisions les plus centrales par rapport à la simple proportionalité avec le nombre de collisions binaires nucléon-nucléon.Pour comparer les résultats obtenus dans les collisions or-or à ceux des collisions proton-proton, les "effets nucléaires froids" doivent être pris en compte. Ils ne suffisent pas à expliquer la suppression observée, suggèrant l'existence de mécanismes supplémentaires. Les modèles qui prennent en compte la recombinaison du J/psi semblent mieux reproduire cette suppression. Néanmoins, l'ensemble de ces résultats est compatible avec le scénario selon lequel seules les résonances chi_c et psi' subissent l'écrantage de couleur.
1049

Etude d'un prototype de calorimètre électromagnétique auprès de l'expérience CALICE dans le cadre du projet "International Linear Collider".

Benyamna, Mustapha 19 May 2010 (has links) (PDF)
Ce mémoire de thèse est réalisé dans le cadre du Projet International Linear Collider. Il porte sur l'étude d'un prototype de calorimètre électromagnétique auprès de la collaboration internationale CALICE. Le prototype a été soumis à plusieurs reprises à des faisceaux test au CERN, à DESY et à FNAL. L'auteur présente deux sujets d'études: une partie d'instrumentation concernant la résolution d'un problème des événements carrés découvert lors des prises des données en 2006 au CERN. Afin d'en expliquer l'origine et résoudre le problème dû à une phénomène de diaphonie entre les pixels périphériques et le guard ring qui entoure le capteur, deux études ont été faites: une étude de simulation en utilisant SILVACO et l'autre avec un banc test pour étudier plusieurs types de capteurs. La deuxième partie de cette thèse est une étude physique concernant l'identification des photons (électrons) en utilisant des estimateurs qui sont liés aux paramètres de la forme de la gerbe électromagnétique. Des données Monte Carlo ont été utilisés pour élaborer ces estimateurs, ensuite les utiliser pour des données réelles.
1050

Recherche directe de la matière noire : analyse et interprétation de premières données de l'expérience EDELWEISS-II

Scorza, Siliva 06 November 2009 (has links) (PDF)
La présence de grandes quantités de matière noire invisible, c'est-à-dire non lumineuse, donc sans couplage avec les photons, autour des galaxies et à l'intérieur de leurs amas, a été confirmée par toute une série d'observations indépendantes au niveau galactique, extragalactique et cosmologique. De quoi cette matière noire est composée représente un des mystères de l'Univers qui intrigue cosmologistes et physiciens des particules. Les modèles supersymétriques proposent des candidats naturels : les WIMPs (Weakly Interacting Massive Particle). Dans la plupart des cas de figure, l'Univers est suffisament rempli de WIMPs pour qu'il soit possible de les détecter indirectement ou directement. Pendant mon doctorat, je me suis intéressée â la recherche directe de matière noire au sein de la collaboration EDELWEISS. EDELWEISS est une expérience de recherche directe de matière noire, cette dernière interagissant avec la matière baryonique par diffusion élastique. Dans le but de mesurer les énergies des reculs nucléaires dus à ces rares interactions, EDELWEISS emploie des détecteurs cryogéniques à double composante chaleur et ionisation (de type Ge-NTD). Chacun de ces détecteurs est constitué d'un cristal de Germanium de 320g, refroidi à une température de 20 mK. La mesure simultanée de deux signaux chaleur et ionisation permet la discrimination entre les reculs électroniques et les reculs nucléaires, ces derniers étant principalement induits par des WIMPs ou des neutrons. Le coeur de mon travail de thèse a été l'analyse des données du run 8 de physique comportant 11 bolomètres caractérisés par une très bonne stabilité en terme de résolution ligne de base et correspondant à une exposition fiducielle de 93.5 kg.j. Les différentes étapes de l'analyse sont détaillées ci-dessous. J'ai commencé par l'étalonnage des détecteurs cryogéniques avec des sources gamma 133Ba et neutron Am-Be dans le but d'évaluer leurs performances dans l'environnement du nouveau cryostat EDELWEISS-II et de la nouvelle chaîne d'acquisition. Ensuite j'ai traité l'optimisation des méthodes d'analyse et des paramètres de la chaîne de lecture des données. Enfin les résultats sont interprétés en terme de limite sur la section efficace d'interaction d'un WIMP avec un nucléon en fonction de la valeur de sa masse. Pour un seuil en énergie de recul de 30 keV (choisi a priori), 3 événements ont été enregistrés dans la bande de reculs nucléaires, correspondant à une sensibilité de 5*10^-7 pb pour une masse de WIMP de 80 GeV/c^2. J'ai également mené une étude pour comprendre le bruit de fond radioactif résiduel, regardant avec attention le fond gamma et le fond beta provenant du 210Pb. Pour ce dernier, un bolomètre Ge-NTD a été equipé avec une source de 210Pb. Le fond gamma pour des énergies supérieures à 100 keV montre une réduction globale et uniforme d'un facteur deux par rapport à la première phase de l'expérience, EDELWEISS-I, arrêtée en 2004. La comparaison entre les données expérimentales et les simulations des contaminations radioactives des matériaux proches des détecteurs comme le cuivre (pour les chaînes de désintégration U/Th, l'activation du 60Co et la contamination en 40K) faites avec GEANT4, m'a permis une évaluation de la contamination radioactive du cuivre. Il en résulte qu'elle est de 2 à 5 fois inférieure aux limites supérieures mesurées en spectrométrie HPGe. Ceci indique une plus grande propreté du Cuivre proche par rapport à EDELWEISS-I.Sachant que l'expérience peut être contaminée par une pollution en plomb due au Radon, l'étude du détecteur équipé avec une source de 210Pb m'a permis une investigation des betas de basse énergie qui tombent dans la bande de recul nucléaire et peuvent être interprétés comme un événement WIMP. Cette étude a permis de prédire le nombre de betas de basse énergie attendus pour le run de physique. Cette prédiction se révèle compatible avec le spectre expérimental de trois événements observés dans la zone des reculs nucléaires. Néanmoins cela n'est pas suffisant pour permettre une soustraction du fond, du fait des grandes incertitudes liées au profil de collection de charge et au profil d'implantation du Pb.

Page generated in 0.0854 seconds