• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 430
  • 227
  • 53
  • 41
  • 16
  • 4
  • 2
  • 1
  • 1
  • Tagged with
  • 1039
  • 1039
  • 1039
  • 544
  • 533
  • 240
  • 228
  • 219
  • 193
  • 147
  • 142
  • 127
  • 95
  • 92
  • 87
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
971

Développement de détecteur gazeux à micropistes pour le trajectographe de l'expérience CMS et mesures de rapports d'embranchement de désintégrations hadroniques du méson B dans l'expérience BaBar

Zghiche, A. 22 January 2007 (has links) (PDF)
Les détecteurs gazeux à micropistes (MSGC) ont fait l'objet d'un vaste programme de recherche et développement dans le but de les qualifier pour équiper le trajectographe de l'expérience Compact Muon Solenoid (CMS) installée sur l'un des 4 points d'interaction du collisionneur proton proton de 14 TeV: le Large Hadron Collider (LHC) en construction au CERN. Les points étudiés les plus critiques pour que les MSGC et leurs variantes telles que les grilles de multiplication d'électrons (GEM) fonctionnent dans l'environnement difficile du LHC sont: la tenue aux flux de particules très ionisantes, le vieillissement dû aux radiations ainsi que la rapidité du signal pour un déclenchement à 40 MHz. Les paramètres importants pour l'optimisation du gain de ces détecteurs sont le mélange de gaz, la résistivité des substrats qui constituent le support des détecteurs et le métal des pistes. L'étude de ces paramètres a permis de définir le détecteur gazeux qui assure une stabilité de fonctionnement avec un gain constant pendant dix ans de collisions LHC. Il se compose de deux étages de multiplication d'électrons dans le gaz (amplification), associant un détecteur MSGC à un détecteur GEM. <br /> L'expérience BaBar, installée sur l'anneau PEP II à SLAC, a été conçue pour étudier la violation de CP dans le système des mésons B. Les premières collisions e+ e- ont été enregistrées en mai 1999. En août 2006, la luminosité intégrée enregistrée par l'expérience s'élevait à plus de 390 fb-1 dont 350 fb-1 à la résonance Y(4S) correspondant à plus de 385 millions de désintégrations e+ e- -> Y(4S)->BB. Dès les conférences de l'été 2001, la collaboration BaBar avait pu présenter la première observation significative de la violation de CP dans le secteur des B. Avec l'accumulation des données, la précision statistique de cette mesure s'est améliorée de plus qu'un facteur 4 et la précision systématique de près d'un facteur 3. Le grand nombre de désintégrations BB permet aussi de construire un échantillon de données où un premier méson B est totalement reconstruit. Les paramètres du second B sont alors calculés à partir de ceux des faisceaux et du premier B. Grâce à cet échantillon, la détermination du nombre de charme moyen (le nombre de quarks c produits dans les désintégrations des mésons B) avec les mesures inclusives des désintégrations des mésons B- et B0 en mésons D et Ds et baryons charmés Λc a pu être effectuée séparément pour les mésons B chargés et neutres en s'affranchissant d'un grand nombre d'hypothèses ainsi que des erreurs systématiques qui en découlent. Avec le même échantillon de données, la mesure des rapports d'embranchement des modes B- ->D0(* , **)pi - et B 0->D+(* , **)pi- a été effectuée avec une méthode originale dans BaBar, celle de la masse manquante. Dans le système du second B, les rapports d'embranchement ont été mesurés en calculant la masse manquante au pi -, qui est le module du quadrivecteur impulsion manquant (les quadrivecteurs impulsion du Y(4S), du premier méson B et du pi- étant déterminés). Ceci a permis d'améliorer la précision de la mesure en réduisant la contribution des incertitudes systématiques. Cette mesure ainsi que la mesure du taux de charme permettent respectivement de contraindre l'hypothèse de la factorisation dans les calculs de la Heavy Quark Effective Theory (HQET), et les paramètres de la chromodynamique quantique (QCD), tels que le rapport des masses des quarks et l'échelle de renormalisation.
972

Mesure de la section efficace de production de quarks top en paires dans le canal lepton+jets à D0 et à ATLAS et interprétation en terme de boson de Higgs chargé dans ATLAS.

Chevallier, Florent 10 May 2007 (has links) (PDF)
La mise en évidence de nouvelle physique est l'un des enjeux des expériences auprès des grands collisionneurs TeVatron et LHC. Le quark top se place dans ce contexte de recherche. Des mesures de couplages et de propriétés du quark top non conformes aux prédictions théoriques seraient les premiers effets indirects d'une physique non décrite par le Modèle Standard.<br /><br />Le travail décrit dans cette thèse porte sur l'étude de la section efficace de production de quarks top par interaction forte au sein des deux collaborations D0 et ATLAS.<br /><br />Mon travail à D0 a tout d'abord consisté en l'amélioration de la reconstruction des électrons de faible impulsion au sein de jets. Ce nouvel algorithme peut désormais être utilisé pour identifier les jets de quarks b, produits dans les événements top-antitop recherchés. Ce travail s'est poursuivi par une analyse de mesure de la section efficace de production de paires de quarks top, avec 420 pb-1 de données de l'expérience D0. Les résultats de cette analyse sont en accord avec les prédictions du Modèle Standard.<br /><br />Dans l'expérience ATLAS, mon travail a consisté à élaborer une procédure de sélection des événements top-antitop, en adaptant les connaissances et les techniques issues de l'expérience D0 à l'environnement plus exigeant des collisions du LHC. Cette analyse a permis d'identifier les sources d'incertitudes qui auront un impact sur la mesure. Pour une année de fonctionnement du détecteur à basse luminosité, cette section efficace pourrait être mesurée avec une précision de quelques pourcents. Cette sensibilité permettrait de déceler des signes de nouvelle physique. La phénoménologie des événements top-antitop est modifiée par la présence de bosons de Higgs chargés apparaissant dans des modèles standard non minimaux. L'analyse effectuée dans ce nouveau cadre théorique a ainsi montré qu'une découverte serait possible pour certaines régions de l'espace des paramètres.
973

Détection des gamma dans l'expérience AMS et analyse temporelle des sursauts gamma par la mission HETE-2

Bolmont, Julien 14 October 2005 (has links) (PDF)
AMS est un détecteur de particules qui sera embarqué à bord de la Station Spatiale Internationale début 2008. Avec son trajectomètre en silicium et son calorimètre électromagnétique, il pourra détecter les photons entre 1 GeV et 300 GeV. <br />Dans la première partie de cette thèse, nous donnons les résultats obtenus lors de l'analyse des données d'un test sur faisceau du calorimètre électromagnétique. A l'aide d'un logiciel de simulation rapide, nous évaluons les capacités de détection d'AMS en gamma. Nous donnons des prédictions de flux pour différents types de sources astrophysiques et pour un halo de matière noire supersymétrique au centre galactique.<br />HETE-2 est un satellite actuellement en fonctionnement qui est conçu pour détecter et localiser les sursauts gamma. Du fait des énergies mises en jeu, ce type de source pourrait être utilisé pour tester des domaines de la physiques inaccessibles aux accélérateurs. <br />Dans la deuxième partie de la thèse, nous étudions les courbes de lumières de douze sursauts gamma observés par le détecteur FREGATE à bord d'HETE-2 et pour lesquels une mesure du redshift est disponible. En étudiant les écarts temporels entre des photons de différentes énergies, nous pouvons déterminer une limite inférieure sur l'échelle de gravitation quantique de Eqg > 10^15 GeV.
974

Recherche de manifestations de dimensions supplémentaires dans le canal diphoton avec l'expérience ATLAS au LHC

Le, Bao tran 19 March 2013 (has links) (PDF)
Cette thèse résume une recherche de manifestations de Grandes Dimensions Supplémentaires (GDS, og Large Extra Dimensions fg en anglais) en utilisant 4.91 fb-1 de données enregistrées en 2011 par le détecteur Atlas installé auprès du collisionneur LHC au CERN. En 2011, le LHC a produit des collisions proton-proton à une énergie dans le centre de masse de sqrt(s)= 7 TeV. Les GDS peuvent potentiellement expliquer une énigme connue sous le nom du problème de la hiérarchie : la grande différence entre l'échelle électrofaible et l'échelle de Planck dans le Modèle Standard (MS). Dans le cadre du modèle ADD (nommé selon les auteurs N. Arkani-Hamed, S. Dimopoulos and G. Dvali) des GDS, les effets de la gravitation quantique deviennent plus forts que dans le MS; potentiellement suffisamment forts pour être observés au LHC. Il y a deux mécanismes de production de gravitons dans les collisions proton-proton : production directe de gravitons et échange virtuel de gravitons. Dans cette thèse, nous présentons une recherche de dimensions supplémentaires via l'effet de l'échange virtuel de gravitons dans l'état final di-photon. Le spectre de masse invariante des événements di-photon est étudié, et un bon accord entre les données et le bruit de fond prédit par le MS est observé. Nous utilisons deux méthodes pour estimer des limites sur l'échelle de Planck fondamentale du modèle ADD : une expérience de comptage et une analyse de la forme du spectre de masse. L'expérience de comptage donne des limites entre 2.62 et 3.92 TeV à 95% C.L., en fonction du nombre de dimensions supplémentaires et du formalisme théorique utilisé. L'analyse de la forme du spectre de masse donne des limites légèrement plus strictes : la limite inférieure sur l'échelle de Planck fondamentale augmente d'un facteur de 1.04.
975

Indecomposabilité dans les théories des champs et applications aux systèmes désordonnés et aux problèmes géométriques

Romain, Vasseur 27 September 2013 (has links) (PDF)
Les théories des champs conformes logarithmiques (LCFTs) sont cruciales pour décrire le comportement critique de systèmes physiques variés: les transitions de phase dans les systèmes électroniques désordonnés sans interaction (comme par exemple la transition entre plateaux dans l'effet Hall quantique entier), les points critiques désordonnés dans les systèmes statistiques classiques (comme le modèle d'Ising avec liens aléatoires), ou encore les modèles géométriques critiques (comme la percolation ou les marches aléatoires auto-évitantes). Les LCFTs décrivent des théories non unitaires, qui ne seraient probablement pas pertinentes dans le contexte de la physique des particules, mais qui apparaissent naturellement en matière condensée et en physique statistique. Sans cette condition d'unitarité, toute la puissance algébrique qui a fait le succès des théories conformes est fortement compromise à cause de ''l'indécomposabilité'' de la théorie des représentations sous-jacente. Ceci a pour conséquence de modifier les fonctions de corrélation algébriques par des corrections logarithmiques, et réduit sévèrement l'espoir d'une classification générale. Le but de cette thèse est d'analyser ces théories logarithmiques en étudiant leur régularisation sur réseau, l'idée principale étant que la plupart des difficultés algébriques causées par l'indécomposabilité sont déjà présentes dans des systèmes de taille finie. Notre approche consiste à considérer des modèles statistiques critiques avec matrice de transfert non diagonalisable (ou des chaînes de spins critiques avec Hamiltonien non diagonalisable) et d'analyser leur limite thermodynamique à l'aide de différentes méthodes numériques, algébriques et analytiques. On explique en particulier comment mesurer numériquement les paramètres universels qui caractérisent les représentations indécomposables qui apparaissent à la limite continue. L'analyse détaillée d'une vaste classe de modèles sur réseau nous permet également de conjecturer une classification de toutes les LCFTs chirales pertinentes physiquement, pour lesquelles la seule symétrie est donnée par l'algèbre de Virasoro. Cette approche est aussi partiellement étendue aux théories non chirales, avec une attention particulière portée au problème bien connu de la formulation d'une théorie des champs cohérente qui décrirait la percolation en deux dimensions. On montre que les modèles sur réseaux périodiques ou avec bords peuvent être reliés algébriquement seulement dans le cas des modèles minimaux, impliquant des conséquences intéressantes pour les théories des champs sous-jacentes. Un certain nombre d'applications aux systèmes désordonnés et aux modèles géométriques sont également abordées, avec en particulier une discussion détaillée des observables avec comportement logarithmique au point critique dans le modèle de Potts en dimension arbitraire.
976

Recherche de Nouvelle Physique dans les événements à quatre quarks top avec le détecteur ATLAS du LHC

Paredes Hernandez, D. 13 September 2013 (has links) (PDF)
Cette thèse a pour but la recherche de Nouvelle Physique dans les événements à quatre quarks top en utilisant les données collectées dans les collisions proton-proton par l'expérience ATLAS au LHC. L'ensemble des données correspond à celui enregistré pendant tout 2011 à √s = 7 TeV et une partie de l'année 2012 à √s = 8 TeV. L'analyse est concentrée sur un état final avec deux leptons (des électrons et des muons) avec la même charge électrique. Cette signature est expérimentalement privilégiée puisque la présence de deux leptons avec le même signe dans l'état final permet de réduire le bruit du fond qui vient des processus du Modèle Standard. Les résultats sont interprétés dans le contexte d'une théorie effective à basse énergie, qui suppose que la Nouvelle Physique peut se manifester à basse énergie comme une interaction de contact à quatre tops droits. Dans ce contexte, cette analyse permet de prouver un type de théorie au delà du Modèle Standard qui, à basse énergie, peut se manifester de cette manière. Les bruits du fond pour cette recherche ont été estimés en utilisant des échantillons simulés et des techniques axées sur les données. Différentes sources d'incertitudes systématiques ont été considérées. La sélection finale des événements a été optimisée en visant à minimiser la limite supérieure attendue sur la section efficace de production des quatre tops si aucun événement de signal n'est trouvé. La région du signal a été ensuite examinée à la recherche d'un excès d'événement en comparaison avec le bruit du fond prévu. Aucun excès d'événement n'a été observé, et la limite supérieure observée sur la section efficace de production de quatre quarks top a été calculée. Ceci a permis de calculer la limite supérieure sur la constante de couplage C/lambda 2 du modèle. Une limite supérieure sur la section efficace de production de quatre tops dans le Modèle Standard a été aussi calculée dans l'analyse à √s = 8 TeV. En plus de l'analyse physique du signal de quatre tops, des études concernant le système d'étalonnage LASER du calorimètre Tile ont été présentées. Ces études sont liées au système des photodiodes utilisé pour mesurer l'intensité de la lumière dans le système LASER.
977

Amplitudes Topologiques et l'Action Effective de la Théorie des Cordes

Zein Assi, Ahmad 11 December 2013 (has links) (PDF)
Cette thèse est dédiée à l'étude d'une classe de couplages dans l'action effective de la théorie des cordes qui se trouvent au croisement entre la théorie des cordes topologique et les théories de jauge supersymétriques. Ces couplages généralisent un ensemble de couplages gravitationnels qui calculent la fonction de partition de la théorie des cordes topologique. Dans la limite de théorie des champs, ces derniers reproduisent la fonction de partition de la théorie de jauge dans le fond Oméga lorsque l'un des paramètres de ce dernier, epsilon_+ , est égal à zéro. Cela suggère naturellement l'existence d'une généralisation dénommée la corde topologique raffinée. Les couplages étudiés dans ce manuscrit sont caractérisés par un multiplet vectoriel supplémentaire et sont calculés, en théorie des cordes, aux niveaux perturbatif et non-perturbatif. De plus, leur limite de théorie des champs donne la fonction de partition de la théorie des champs dans un fond Oméga général. Ainsi, ces couplages ouvrent de nouvelles perspectives pour la définition, au niveau de la surface d'univers, de la théorie des cordes topologiques raffinée.
978

Analyse semi-classique des phénomènes de résonance et d'absorption par des trous noirs

Raffaelli, Bernard 12 December 2011 (has links) (PDF)
Au delà de la simple définition formelle d'un trou noir comme solution des équations d'Einstein dans le vide, il existe, comme l'a souligné Kip Thorne, depuis 1971 et l'observation du système binaire Cygnus X1, jusqu'aux hypothèses les plus récentes relatives à l'existence de trous noirs supermassifs au centre de nombreuses galaxies, des indices observationnels confortant leur existence dans l'Univers et motivant ainsi leur étude. En physique, nous le savons, pour obtenir des informations essentielles sur les interactions entre particules fondamentales, atomes, molécules, etc..., ainsi que sur la structure des objets composés, nous devons procéder à des expériences de collision ou plus précisément de diffusion. C'est ce qui constitue précisément l'objet de ce travail de thèse. En effet, en analysant comment un trou noir interagit avec son environnement, nous sommes en droit d'attendre des informations essentielles sur ces ''objets invisibles''. Cette étude sera également très utile pour comprendre, notamment, le signal que l'on devrait recevoir, prochainement, par le biais de la nouvelle génération de détecteurs d'ondes gravitationnelles. Ce travail se concentre donc principalement sur les phénomènes sous-jacents aux processus de diffusion par des trous noirs, i.e. les phénomènes de résonance et d'absorption. Toute l'originalité de cette étude repose sur le fait que nous proposons de nous intéresser à ces phénomènes du point de vue d'une théorie semiclassique dite " théorie du moment angulaire complexe ", mettant ainsi au cœur de la physique des trous noirs les concepts de matrice S ainsi que les techniques relatives aux pôles de Regge, tel que l'a suggéré implicitement Chandrasekhar au milieu des années soixante-dix. Cette approche nous permet de donner une interprétation physique, simple et intuitive, des phénomènes de résonance et d'absorption d'un champ, en l'occurrence d'un champ scalaire, massif ou non, par des trous noirs.
979

Elaboration et propriétés de films minces à base de mercure supraconducteurs de très haute température critique et leurs applications possibles à la cryoélectronic

Michaela, Valerianova 27 September 2007 (has links) (PDF)
Les supraconducteurs à base de mercure sont les matériaux ayant les températures critiques les plus élevées de tous les supraconducteurs connus. Mais leurs applications dans des dispositifs d'utilisation pratique est limitée en raison de leurs difficultés d'élaboration. L'optimisation des méthodes de préparation ouvrira d'importantes possibilités pour les applications cryoeléctroniques.<br /> Dans le cadre de ma thèse j'ai essayé d'optimiser les paramètres de synthèse de couches minces à la base de cuprates de mercure (Hg-1212 ou Hg-1223). Le développement d'une méthode de mercuration sans contact a confirmé que la formation de couches se faisait par phase vapeur. Ceci permettra d'envisager une fabrication d'échantillons de plus grandes dimensions (quelque cm) que celle de ceux que nous fabriquons actuellement. L'utilisation du procédé lift-off de gravure des couches précurseur a permis d'éviter la contamination des couches de cuprates de mercure et donc la dégradation de leurs propriétés supraconductrices. On a ainsi pu réaliser des motifs supraconducteurs au micron intéressants. La mercuration sans contact a aussi permis une limitation de la pollution par les grains de la source de mercure. C'est une amélioration importante pour éviter la création de courts-circuits entre des lignes co-planaires utilisées pour tester la photo-réponse de ce type de supraconducteur. On a trouvé que l'épaisseur de la couche tampon avait une influence sur la formation de la phase supraconductrice. L'épaisseur de la couche de CeO2 modifie les contraintes et l'arrangement des défauts dans cette couche, or ces défauts jouent un rôle critique dans la diffusion de Ca-Cu-O nécessaire à la formation de Hg-1223. L'amélioration de la formation de Hg-1223 diminue le volume des impuretés en surface ce qui permettra d'envisager la fabrication de structures planaires sandwich pour des jonctions de Josephson.<br /> Les structures co-planaires de la phase Hg-1212, sont compatibles pour leur utilisation dans des détecteurs ultra rapides. Ces structures comportent des micro-ponts et peuvent servir pour les études de la supraconductivité à l'échelle micronique ainsi qu'à la fabrication de jonctions Josephson à cette échelle. Dans un autre domaine, on a pu réaliser une structure modèle destinée à l'étude de limiteurs de courants supraconducteurs utilisant ce matériau. L'utilisation de saphir comme substrat permettra d'accéder aux domaines micro-ondes.<br /> Toutes ces structures étaient supraconductrices avec des températures critiques élevées (jusqu'au 110 K pour les lignes co-planaires et les microponts, et jusqu'au 120 K pour les structures modèles pour le limiteur de courant). Cette haute température critique assure la stabilité des propriétés supraconductrices à la température de l'azote liquide (77 K) à laquelle seront testés ces dispositifs.
980

Etude des désintégrations radiatives Z$^0 \rightarrow \mu\mu\gamma$ et recherches du boson de Higgs dans le canal H$\rightarrow \gamma\gamma$ dans l'expérience CMS au LHC (CERN)

Bondu, Olivier 10 October 2012 (has links) (PDF)
Le Large Hadron Collider (LHC) au CERN (Organisation Européenne pour la Recherche Nucléaire) fonctionne depuis 2009 à la frontière franco-suisse. Cet accélérateur de particules a produit des quantités importantes de collisions proton-proton, à des énergies dans le centre de masse de 7 TeV (2010 et 2011), et 8 TeV (depuis avril 2012). L'un des buts de l'expérience Compact Muon Solenoid (CMS), qui enregistre et analyse ces collisions, est la recherche de bosons de Higgs. Dans le cadre du Modèle Standard, cette particule serait le quantum du champ de Higgs, qui permet d'expliquer le mécanisme de brisure de symétrie électrofaible. Un canal parmi les plus sensibles pour la recherche d'un boson de Higgs léger (c'est-à-dire pour des masses du boson de Higgs entre 90GeV/c2 et 150GeV/c2) au LHC est la désintégration en deux photons. En effet, la production de deux photons isolés de haute énergie dans l'état final constitue un signal clair en milieu hadronique, malgré le faible rapport d'embranchement. De plus, à ces masses, la largeur du pic en masse invariante reconstruite est dominée par la résolution du détecteur. Une compréhension fine de l'objet photon, tel que reconstruit par l'expérience, est donc un pré requis obligatoire. La première partie de mes travaux de thèse porte sur l'étude des désintégrations radiatives Z$^0 \rightarrow \mu\mu\gamma$ ces désintégrations sont la seule source de photons certifiés de haute pureté du Modèle Standard, pour laquelle l'impulsion transverse des photons est relativement proche de celle prévue pour des photons issus d'un boson de Higgs. L'étude de ces désintégrations a permis la détermination de l'échelle d'énergie différentielle des photons dans les données à 7 TeV. Elles ont également été utilisées dans les données à 8 TeV comme outil de validation des variables de forme de cluster pour les photons dans la simulation, ainsi que pour déterminer l'efficacité des critères de réjection des électrons. La deuxième partie de mes travaux de thèse traite de la recherche d'un boson de Higgs se désintégrant en deux photons. Cette recherche est effectuée en plusieurs classes d'évènements pour améliorer la sensibilité, et l'étude de cette procédure de séparation en classes est présentée. Enfin, une analyse de faisabilité de recherche d'un boson de Higgs se désintégrant en deux photons, produit lors de la désintégration d'un quark vecteur lourd à 14 TeV a été effectuée.

Page generated in 0.1777 seconds