• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 173
  • 81
  • 41
  • 34
  • 33
  • 27
  • 26
  • 6
  • 6
  • 4
  • 3
  • 2
  • 1
  • 1
  • Tagged with
  • 432
  • 175
  • 166
  • 102
  • 100
  • 91
  • 91
  • 87
  • 73
  • 66
  • 63
  • 62
  • 62
  • 61
  • 60
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
361

Analyse semi-classique des phénomènes de résonance et d'absorption par des trous noirs

Raffaelli, Bernard 12 December 2011 (has links) (PDF)
Au delà de la simple définition formelle d'un trou noir comme solution des équations d'Einstein dans le vide, il existe, comme l'a souligné Kip Thorne, depuis 1971 et l'observation du système binaire Cygnus X1, jusqu'aux hypothèses les plus récentes relatives à l'existence de trous noirs supermassifs au centre de nombreuses galaxies, des indices observationnels confortant leur existence dans l'Univers et motivant ainsi leur étude. En physique, nous le savons, pour obtenir des informations essentielles sur les interactions entre particules fondamentales, atomes, molécules, etc..., ainsi que sur la structure des objets composés, nous devons procéder à des expériences de collision ou plus précisément de diffusion. C'est ce qui constitue précisément l'objet de ce travail de thèse. En effet, en analysant comment un trou noir interagit avec son environnement, nous sommes en droit d'attendre des informations essentielles sur ces ''objets invisibles''. Cette étude sera également très utile pour comprendre, notamment, le signal que l'on devrait recevoir, prochainement, par le biais de la nouvelle génération de détecteurs d'ondes gravitationnelles. Ce travail se concentre donc principalement sur les phénomènes sous-jacents aux processus de diffusion par des trous noirs, i.e. les phénomènes de résonance et d'absorption. Toute l'originalité de cette étude repose sur le fait que nous proposons de nous intéresser à ces phénomènes du point de vue d'une théorie semiclassique dite " théorie du moment angulaire complexe ", mettant ainsi au cœur de la physique des trous noirs les concepts de matrice S ainsi que les techniques relatives aux pôles de Regge, tel que l'a suggéré implicitement Chandrasekhar au milieu des années soixante-dix. Cette approche nous permet de donner une interprétation physique, simple et intuitive, des phénomènes de résonance et d'absorption d'un champ, en l'occurrence d'un champ scalaire, massif ou non, par des trous noirs.
362

Elaboration et propriétés de films minces à base de mercure supraconducteurs de très haute température critique et leurs applications possibles à la cryoélectronic

Michaela, Valerianova 27 September 2007 (has links) (PDF)
Les supraconducteurs à base de mercure sont les matériaux ayant les températures critiques les plus élevées de tous les supraconducteurs connus. Mais leurs applications dans des dispositifs d'utilisation pratique est limitée en raison de leurs difficultés d'élaboration. L'optimisation des méthodes de préparation ouvrira d'importantes possibilités pour les applications cryoeléctroniques.<br /> Dans le cadre de ma thèse j'ai essayé d'optimiser les paramètres de synthèse de couches minces à la base de cuprates de mercure (Hg-1212 ou Hg-1223). Le développement d'une méthode de mercuration sans contact a confirmé que la formation de couches se faisait par phase vapeur. Ceci permettra d'envisager une fabrication d'échantillons de plus grandes dimensions (quelque cm) que celle de ceux que nous fabriquons actuellement. L'utilisation du procédé lift-off de gravure des couches précurseur a permis d'éviter la contamination des couches de cuprates de mercure et donc la dégradation de leurs propriétés supraconductrices. On a ainsi pu réaliser des motifs supraconducteurs au micron intéressants. La mercuration sans contact a aussi permis une limitation de la pollution par les grains de la source de mercure. C'est une amélioration importante pour éviter la création de courts-circuits entre des lignes co-planaires utilisées pour tester la photo-réponse de ce type de supraconducteur. On a trouvé que l'épaisseur de la couche tampon avait une influence sur la formation de la phase supraconductrice. L'épaisseur de la couche de CeO2 modifie les contraintes et l'arrangement des défauts dans cette couche, or ces défauts jouent un rôle critique dans la diffusion de Ca-Cu-O nécessaire à la formation de Hg-1223. L'amélioration de la formation de Hg-1223 diminue le volume des impuretés en surface ce qui permettra d'envisager la fabrication de structures planaires sandwich pour des jonctions de Josephson.<br /> Les structures co-planaires de la phase Hg-1212, sont compatibles pour leur utilisation dans des détecteurs ultra rapides. Ces structures comportent des micro-ponts et peuvent servir pour les études de la supraconductivité à l'échelle micronique ainsi qu'à la fabrication de jonctions Josephson à cette échelle. Dans un autre domaine, on a pu réaliser une structure modèle destinée à l'étude de limiteurs de courants supraconducteurs utilisant ce matériau. L'utilisation de saphir comme substrat permettra d'accéder aux domaines micro-ondes.<br /> Toutes ces structures étaient supraconductrices avec des températures critiques élevées (jusqu'au 110 K pour les lignes co-planaires et les microponts, et jusqu'au 120 K pour les structures modèles pour le limiteur de courant). Cette haute température critique assure la stabilité des propriétés supraconductrices à la température de l'azote liquide (77 K) à laquelle seront testés ces dispositifs.
363

Etude des désintégrations radiatives Z$^0 \rightarrow \mu\mu\gamma$ et recherches du boson de Higgs dans le canal H$\rightarrow \gamma\gamma$ dans l'expérience CMS au LHC (CERN)

Bondu, Olivier 10 October 2012 (has links) (PDF)
Le Large Hadron Collider (LHC) au CERN (Organisation Européenne pour la Recherche Nucléaire) fonctionne depuis 2009 à la frontière franco-suisse. Cet accélérateur de particules a produit des quantités importantes de collisions proton-proton, à des énergies dans le centre de masse de 7 TeV (2010 et 2011), et 8 TeV (depuis avril 2012). L'un des buts de l'expérience Compact Muon Solenoid (CMS), qui enregistre et analyse ces collisions, est la recherche de bosons de Higgs. Dans le cadre du Modèle Standard, cette particule serait le quantum du champ de Higgs, qui permet d'expliquer le mécanisme de brisure de symétrie électrofaible. Un canal parmi les plus sensibles pour la recherche d'un boson de Higgs léger (c'est-à-dire pour des masses du boson de Higgs entre 90GeV/c2 et 150GeV/c2) au LHC est la désintégration en deux photons. En effet, la production de deux photons isolés de haute énergie dans l'état final constitue un signal clair en milieu hadronique, malgré le faible rapport d'embranchement. De plus, à ces masses, la largeur du pic en masse invariante reconstruite est dominée par la résolution du détecteur. Une compréhension fine de l'objet photon, tel que reconstruit par l'expérience, est donc un pré requis obligatoire. La première partie de mes travaux de thèse porte sur l'étude des désintégrations radiatives Z$^0 \rightarrow \mu\mu\gamma$ ces désintégrations sont la seule source de photons certifiés de haute pureté du Modèle Standard, pour laquelle l'impulsion transverse des photons est relativement proche de celle prévue pour des photons issus d'un boson de Higgs. L'étude de ces désintégrations a permis la détermination de l'échelle d'énergie différentielle des photons dans les données à 7 TeV. Elles ont également été utilisées dans les données à 8 TeV comme outil de validation des variables de forme de cluster pour les photons dans la simulation, ainsi que pour déterminer l'efficacité des critères de réjection des électrons. La deuxième partie de mes travaux de thèse traite de la recherche d'un boson de Higgs se désintégrant en deux photons. Cette recherche est effectuée en plusieurs classes d'évènements pour améliorer la sensibilité, et l'étude de cette procédure de séparation en classes est présentée. Enfin, une analyse de faisabilité de recherche d'un boson de Higgs se désintégrant en deux photons, produit lors de la désintégration d'un quark vecteur lourd à 14 TeV a été effectuée.
364

Evaluation du bruit de fond pi0 pour l'analyse d'apparition nu_e dans l'experience T2K. Premier étude de la phase de violation CP dans le secteur leptonique.

Athayde Marcondes De André, João Pedro 22 October 2012 (has links) (PDF)
L'expérience T2K est une expérience de recherche d'oscillation de saveur de neutrinos utilisant une base longue et la technique du faisceau hors axe. Dans T2K, un faisceau de neutrino est produit dans l'accélérateur J-PARC à Tokai, et est détecté auprès du détecteur Super Kamiokande (SK) à Kamioka, qui se situe à 295 km de Tokai. Cet accélérateur produit un faisceau très pur de nu_mu. Au cours de la propagation des neutrinos entre leur point de production et SK, ils peuvent changer de saveur. C'est ce phénomène que l'on appelle oscillation de saveur des neutrinos. L'objectif principal de T2K est de mesurer certains paramètres décrivant l'oscillation de saveur des neutrinos, et plus particulièrement les paramètres theta13 et deltaCP. Cette estimation est réalisée via la mesure de la probabilité d'oscillation nu_mu -> nu_e, par la recherche d'apparition de nu_e. En 2011, l'expérience T2K a été la première à observer l'apparition de nu_e et a ainsi pu exclure, à 2.5 sigma, une valeur nulle de theta13. Cette thèse présente le travail réalisé pour estimer l'erreur systématique de l'efficacité de reconstruction du bruit de fond pi0. Celui-ci est l'une des principales sources d'erreur affectant la recherche d'apparition de nu_e par la détection d'événements quasi-élastique à courant chargé à SK. Deux méthodes différentes et complémentaires ont été développées. Dans un premier temps, nous avons commencé le développement d'un nouvel outil qui reproduit partiellement la topologie des événements physiques, et en parallèle, nous avons crée un échantillon spécifique pour estimer l'incertitude systématique de l'efficacité de reconstruction des événements pi0. Ce dernier résultat a été utilisé dans l'analyse officielle d'apparition de nu_e publiée en 2011. Le nouvel échantillon produit sera également utilisé dans les futures analyses d'oscillation. En tenant compte de la valeur récemment mesurée de theta13 par des expériences faites auprès de réacteur, nous présentons dans cette thèse la première étude de la phase de violation CP dans le secteur leptonique (deltaCP) en utilisant les données nu_e de T2K.
365

Recherche de neutrinos de ultra haute énergie à l'aide du telescope ANTARES

Core, L. 03 October 2013 (has links) (PDF)
Le télescope ANTARES pour detecter les neutrinos de haute énergie est un réseau tridimensionnel de photomultiplicateurs répartis sur 12 lignes, installés sur le fond marin de la Méditerranée. Le détecteur a été utilisé dans des configurations partielles depuis Mars 2006 et le déploiement a été achevée en mai 2008. Le principal objectif de l'expérience est la recherche de neutrinos de haute énergie à partir de sources astrophysiques . Un télescope à neutrinos dans l'hémisphère Nord inclut le centre galactique dans son champ de vision et il peut être considéré comme complémentaire au télescope IceCube en Antarctique. Le détecteur est optimisée pour la détection de neutrinos muoniques, au delà de la seuile de 1 TeV et en détectant les muons issus des interactions, particules chargées qui peuvent voyager kilomètres et sont presque colinéaires avec les neutrinos originaires. Les neutrinos de haute énergie peuvent avoir différentes origines : ils pourraient être créés lors de l'interaction des rayons cosmiques énergétiques élevés avec le CMB ou dans des phénomènes cosmologiques tels que restes de supernovae ou AGN. Il y a d'autres sources possibles en raison de nouvelles théories dans le domaine de la physique au-delà du Modèle Standard. Dans ma troisième année de thèse, j'ai effectué la recherche pour des neutrinos muoniques extraterrestres d'énergie ultra-haute (dans la gamme dynamique de 100 PeV - 10 EEV) issus de sources non résolues . Si la sensibilité des techniques de recherche de sources ponctuelles est trop petit à détecter flux de neutrinos de corps célestes individuels, il est possible que les sources ensemble pourraient produire un excès d'événements au cours du fond de neutrinos atmosphériques et reconnaissable comme un signal UHE. La sensibilité du détecteur de neutrinos ANTARES à diffuser est évaluée à partir de simulations MonteCarlo, une production dédiée à la gamme d'énergies écrit ci-dessus. L'absorption des neutrinos par la Terre pour des énergies supérieures que PeV avait été prise en compte, de sorte que la recherche de l' astrophysique signal est limitée près de l'horizon. Dans cette zone angulaire la plus sévère source de fond sont les neutrinos atmosphériques , mais aussi les muons atmospheriques qui même très réduites en nombre, peuvent feindre un signal cosmique. Sachant que les événements UHE déposent une grande quantité de lumière dans le détecteur , six des variables de ce type ont été choisies et ensuite une combinaison d'entre eux a été utilisés pour discriminer le signal du fond. J'ai pris en compte les différentes configurations de détection du Dec. 2008 à Décembre 2011 lors de l'analyse des données , avec une durée de vie équivalente de 800 jours. Les résultats sont représentés et la limite supérieure de flux diffus de neutrinos va être estimé, compte tenu de différents types de flux de UHE astrophysique sources d'accélération , comme AGN , un Waxman - Bahcall comme spectre ou un modèle de GZK coupure , dans le scénario de neutrinos cosmologique.
366

Semileptonic B decays into charmed D( **) mesons from Lattice QCD.

Atoui, Mariam 12 December 2013 (has links) (PDF)
Les désintégrations semileptoniques du méson $B$ participent à la détermination de certains paramètres fondamentaux du Modèle Standard. Ce travail décrit essentiellement l'étude des deux canaux de désintégrations $B_s \to D_s \ell \bar\nu_\ell$ et $B\to D^{**} \ell \bar\nu_\ell$ (où les $D^{**}$ sont les premières excitations orbitales des mésons $D$ ayant une parité positive). Le cadre théorique est celui de la QCD sur réseau qui, en discrétisant l'espace-temps, permet de calculer non perturbativement les fonctions de Green de la théorie. En utilisant l'action à masse twistée avec deux saveurs dégénérées de quarks dynamiques ($N_f=2$), nous avons commencé par étudier la spectroscopie des états charmés scalaires $D_0^*$ et tenseurs $D_2^*$. Ensuite, nous avons réalisé la détermination du facteur de forme $\mathscr G_s(1)$ décrivant le processus $B_s\to D_s \ell \bar\nu_\ell$ dans le Modèle Standard. Ce paramètre offre un moyen d'extraire l'élément de la matrice CKM $V_{cb}$. Par ailleurs, et pour la première fois en QCD sur réseau, nous avons déterminé les rapports $F_0(q^2)/F_+(q^2)$ et $F_T(q^2)/F_+(q^2)$ dans la région proche du recul nul: ces contributions sont en effet nécessaires afin de discuter ce canal de désintégration dans certains modèles au-delà du Modèle Standard. Enfin, une étude préliminaire du canal de désintégration $B\to D^{**}$ a été abordée où nous avons trouvé une valeur non nulle de l'élément de matrice décrivant la désintégration $B\to D_0^*$ à recul nul contrairement de ce qui est connu à la limite des quarks lourds. Dans le cas du $B \to D_2^*$, nos résultats ont montré un signal indiquant une différence par rapport aux prédictions de masse infinie. Ces calculs sont indispensables afin de tirer une conclusion plus solide concernant le ''puzzle 1/2 vs 3/2''
367

Symétries, courants et holographie des spins élevés

Meunier, Elisa 22 November 2012 (has links) (PDF)
La théorie des spins élevés est le domaine de la physique théorique au centre de cette thèse. Outre une introduction présentant le contexte général de la naissance de cette théo- rie, ce manuscrit de thèse regroupe trois études récentes dans ce domaine. Une attention particulière sera portée aux symétries, aux courants et à l'holographie. La première partie est axée sur les ingrédients permettant la construction de vertex cubiques entre un champ scalaire de matière et un champ de jauge de spin élevé dans un espace-temps à courbure constante. La méthode de Noether indique comment construire ces interactions à partir des courants conservés, dont on peut condenser l'écriture en utili- sant les fonctions génératrices. Le formalisme ambiant est le principal aspect de ce calcul puisqu'il le facilite et en permet la simplification. Dans un second temps, nous préparons les éléments pour un futur test de la correspon- dance holographique à l'ordre cubique voire quartique en la constante de couplage. Plus précisément, nous révisons en détail le calcul de certains propagateurs, ce qui nous mène à calculer les fonctions à trois points impliquant deux champs scalaires. La dernière partie, bien que concernant toujours l'holographie des spins élevés, traite de la physique non-relativiste. Les symétries et les courants d'un gaz parfait/unitaire de Fermi y sont étudiés. En particulier, nous prouvons que l'algèbre maximale de symétrie de l'équation de Schrödinger est l'algèbre de Weyl. Le lien entre physiques relativiste et non-relativiste est obtenu grâce à la réduction dimensionnelle de Bargmann. L'holographie des spins élevés non relativistes est également évoquée.
368

Validation de la simulation Monte-Carlo de la gamma-caméra petit animal Biospace sur la grille de calcul légère CiGri. Application à l'évaluation de l'algorithme de l'inversion analytique de la transformée de Radon atténuée

Aoun, Joe 30 October 2009 (has links) (PDF)
Les Simulations Monte-Carlo SMC représentent actuellement en imagerie médicale nucléaire un outil puissant d'aide à la conception et à l'optimisation des détecteurs, et à l'évaluation des algorithmes de reconstruction et des méthodes de correction des effets physiques responsables de la dégradation des images reconstruites (atténuation, diffusion, etc.). L'inconvénient majeur des simulations Monte-Carlo réside dans le temps de calcul important qu'elles nécessitent. Au cours de cette thèse, nous avons tiré parti de la plate-forme de SMC GATE (Geant4 Application for Tomographic Emission) dédiée aux examens SPECT/PET pour une modélisation réaliste des phénomènes physiques, et de la grille de calcul légère CiGri (CIMENT Grid) afin de réduire le temps de calcul. Le premier objectif de cette thèse consiste à modéliser la gamma-caméra Biospace dédiée à l'imagerie petit animal à l'aide du logiciel GATE. Le modèle de la gamma-caméra est validé en comparant les résultats issus des simulations GATE avec les données acquises expérimentalement. Les résultats des simulations reproduisent avec précision les performances mesurées de la gamma-caméra. Le modèle validé est ensuite utilisé pour l'évaluation de l'algorithme de Novikov-Natterer de reconstruction analytique de la transformée de Radon atténuée. Les résultats de cette étude montrent que l'algorithme de reconstruction de Novikov-Natterer permet d'améliorer les images d'un point de vue qualitatif et quantitatif par rapport à la méthode analytique standard FBP
369

Reverse engineering of heavy-ion collisions : unraveling initial conditions from anisotropic flow data

Retinskaya, Ekaterina 10 June 2014 (has links) (PDF)
Ultra-Relativistic heavy-ion physics is a promising field of high energy physics connecting two fields: nuclear physics and elementary particle physics. Experimental achievements of the last years have provided an opportunity to study the properties of a new state of matter created in heavy-ion collisions called quark-gluon plasma. The initial state of two colliding nuclei is affected by fluctuations coming from wave- functions of nucleons. These fluctuations lead to the momentum anisotropy of the hadronic matter which is observed by the detectors. The system created in the collision behaves like a fluid, so the initial state is connected to the final state via hydrodynamic evolution. In this thesis we model the evolution with relativistic viscous hydrodynamics. Our results, combined with experimental data, give non trivial constraints on the initial state, thus achieving "reverse engineering" of the heavy-ion collisions. The observable which characterizes the momentum anisotropy is the anisotropic flow vn. We present the first measurements of the first harmonic of the anisotropic flow called directed flow v1 in Pb-Pb collisions at the LHC. We then perform the first viscous hydrodynamic modeling of directed flow and show that it is less sensitive to viscosity than higher harmonics. Comparison of these experimental data with the modeling allows to extract the values of the dipole asymmetry of the initial state, which provides constraints on the models of initial states. A prediction for directed flow v1 in Au-Au collisions is also made for RHIC. We then perform a similar modeling of the second and third harmonics of the anisotropic flow, called respectively elliptic v2 and triangular v3 flow. A combined analysis of the elliptic and triangular flow data compared with viscous hydrodynamic calculations allows us to put constraints on initial ellipticity and triangularity of the system. These constraints are then used as a filter for different models of initial state. At the end of this thesis, we show perspectives in the studies of the initial state which are opened by recent measurements of event-plane correlations which could shed light on the initial state fluctuations.
370

Recherche de technicouleur avec l'expérience ATLAS. Développement d'outils et étude des performances du calorimètre à argon liquide

Helary, Louis 09 December 2011 (has links) (PDF)
En 2011, le LHC a fourni près de 5 fb−1 de données aux expériences. Ces données ont été utilisées pour comprendre plus avant les détecteurs, leurs performances et effectuer des analyses de physique. Cette thèse est organisée en cinq chapitres. Le premier est une introduction théorique au Modèle Standard et à une de ses extensions possible : la TechniCouleur. Le deuxième chapitre donne un bref aperçu de l'accélérateur LHC et de l'expérience ATLAS. Dans le troisième chapitre, l'un des principaux sous-système de l'expérience ATLAS est présenté : le calorimètre à argon liquide. L'algorithme de contrôle de l'acquisition et de la qualité des données que j'ai développé au cours de ma thèse est également présenté. Le quatrième chapitre présente une étude des performances de la reconstruction des jets basée sur l'ensemble des données acquises en 2010. Cette étude a montré qu'en 2010, la résolution en énergie des jets dans le Monte-Carlo a été sous-estimée d'un facteur relatif d'environ 10% par rapport aux données. Cette étude a été ensuite reconduite pour évaluer l'impact de la réduction de la HV dans des zones du calorimètre sur la résolution en énergie des jets. Cet impact a été jugée négligeable. Pour des jets produits avec une rapidité |y| < 0.8, l'augmentation de la résolution en énergie due à la réduction de la HV, est évaluée à moins de 3 % pour un jet de pT = 30 GeV jet, et moins de 0,1 % pour un jet de pT = 500 GeV. Enfin, le dernier chapitre de cette thèse présente une étude de l'état final Wgamma. La contribution des différents processus du MS participant à cet état final a été estimée à partir du Monte Carlo et des données. Une recherche de résonances étroites a ensuite été effectuée en utilisant la distribution M(W,gamma) dans un intervalle [220,440] GeV, mais aucun écart significatif des prédictions du MS n'a été observé. Cette étude a permis de fixer des limites sur la production de particules TC correspondant à M(a_{T}) > 265 GeV ou M(\rho_{T}) > 243 GeV.

Page generated in 0.0697 seconds