• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 178
  • 65
  • 19
  • Tagged with
  • 263
  • 106
  • 97
  • 50
  • 48
  • 44
  • 38
  • 33
  • 32
  • 29
  • 27
  • 27
  • 26
  • 23
  • 23
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
141

Du phénomène quantique au dispositif macroscopique, transport électronique dans les détecteurs inter-sousbandes.

Delga, Alexandre 19 December 2012 (has links) (PDF)
Les détecteurs à cascade quantique (QCD) sont des composants semi-conducteurs, dans lesquels l'absorption de la lumière dans des puits quantiques de quelques nanomètres de large, à des temps caractéristiques de la picoseconde, permet de réaliser des caméras infrarouges de haute performance. L'enjeu de l'étude du transport électronique dans ces structures consiste à organiser le continuum d'échelles spatiales et temporelles qui relient le phénomène microscopique au dispositif macroscopique. Dans ces travaux de thèse, nous avons montré en particulier que pour modéliser le signal (courant et réponse) dans ces détecteurs, il est nécessaire d'articuler correctement les temps de cohérence quantique et les temps de diffusion semi-classique. Pour comprendre l'origine du bruit, il s'agit de voir que les contributions thermique et de grenaille, usuellement considérées comme indépendantes, ne sont que les deux limites aux temps courts et aux temps longs de la diffusion aléatoire de charges quantifiées. Cette description complète de la physique de ces détecteurs a permis dans un dernier temps de dégager les potentialités principales de cette filière technologique.
142

Oscillations des neutrinos sur et hors faisceau : étude des performances du système d'acquisition d'OPERA

Brugière, Timothée 25 February 2011 (has links) (PDF)
OPERA (Oscillation Project with Emulsion-tRacking Apparatus) est une expérience sur faisceau de neutrino située dans le Hall C du laboratoire souterrain du Gran Sasso (LNGS), en Italie, à une profondeur équivalente à 3.8 km d'eau (correspondant à une coupure en énergie à 1.5 TeV pour les muons à la surface). L'objectif premier d'OPERA est l'observation directe de l'oscillation νμ ➝ ντ dans le secteur des neutrinos atmosphériques par apparition d'événements ντ à 730km de la cible, dans un faisceau (CNGS) quasiment pur en νμ. OPERA est un détecteur hybride contenant une partie cible (~125 000 briques composées d'une succession de feuilles d'émulsion et de plomb) instrumentée et d'un spectromètre. La prise de données a commencé en 2006 et 55 000 événements neutrinos ont été enregistrés à ce jour. Le premier candidat ντ a été observé cette année. Le travail produit pendant cette thèse est axé suivant trois sujets principaux : la définition de règles de déclenchement du système d'acquisition du trajectographe pour les événements neutrinos du faisceau, la synchronisation des éléments du trajectographe et des plans de RPC ainsi que l'implémentation des résultats dans la simulation et l'étude de la faisabilité d'une analyse des oscillations des neutrinos atmosphériques dans les données hors-faisceau. La modification des règles de déclenchement du trajectographe a permis d'atteindre les valeurs proposées dans le proposal d'OPERA, ie une efficacité de déclenchement supérieure à 99%. Cette évolution a été rendu possible par la mise en place de fenêtres en temps en coïncidence avec le faisceau CNGS pendant lesquelles les coupures sont abaissées, permettant de récupérer les événements de basse multiplicité. Une étude poussée de l'intercalibration des détecteurs électroniques a permis la synchronisation de l'ensemble des informations venant des éléments du trajectographe et des RPC. Les résultats de cette analyse sont maintenant inclus dans la simulation du détecteur. Le travail de calibration a permis de produire une étude sur l'oscillation des neutrinos atmosphériques "hors-faisceau" grace à la détection de particules montantes. Les analyses présentées dans cette thèse ont permis une meilleure compréhension du détecteur d'OPERA et démontré sa capacité à observer des phénomènes ne dépendant pas du faiseau CNGS. Des analyses sur la détection des neutrinos atmosphériques et la caractérisation du flux de muons cosmiques (variations saisonnières entre autres) sont désormais possibles grace à la statistique accumulée et la compréhension plus fine des systèmes d'acquisition. Les corrections sur la propagation des signaux dans les détecteurs électroniques sont aujourd'hui utilisées pour la mesure de la vélocité des neutrinos du faisceau.
143

Reconstruction des électrons et recherche de couplages anormaux dans le canal pp->ZZ->4l avec le détecteur CMS auprès du LHC

Sabes, David 19 October 2012 (has links) (PDF)
La thèse en physique des particules que j'ai effectuée au sein de l'équipe CMS (Compact Muon Solenoid) du Laboratoire Leprince-Ringuet de l'École Polytechnique porte sur l'analyse de la production de di-bosons pp→ZZ+X et la recherche de couplages anormaux et ce, dans le cadre de l'expérience CMS et des données accumulées à l'aide du grand collisionneur de hadrons du CERN, le LHC. Elle débute avec le démarrage du LHC en fin 2009 et l'étude et l'optimisation de la reconstruction des électrons via la combinaison de deux algorithmes afin d'améliorer les performances à bas moment transverse. Les critères de sélection des événements caractéristiques des désintégrations de bosons Z, assurant une sélection pure d'électrons, ont été étudiés. Les efficacités de reconstruction des électrons pour les données 2010 et 2011 ainsi que leurs erreurs statistiques et systématiques ont été mesurées et ces mesures ont ensuite été utilisées par la collaboration CMS pour les analyses 2010 et 2011. Une étude des caractéristiques des radiations dans l'état final (Final State Radiation) affectant les leptons issus de la désintégration du Z a été menée. Un algorithme en vue de récupérer les photons FSR et reconstruire pleinement la masse du Z a été développé et optimisé. Il corrige 4.2% des cas ZZ→4μ tout en assurant une pureté de sélection des photons FSR de 95.6%. L'analyse physique développée dans cette thèse porte sur la recherche et l'extraction de limites sur les couplages trilinéaires neutres. L'existence de ces couplages est interdite dans le formalisme du Modèle Standard mais peut cependant être introduite dans un Lagrangien effectif par l'ajout de deux termes de couplages f4Z et f5Z dans le cas du couplage ZZZ, en vue de la recherche d'une nouvelle physique. La présence de ces couplages anormaux se traduit généralement par une augmentation de la section efficace de production des di-bosons ZZ ainsi que par les déformations des distributions cinématiques des Z ou encore de la masse des 4 leptons par rapport à l'attendu Modèle Standard. Dans le cadre de l'analyse du canal pp→ZZ→4l, une sélection pure des événements a été établie et les distributions différentielles du moment transverse et de la rapidité des bosons Z sont également présentées. Une recherche des couplages anormaux est effectuée en utilisant une méthode de repondération des distributions simulées et des limites sont extraites par la technique CLs. Les limites obtenues avec un niveau de confiance de 95% sont: -0.0116< f4Z <0.0116 et -0.0119< f5Z <0.0119.
144

La méthode des moments pour les matrices aléatoires avec application à la communication sans fil

Masucci, Antonia Maria 29 November 2011 (has links) (PDF)
Dans cette thèse, on étudie l'application de la méthode des moments pour les télécommunications. On analyse cette méthode et on montre son importance pour l'étude des matrices aléatoires. On utilise le cadre de probabilités libres pour analyser cette méthode. La notion de produit de convolution/déconvolution libre peut être utilisée pour prédire le spectre asymptotique de matrices aléatoires qui sont asymptotiquement libres. On montre que la méthode de moments est un outil puissant même pour calculer les moments/moments asymptotiques de matrices qui n'ont pas la propriété de liberté asymptotique. En particulier, on considère des matrices aléatoires gaussiennes de taille finie et des matrices de Vandermonde al ?eatoires. On développe en série entiére la distribution des valeurs propres de differents modèles, par exemple les distributions de Wishart non-centrale et aussi les distributions de Wishart avec des entrées corrélées de moyenne nulle. Le cadre d'inference pour les matrices des dimensions finies est suffisamment souple pour permettre des combinaisons de matrices aléatoires. Les résultats que nous présentons sont implémentés en code Matlab en générant des sous-ensembles, des permutations et des relations d'équivalence. On applique ce cadre à l'étude des réseaux cognitifs et des réseaux à forte mobilité. On analyse les moments de matrices de Vandermonde aléatoires avec des entrées sur le cercle unitaire. On utilise ces moments et les détecteurs à expansion polynomiale pour décrire des détecteurs à faible complexité du signal transmis par des utilisateurs mobiles à une station de base (ou avec deux stations de base) représentée par des réseaux linéaires uniformes.
145

Développement et validation d'une méthode d'échantillonnage et d'analyse des nitrosamines dans l'air par CLHP-MS

Nechadi, Amina 11 1900 (has links) (PDF)
Les nitrosamines constituent une famille de composés posant un risque pour la santé des gens. Depuis la fin des années cinquante, 90% des nitrosamines ont été prouvées ou suspectées cancérogènes pour l'homme. Ces substances peuvent être retrouvées dans l'air, entre autres dans les milieux de travail. Les concentrations les plus importantes de nitrosamines volatiles ont été retrouvées dans les procédés de fabrication du caoutchouc. La valeur d'exposition admissible (VEA) recommandée par l'Institut national de santé publique du Québec (INSPQ) dans une revue de littérature récente est de 1 μg/m3 de nitrosamines. Les faibles concentrations à analyser demandent donc des outils et des méthodes d'analyse hautement spécifiques et sensibles. Depuis 2007, les laboratoires de l'IRSST ont effectué un important développement qui a permis de mettre au point une méthode d'analyse de huit nitrosamines dans l'air par chromatographie gazeuse avec détecteur azote phosphore (CG-DAP). Cependant, cette méthode peut parfois présenter des limitations quant à sa spécificité. Le spectromètre de masse étant très sélectif et sensible à la fois, une méthode couplant la chromatographie liquide à la spectrométrie de masse (CLHP-MS) a été développée dans le but de doser de basses concentrations de nitrosamines dans l'air. L'échantillonnage s'effectue avec le tube adsorbant développé par l’INRS (France). La méthode de désorption mise au point permet une récupération moyenne de 96,00 ± 0,08 %. Les limites de quantification obtenues lors des validations préliminaires de la méthode d'analyse par CLHP-MS varient de 0,03 μg/m3 à 0,09 μg/m3 selon la nitrosamine. Les valeurs obtenues représentent respectivement 3 % à 9 % de la norme recommandée par l'INSPQ pour 800 L de volume d'air échantillonné (400 minutes d'échantillonnage à 2 L/min). Le domaine d'applicabilité de la méthode est de 0,07 μg/m3 à 1,75 μg/m3 ce qui couvre les concentrations visées par l'INSPQ. Les résultats démontrent une détection spécifique et sensible des nitrosamines. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Nitrosamines, CLHP-MS, Analyse de l'air, Caoutchouc, GC-DAP.
146

Etude de la Diffusion Compton Profondément Virtuelle sur le Nucléon avec le Détecteur CLAS de Jefferson Lab : Mesure des Sections Efficaces polarisées et non polarisées

Jo, Hyon-Suk 14 March 2007 (has links) (PDF)
Les Distributions de Partons Généralisées (GPDs), dont le formalisme a été introduit dans les années 1990, offrent la plus complète description de la structure (en quarks et gluons) du nucléon à ce jour. La Diffusion Compton Profondément Virtuelle (DVCS), qui correspond à l'électroproduction exclusive "dure" de photons sur le nucléon, est un processus clef parmi les réactions donnant accès aux GPDs. Une expérience dédiée à l'étude du DVCS s'est déroulée en 2005 avec le détecteur CLAS de Jefferson Lab, en utilisant un faisceau d'électrons polarisés de 5,776 GeV et une cible d'hydrogène. Pour cette expérience, nous avons construit et utilisé un calorimètre électromagnétique dédié capable de détecter le photon de l'état final. Les données acquises nous ont permis d'étudier le DVCS sur le plus vaste domaine cinématique jamais accédé pour cette réaction jusqu'à présent : 1 < Q² < 4,6 GeV², 0,1 < xB < 0,58, 0,09 < -t < 2 GeV². Les travaux réalisés au cours de cette thèse incluent notamment des travaux de simulation effectués dans le cadre de la préparation de l'expérience, l'étalonnage en temps d'un des sous-systèmes de CLAS, et l'analyse des données dont l'objectif a été l'extraction des sections efficaces non polarisées de la réaction étudiée et de la différence des sections efficaces polarisées, cette dernière observable étant linéairement proportionnelle aux GPDs. Les résultats obtenus sont confrontés aux calculs théoriques du DVCS basés sur une des paramétrisations des GPDs les plus abouties à ce jour.
147

Étude des détecteurs planaires pixels durcis aux radiations pour la mise à jour du détecteur de vertex d'ATLAS

Benoit, Mathieu 10 June 2011 (has links) (PDF)
Le Large Hadron Collider (LHC), située au CERN, Genève, produit des collisions de protons accélérés à une énergie de 3.5 TeV depuis le 23 Novembre 2009. L'expérience ATLAS enregistre depuis des données et poursuit sa recherche de nouvelle physique à travers l'analyse de la cinématique des événements issues des collisions. L'augmentation prévue de la luminosité sur la période s'étalant de 2011 2020 apportera de nouveaux défis pour le détecteur qui doivent être considérés pour maintenir les bonnes performance de la configuration actuelle. Le détecteur interne sera le sous-détecteur le plus affecté par l'augmentation de la luminosité qui se traduira par une augmentation des dommages occasionnés par la forte radiation et par la multiplication du nombre de traces associées à chaque croisement de faisceau. Les dommages causés par l'irradiation intense entrainera une perte d'efficacité de détection et une réduction du nombre de canaux actifs. Un intense effort de Recherche et Développement (R&D) est présentement en cours pour concevoir un nouveau détecteur pixel plus tolérant aux radiations et au cumul des événements générant un grand nombre de traces à reconstruire. Un premier projet de mise-à-jour du détecteur interne, nommé Insertable B-Layer (IBL) consiste à ajouter un couche de détection entre le tube à vide du faisceau et la première couche de silicium. Le projet SLHC prévoit de remplacer l'ensemble du détecteur interne par une version améliorée plus tolérante aux radiations et aux cumuls des événements. Dans cet ouvrage, je présente une étude utilisant la simulation technologique assisté par ordinateur (TCAD) portant sur les méthodes de conception des détecteurs pixels planaires permettant de réduire les zones inactives des détecteurs et d'augmenter leurs tolérances aux radiations. Les différents modèles physiques disponible ont étés étudiés pour développer un modèle cohérent capablede prédire le fonctionnement des détecteurs pixels planaires après irradiation. La structure d'anneaux de gardes utilisée dans le détecteur interne actuel a été étudié pour obtenir de l'information sur les possible méthodes permettant de réduire l'étendu de la surface occupée par cette structure tout en conservant un fonctionnement stable tout au long de la vie du détecteur dans l'expérience ATLAS. Une campagne de mesures sur des structures pixels fut organisée pour comparer les résultats obtenue grâce à la simulation avec le comportement des structures réelles. Les paramètres de fabrication ainsi que le comportement électrique ont été mesurés et comparés aux simulations pour valider et calibrer le modèle de simulation TCAD. Un modèle a été développé pour expliquer la collection de charge excessive observée dans les détecteurs planaires en silicium lors de leur exposition a une dose extrême de radiations. Finalement, un modèle simple de digitalisation à utiliser pour la simulation de performances détecteurs pixels individuels exposés à des faisceau de haute énergie ou bien de l'ensemble du détecteur interne est présenté. Ce modèle simple permets la comparaison entre les données obtenue en faisceau test aux modèle de transport de charge inclut dans ladigitalisation. Le dommage dû à la radiation , l'amincissement et l'utilisation de structures à bords minces sont autant de structures dont les effets sur la collecte de charges affectent les performance du détecteur. Le modèle de digititalisation fut validé pour un détecteur non-irradié en comparant les résultats obtenues avec les données acquises en test faisceau de haut énergie. Le modèle validé sera utilisé pour produire la première simulation de l'IBL incluant les effets d'amincissement du substrat, de dommages dûes aux radiations et de structure dotés de bords fins.
148

Etude par photoémission résolue en angle et en spin de Mn5Ge3/Ge(111) en couches minces

Ndiaye, Waly 02 July 2013 (has links) (PDF)
Mn5Ge3 suscite de l'intérêt pour des applications dans le domaine de l'électronique de spin car il a une température de Curie élevée (≈300 K) et il peut croître épitaxialement sur des substrats Ge(111) permettant ainsi d'injecter directement dans le semi-conducteur Ge un courant polarisé en spin.Nous avons étudié par photoémission résolue en angle et en spin (ARPES, SARPES), utilisant le rayonnement synchrotron, des films minces de Mn5Ge3(001), obtenus par croissance sur la surface reconstruites Ge(111)-c(2x8).Les résultats ARPES, obtenus dans les plans GALM et GAHK, sont en accord avec des simulations faites sur la base de calculs de structure de bandes faisant appel à la théorie de la fonctionnelle de la densité.Les mesures SARPES faites en plusieurs points du plan GALM sont aussi bien reproduites par ces simulations.D'une façon globale, nos résultats apportent une validation remarquable de la description des propriétés électroniques de Mn5Ge3 par le modèle de bandes. Seule l'intensité spectrale au niveau de Fermi n'est pas bien expliquée par la simulation. Cette différence est attribuée à la nature tridimensionnelle de l'échantillon et à des effets de corrélation.
149

Spectrométrie de Fourier intégrée pour l'astronomie millimétrique

Boudou, Nicolas 26 November 2013 (has links) (PDF)
Au cours des dernières décennies, l'observation du ciel dans les longueurs d'onde millimétriques a permis de faire grandement progresser notre compréhension de l'univers, notamment à travers l'étude du fond diffus cosmologique. Pour répondre aux besoins actuels des astronomes, nous proposons dans ce rapport un instrument intégré permettant de réaliser des mesures spectrales large-bande dans le domaine millimétrique. Celui-ci se base sur le concept de SWIFTS (Stationary-Wave Fourier-Transform Spectrometer :spectromètre de Fourier à ondes stationnaire), un instrument opérationnel aux longueurs d'onde visibles et infrarouges. Notre dispositif " SWIFTS millimétrique " utilise des détecteurs à inductance cinétique (KID pour Kinetic Inductance Detectors) comme détecteurs de lumière. Différents aspects de la conception du SWIFTS millimétrique sont abordés dans ce rapport. Le dimensionnement des éléments clés du dispositif est réalisé à l'aide de simulations électromagnétiques. Nous proposons aussi un procédé de fabrication en technologie silicium permettant le dépôt d'antennes sur membrane de nitrure de silicium SiN. Les premières caractérisations permettent de confirmer un fonctionnement adapté des détecteurs en configuration SWIFTS et démontre l'existence d'un couplage entre l'antenne et un des détecteurs aux longueurs d'onde millimétriques ce qui ouvre la voie à un futur démonstrateur. Parallèlement, la technologie développée pour le SWIFTS millimétrique a rendu possible la fabrication de KID sur membrane. L'intérêt est ici d'évaluer la membrane comme un moyen de réduire l'interaction entre les rayons cosmiques et le détecteur dans la perspective d'une utilisation des KID dans l'espace. Des mesures comparatives effectuées sur KID déposés sur membrane et sur substrat démontrent des taux d'événements identiques dans les deux cas. La membrane est donc inefficace pour l'application envisagée. Le temps de relaxation présente en revanche une dépendance avec la présence du substrat.
150

Etude d'un système d'identification de matériaux par diffraction de rayons X à partir d'acquisitions spectrométriques multi pixels

Ghammraoui, Bahaa 20 September 2012 (has links) (PDF)
La diffraction des rayons X apparait comme une modalité prometteuse pour l'inspection non invasive de bagages. Par comparaison aux techniques traditionnelles d'imagerie par transmission, cette technique permet de révéler davantage d'informations caractéristiques sur les matériaux, comme les distances inter-réticulaires pour les matériaux cristallins ou la fonction d'interférence moléculaire pour les matériaux amorphes. La méthode de diffraction par énergie dispersive (EDXRD), qui travaille à angle fixe avec un faisceau polychromatique et un détecteur résolu en énergie, est plus particulièrement adaptée à la problématique de contrôle de bagages, car elle permet d'envisager une architecture parallélisée pour imager un bagage complet en un temps raisonnable. Les travaux proposés dans cette thèse ont donc pour but d'étudier un système EDXRD utilisant un détecteur spectrométrique CdZnTe multi pixels pour l'identification des matériaux illicites dans les bagages. Une première étape a consisté à prendre en main cette technique à la fois expérimentalement avec un banc de diffraction mis à disposition et théoriquement par le biais du développement d'un outil de simulation élaboré. La confrontation entre l'expérimentation et la simulation a permis de bien comprendre la physique d'un tel système et de mieux analyser ses faiblesses pour pouvoir les corriger. En nous appuyant sur ces deux outils, nous avons ensuite étudié et mis en oeuvre de nouveaux concepts pour améliorer les performances du système EDXRD, en termes de résolution, d'intensité et de stabilité des pics de diffraction. Ainsi, une architecture novatrice, s'appuyant sur un traitement des signaux transitoires délivrés par les détecteurs CdZnTe, est proposée afin d'améliorer le compromis entre la résolution des pics de diffraction et leur intensité. Cette architecture est basée sur la sur-pixellisation du détecteur par la méthode de localisation barycentrique et sur une adaptation géométrique du système collimateur/détecteur. Enfin, le problème d'instabilité des pics de diffraction, due à l'effet d'orientation des grains des matériaux cristallins, est également traité.

Page generated in 0.0992 seconds