Spelling suggestions: "subject:"cosmiques"" "subject:"osmiques""
11 |
Etude des neutrinos de ultra haute énergie à l'observatoire Pierre AugerPayet, Kévin 07 October 2009 (has links) (PDF)
L'observatoire Pierre Auger est une expérience de détection du rayonnement cosmique aux plus hautes énergies jamais mesurées. Ce dernier possède deux sous-ensembles de détection différents et complémentaires qui lui confèrent des capacités sans précédents pour l'étude du rayonnement cosmique. Le détecteur est également sensible aux neutrinos de ultra haute énergie, et ce bien qu'il n'ait pas été conçu dans ce but. Au cours de cette thèse, un programme de simulation a été développé afin d'étudier la propagation et l'interaction des neutrinos taus dans la croûte terrestre, travail nécessaire à l'étude du premier des deux canaux de détection possible, mettant en jeu des neutrinos de type tau traversant la terre sur une faible épaisseur, et venant interagir dans la roche à proximité du détecteur. En plus de fournir la probabilité de conversion neutrino-tau, nécessaire pour le calcul de l'acceptance du détecteur, celui-ci a également permis d'étudier en détail des processus liés à la propagation des particules dans la roche, permettant de mieux comprendre leur impact sur les résultats de l'analyse. La seconde partie du travail concerne les neutrinos interagissant directement dans l'atmosphère, à la manière des rayons cosmiques classiques. Pour ce deuxième canal de détection, un critère de sélection a été développé à partir de la comparaison de simulation de gerbes atmosphériques, induites par des neutrinos de ultra haute énergie, avec les données brutes du détecteur. L'étude des neutrinos à l'observatoire Pierre Auger a permis d'obtenir deux limites sur le flux diffus de neutrinos de ultra haute énergie, parmi les plus contraignantes à des énergies de l'ordre de l'EeV.
|
12 |
Sources énergétiques, champs magnétiques extra-galactiques, astroparticules : énigmes astrophysiques vues par les rayons cosmiques de ultra-haute énergieKotera, Kumiko 08 September 2009 (has links) (PDF)
Ce travail de thèse se situe à l'interface de trois problématiques, que j'explore à l'aide de la propagation des rayons cosmiques de ultra-haute énergie : les sources énergétiques dans l'Univers, les champs magnétiques extra-galactiques et les astroparticules secondaires (neutrinos et rayons gammas). Dans ce manuscrit, je présente d'abord un survol de la situation expérimentale et théorique des rayons cosmiques de ultra-haute énergie ; je détaille ensuite les mécanismes de production des particules secondaires lors de leur propagation, et donne une revue sur les connaissances actuelles sur les champs magnétiques extra-galactiques. Je propose des modélisations semi-analytiques et analytiques du transport des rayons cosmiques dans ces champs, qui ont pour but de pallier la complexité et la mise en oeuvre lourde des outils existants (simulations MHD), tout en prenant en compte des phénomènes physiques probablement décisifs dans le transport des particules chargées, rarement traités dans la littérature (par exemple l'enrichissement magnétique par des sources astrophysiques ou la turbulence à petite échelle). J'ai également développé un outil numérique qui marie et améliore des codes existants pour traiter les processus d'interaction des rayons cosmiques au cours de leur propagation. A l'aide de ces techniques, je traite de nombreux problèmes-clés des rayons cosmiques de ultra-haute énergie, notamment l'influence du champ magnétique sur la coupure à basse énergie de la composante extra-galactique des rayons cosmiques, l'interprétation des résultats d'anisotropie de l'Observatoire Auger, les aspects multi-messagers de sources situées dans les environnements magnétisés.
|
13 |
Alignement en temps des calorimètres électromagnetique et hadronique, sélection des canaux $B\rightarrow D^{-}\rho(770)^{+}, B_{s}\rightarrow D_{s}^{-}\rho(770)^{+}$ and $B_{s}\rightarrow D_{s}^{-}K^{*+}(892)$ avec le détecteur LHCb.Amhis, Y. 02 July 2009 (has links) (PDF)
Cette thèse a été effectué sur l'expérience LHCb, située sur le collisionneur proton-proton LHC au CERN. Sa première partie porte sur l'alignement en temps des calorimètres. Nous décrivons une méthode basée sur une asymétrie permettant d'assurer l'alignement en temps des calorimètres électromagnétique (ECAL) et hadronique (HCAL). Nous montrons qu'avec des faisceaux de 450 GeV, et en l'absence du champ magnétique, il faut 55 000 événements minimum bias pour aligner en temps 84$\%$ des cellules du ECAL et 96 $\%$ des cellules du HCAL avec une précision de 0.5 ns. Lors de la mise en service des sous-détecteurs, nous avons analysé plus d'un million d'événements cosmiques, et vérifié que l'alignement interne est meilleur que 1 ns dans le ECAL et le HCAL. D'autre part nous avons aligné en temps le ECAL et le HCAL et obtenu une précision de l'ordre de 2 ns. Grâce aux gerbes hadroniques produites par le faisceau du LHC le 10 septembre 2008, nous avons montré que l'alignement global du HCAL avec l'horloge du LHC est de l'ordre de 0.8 ns.\\ La seconde partie de cette thèse porte sur la reconstruction des canaux $B_{d}\rightarrow D^{-}\rho(770)^{+}$, $B_{s}\rightarrow D_{s}^{-}\rho(770)^{+}$ et $B_{s}\rightarrow D_{s}^{-}K^{*+}(892)$. Une mé\-thode multivariable a été utilisée pour sélectionner les événements de signal et minimiser le bruit de fond $b\bar{b}$. Avec une année nominale de prise de données à LHCb, on attend 450 000 événements $B_{d}\rightarrow D^{-}\rho(770)^{+}$ , 71 000 événements $B_{s}\rightarrow D_{s}^{-}\rho(770)^{+}$ et 1300 événements $B_{s}\rightarrow D_{s}^{-}K^{*+}(8 92)$ avec des rapports signal sur bruit variant entre 1.6 et 6.
|
14 |
Mesure du spectre de positons cosmiques avec l'expérience AMS-02 et recherche de signaux "exotiques"Pochon, Jonathan 30 June 2005 (has links) (PDF)
L'expérience AMS-02 est un détecteur de physique des particules qui sera installé sur la station spatiale internationale (ISS) pour une durée d'au moins 3 ans début 2008. Les motivations physiques sont la mesure des rayons cosmiques (e-, e+, p, p-bar, gamma, He, C,...), la recherche indirecte de matière noire, la recherche d'antimatière pour Z>2 et l'étude des photons du GeV au TeV. L'expérience HEAT a mesuré le spectre de positons jusqu'à 30 GeV. Elle montre une possible distorsion autour de 8 GeV, qui peut s'interpreter comme un signal de matière noire. La mesure du spectre de positons cosmiques nécessite une séparation positons/protons de l'ordre de 10^5, obtenue par l'utilisation conjointe des sous-détecteurs d'AMS-02. Les tests en faisceaux de 2002 du calorimètre électromagnétique ont permis de déterminer son pouvoir de séparation "électrons"/protons grâce à un réseau de neurones. Cette technique, basée sur des variables discriminantes et mise au point sur les données, a été utilisée pour déterminer l'acceptance en positons du détecteur en combinant les informations des autres sous-détecteurs. On peut aussi estimer le nombre de positons d'origine conventionnelle et déterminer la capacité de détection de signaux issus de matière noire froide. Cette étude est présentée pour des signaux issus de neutralinos supersymétriques et de particules stables de Kaluza-Klein. Les flux restent naturellement trop faibles pour être détectables. Le signal peut être amplifié grâce à l'existence de surdensités locales de matière noire qui apparaissent naturellement dans les modèles de formation de galaxie. Une modélisation de ces surdensités a été mise au point et présentée.
|
15 |
Étude des collisions atmosphériques de rayons cosmiques d'énergie supérieure a $10^18$eV grâce aux événements hybrides de l'Observatoire Pierre AUGERRANCHON, Stephane 15 April 2005 (has links) (PDF)
Depuis plus de 30 ans, des réseaux de détecteurs au sol ont observé une dizaine de rayons cosmiques d'origine probablement extragalactique, dont les énergies excèdent $10^20$ eV. L'Observatoire Pierre AUGER, actuellement en construction en Argentine, a été spécialement conçu pour éclaircir le mystère de leur origine. La première partie de cette thèse a été consacrée à l'exposé de la problématique physique et aux techniques de détection utilisées. La partie suivante traite du développement d'un nouvel outil de mesure du niveau d'eau dans les détecteurs de surface et de la mise en oeuvre d'une expérience de calibration des détecteurs à des électrons de quelques MeV. Puis finalement, 3 chapitres sont consacrés à l'exposé de nouvelles méthodes d'analyses visant à determiner la composition du rayonnement cosmique primaire et à étudier les phénomènes physiques qui ont lieu dans le développement des gerbes dans l'atmosphère.
|
16 |
Matière noire et rayons cosmiques galactiquesTaillet, Richard 08 December 2010 (has links) (PDF)
Parmi les problèmes auxquels sont confrontés la cosmologie et l'astrophysique modernes, celui de la matière noire occupe une place particulière, résistant depuis de nombreuses décennies à la sagacité des théoriciens et au savoir-faire des expérimentateurs. Le problème en lui-même s'énonce simplement : de nombreuses mesures astrophysiques indirectes indiquent que la masse contenue dans notre univers semble dominée par de la matière d'un type nouveau, que l'on a encore jamais détecté directement, on l'appelle la matière noire. L'hypothèse qu'elle puisse être constituée de nouvelles particules intéresse grandement les physiciens des particules, dont les théories prédisent l'existence de telles particules : la matière noire est un des thèmes majeurs de l'astrophysique des particules. Cette habilitation à diriger des recherches est centrée sur la recherche de matière noire sous la forme de particules nouvelles, et plus particulièrement à la détection indirecte, pour laquelle on cherche les particules issues des annihilations de la matière noire plutôt que la particule originale elle-même. Dans ce cadre, je présenterai les études du rayonnement cosmique que j'ai menées, en collaboration avec diverses équipes. En particulier, l'étude de l'antimatière qu'il contient, permet de tirer des conclusions sur la matière noire.
|
17 |
Contribution à l'identification de la nature des rayons cosmiques d'énergie extrême à l'Observatoire Pierre AugerPham, Ngoc Diep 17 December 2010 (has links) (PDF)
Bien que la découverte des rayons cosmiques date d'un siècle, ce n'est que récemment qu'on est parvenu à identifier leurs sources galactiques comme étant des restes de jeunes Supernovae (SNR). La difficulté était la déviation de leurs trajectoires dans le champ magnétique du disque de la Voie Lactée, empêchant d'associer leurs sources à des objets célestes connus. C'est l'astronomie en rayons gamma qui a permis de sauter cet obstacle en associant les sources de rayons gamma d'énergies supérieures au TeV à des enveloppes de jeunes SNRs. Ces découvertes récentes n'ont toutefois pas été capables d'expliquer l'origine de la composante extra galactique des rayons cosmiques, dite d'ultra haute énergie (UHECR), ni d'identifier leurs sources et le mécanisme d'accélération. Ce n'est que tout récemment, avec la construction de l'Observatoire Pierre Auger (PAO), que la physique des UHECR est apparue sous un jour nouveau. Le PAO, avec lequel notre laboratoire est associé, et dans le cadre duquel cette thèse a été réalisée, est un immense réseau de 1600 compteurs Cherenkov (SD, pour détecteur de surface) couvrant une superficie de 3000 km2 dans la pampa argentine. Il abrite également des détecteurs de fluorescence (FD) qui permettent une détection hybride des grandes gerbes pendant les nuits claires et sans lune. Le PAO a déjà accumulé, pour la première fois au monde, une centaine d'UHECRs d'énergies supérieures à 50 EeV dont l'étude des propriétés est ainsi devenue possible. De fait, deux résultats majeurs ont déjà été obtenus, qui marquent un jalon important dans l'étude de la physique des UHECRs: l'observation d'une coupure dans la distribution en énergie, aux alentours de 100 EeV, associée pour l'essentiel au seuil de photoproduction de pions dans les interactions des UHECRs avec les photons du fond cosmique fossile; et la mise en évidence d'une corrélation entre les directions vers lesquelles pointent les UHECRs et les concentrations de matière extragalactique de l'univers proche, en particulier la région de Cen A. A plus basse énergie, jusqu'à une cinquantaine d'EeV, le PAO a mis en évidence une augmentation des masses primaires vers le fer quand l'énergie augmente. Cette observation se base sur des mesures de l'altitude à laquelle la gerbe atteint son développement maximal, censée être plus élevée pour les noyaux de fer que pour les protons. Toutefois, les estimations de la masse primaire basées sur la densité de muons au sol se heurtent à des incohérences entre observations et prédictions des modèles conventionnels de développement des gerbes qui empêchent de conclure. On n'est pas encore parvenu à assembler les pièces de ce puzzle de façon claire et définitive. Une possibilité serait que les UHECR qui pointent vers des galaxies proches, comme CenA, soient des protons et que les autres soient des noyaux de fer. Mais cela reste encore à prouver. Le travail présenté dans la thèse est une contribution modeste à ce programme de recherche. Il met l'accent sur des méthodes d'identification des masses primaires basées sur la mesure de la densité des muons au sol, en particulier sur la méthode des sauts (jump method) qui a été conçue et développée au LAL d'Orsay où une partie importante de la thèse a trouvé son inspiration. La méthode des sauts identifie la présence de sauts soudains dans les traces des FADC, formant un saut total J, avec celle de muons. La lumière Cherenkov produite par les particules de la gerbe qui traversent les détecteurs du SD est captée par des tubes photomultiplicateurs dont les signaux sont enregistrés en fonction du temps dans des convertisseurs analogue/digital rapides (FADC, 40 MHz). La relation entre le saut total, J, et les propriétés des traces des FADCs montre, en particulier, que pour avoir une chance d'apprendre quelque chose de sensé sur le nombre N de muons qui contribuent à la trace du FADC, il est nécessaire de restreindre l'observation à des détecteurs qui ne soient pas trop proches de l'axe de la gerbe. Une étude séparée des traces induites par des muons et par des électrons ou photons montre que J est approximativement proportionnel à N et à Q (la charge totale), ce qui n'est pas surprenant. En combinant des traces de muons et d'électrons/photons on trouve que J peut être décrit par une expression de la forme J={(43.9±0.5)10−3Q+(200±2)N }10-3. Nous étudions ensuite la séparation entre primaires légers (protons) et lourds (fer) à laquelle on peut s'attendre de la mesure des valeurs de J dans les compteurs touchés par la gerbe. Nous remarquons que même si nous connaissions N exactement (ce qui bien sûr n'est pas le cas) la séparation entre fer et proton ne dépasserait pas les 30%, ce qui donne une mesure de la corrélation entre la nature des primaires et la densité des muons au sol. Ceci implique que l'identification des primaires à un niveau de confiance correspondant à trois déviations standard requiert un minimum de cinquante détecteurs dans lesquels on puisse mesurer la valeur prise par J. Une autre remarque est que si l'on connaissait l'énergie des primaires, ce qui n'est pas le cas, non seulement J mais aussi Q et NJ (le nombre de saut dans chaque trace) seraient de bons discriminants entre fer et protons. Ceci dit, l'énergie des primaires étant inconnue, l'inversion de la relation J=AQ+BN en N=J+Q - dans le but de déduire N de Q et J - n'est pas aussi simple qu'il y paraît. Le problème est que la corrélation qui lie Q à J est si forte qu'il n'y a essentiellement rien à gagner de l'utilisation de la forme binomiale ci- dessus. Un corollaire important de cette forte corrélation est la difficulté qu'il y a à faire la différence entre deux gerbes induites par des protons d'énergies différentes et deux gerbes d'énergies égales, l'une induite par un proton et l'autre par un noyau de fer. Afin de surmonter cette difficulté, il est nécessaire d'utiliser des discriminants indépendants de l'énergie. Deux outils sont utilisés dans ce but : l'utilisation du rapport J/Q comme discriminant et la restriction de l'analyse aux compteurs situés dans une fourchette de distances à l'axe de la gerbe dépendant de S(1000) (la densité au sol de la gerbe à 1 km de son axe, utilisée comme mesure de l'énergie de la gerbe). Des gerbes simulées sont utilisées pour démontrer qu'en principe chacun de ces deux outils est efficace. Une analyse indépendante de l'énergie est ensuite appliquée à l'étude des gerbes détectées par le PAO, confirmant leur désaccord avec les prédictions des modèles de développement des gerbes et établissant un nouveau et important résultat: ce désaccord ne peut pas être résolu par un simple ajustement de la relation entre S(1000) et l'énergie. Enfin, la méthode des sauts est appliquée aux UHECRs pointant à 18o près vers Cen A. Contrairement à une autre analyse utilisant des données hybrides pour étudier le taux d'élongation, cette analyse préfère une origine protonique pour les gerbes associées à Cen A par rapport à celles pointant ailleurs dans le ciel. Tout ceci illustre la difficulté qu'il y a à identifier la nature des primaires à partir des données du SD. Le désaccord entre données et prédictions constitue un problème majeur qu'il faut à tout prix résoudre. On ne saurait se satisfaire d'une explication rejetant sur les modèles hadroniques la responsabilité du désaccord si les mécanismes physiques incriminés ne sont pas clairement identifiés. Les programmes de simulation utilisés de façon courante sont d'une complexité telle qu'il est difficile de les utiliser dans ce but. Le souci de reproduire au plus près la réalité physique les a rendus opaques. La seconde partie de la thèse se propose de faire un pas dans la direction de l'élaboration d'un code de simulation simplifié mais transparent dans l'espoir qu'il permette d'éclairer le problème. La simulation de la composante électromagnétique des grandes gerbes est relativement simple: il suffit, à une excellente approximation, de ne retenir que le rayonnement de freinage et la création de paires comme seuls mécanismes élémentaires et d'ignorer toute particule autre que photon, électron ou positon. Il est aussi facile de décrire les pertes d'énergie par ionisation, ce qui permet un traîtement particulièrement simple du développement de la gerbe qui est présenté et commenté en détail. On obtient ainsi des paramétrisations du profil longitudinal de la gerbe utilisant la forme de Gaisser-Hillas et les valeurs moyennes des paramètres sont évaluées en fonction de l'énergie en même temps que leurs fluctuations. Trois types de primaires sont pris en considération: électrons, photons et pions neutres. Le modèle, par itérations successives, permet d'atteindre simplement aux énergies les plus élevées. Son application à l'effet Landau-Pomeranchuk-Migdal et à l'effet Perkins permettent d'illustrer son efficacité et de montrer que ces deux effets sont, en pratique, d'incidence négligeable sur la physique des UHECRs. Le développement de la composante hadronique de la gerbe est beaucoup plus difficile à traîter. Il implique la production de muons, essentiellement des pions, dont la composante neutre est purement électromagnétique et par conséquent facile à décrire. Au contraire, le destin des pions chargés dépend de deux processus en compétition: interactions hadroniques avec les noyaux de l'atmosphère et désintégrations faibles en une paire muon-neutrino. Les échelles qui gouvernent ces deux processus sont différentes: la section efficace d'interaction ne dépend que peu de l'énergie mais le taux d'interaction dépend de la pression atmosphérique, c'est-à- dire de l'altitude; au contraire, le taux de désintégration est indépendant de l'altitude mais inversement proportionnel à l'énergie à cause de la dilatation de Lorentz. La méthode itérative utilisée avec tant d'efficacité pour la composante électromagnétique, pour laquelle la longueur de radiation est la seule échelle pertinente, n'est plus praticable. Le problème essentiel de l'extrapolation des données d'accélérateurs aux grandes gerbes d'UHECRs n'est pas tant l'énergie que la rapidité. De fait, 20 EeV dans le laboratoire correspondent à 200 TeV dans le centre de masse, seulement deux ordres de grandeur au dessus des énergies du Tevatron et un seul au dessus des énergies du LHC. La lente évolution de la physique hadronique en raison directe du logarithme de l'énergie rend peu probable qu'une extrapolation des données des collisionneurs vers les énergies des UHECRs soit grossièrement erronée. Par contre, en termes de rapidité, les gerbes UHECR sont dominées par la production vers l'avant, une région inaccessible aux collisionneurs. En particulier, il n'existe aucune mesure précise des inélasticités et de la forme du front avant du plateau de rapidité, toutes deux essentielles au développement des gerbes UHECR. Le modèle développé dans la thèse fait de l'inélasticité un paramètre ajustable et la forme du plateau de rapidité est accessible de façon transparente. Une attention particulière est consacrée aux caractéristiques de la gerbe qui permettent l'identification de la nature des primaires, noyaux de fer ou protons. Ceci concerne essentiellement la première interaction: une fois que le noyau primaire a interagi, le développement de la gerbe ne met plus en jeu que des interactions nucléon-air ou méson-air. Là encore, il n'existe pas de données de collisionneurs permettant de décrire les interactions de noyaux et de pions avec l'atmosphère dans le domaine d'énergie qui nous intéresse. Le modèle utilisé ici permet un accès facile et transparent aux paramètres pertinents. La présentation qui est donnée du modèle limite ses ambitions à en décrire les traits essentiels, laissant pour une phase ultérieure l'étude de la densité des muons au sol. L'accent est mis sur le développement de ce nouvel outil et sur son adéquation aux problèmes qu'il entend aborder mais son utilisation dépasse le cadre de la thèse et fera l'objet d'études ultérieures.
|
18 |
Des signaux radio aux rayons cosmiquesRivière, Colas 17 December 2009 (has links) (PDF)
La radiodétection des rayon cosmiques de haute énergie est actuellement l'objet d'une intense activité de recherche, tant sur le plan expérimental que théorique. La problématique actuelle est de savoir si elle représente une technique compétitive par rapport à ou en complément des techniques de détection classiques; aussi bien afin de couvrir les surfaces permettant d'accumuler de la statistique aux plus hautes énergies (autours de 10^20 eV -- là où l'astronomie des particules deviendrait possible) que de caractériser précisément le rayonnement cosmique à des énergies plus modérées (quelques 10^18 eV). Au cours de ce travail, nous avons tenté de nous approcher de la réponse à cette question, grâce à des modélisations de l'émission radio, à l'analyse de données expérimentales et en préparant les détecteurs à venir. Au niveau modélisation, l'émission géosynchrotron des particules des gerbes a été abordée analytiquement en utilisant un modèle de gerbe simplifiée et d'autre part avec la simulation Monte Carlo AIRES pour obtenir un développement de gerbe réaliste. Différentes dépendances du champ électrique ont été extraite, dont une proportionnalité du champ avec le vecteur -v*B sous certaines conditions. Expérimentalement, l'analyse des données du détecteur CODALEMA a permis de mieux caractériser le champ électrique produit par les gerbes, avec notamment la topologie de la distribution du champ au sol, la dépendance avec l'énergie et un champ compatible avec une proportionnalité avec -v*B. Ces différents résultats sont regroupé sous la forme d'une formule générale du champ. Davantage de données sont probablement nécessaires avant de statuer définitivement sur l'intérêt de la radiodétection. La formule obtenue grâce à CODALEMA a finalement été utilisée pour extrapoler les résultats de CODALEMA a un futur grand réseau, résultat appliqué notamment au détecteur AERA de l'Observatoire Pierre Auger.
|
19 |
De la mesure des champs électriques par l'expérience CODALEMA aux caractéristiques des rayons cosmiques.Valcares, S. 30 September 2008 (has links) (PDF)
La thèse s'intéresse à l'étude des rayons cosmiques de très hautes énergies qui lorsqu'ils pénètrent l'atmosphère terrestre dissipent leur énergie en produisant une multitude de particules secondaires, cet ensemble étant appelé une gerbe atmosphérique. L'expérience CODALEMA permet l'étude de l'émission radioélectrique des gerbes atmosphériques, au moyen d'antennes dans le domaine de fréquences de 1 à 100 MHz. Nous avons étudié dans un premier temps certaines questions concernant le calcul du champ électrique à partir des caractéristiques de la gerbe dans le but de dégager les effets prépondérants dans la génération du signal radio. Nous avons ensuite examiné comment exploiter une méthode de prédiction linéaire pour permettre la détection des transitoires associés aux gerbes dans l'environnement radioélectrique bruité dans la gamme de fréquence où l'expérience est menée. Nous avons enfin examiné comment les signaux récoltés permettent d'étudier le mécanisme d'émission du champ électrique par les gerbes. Ce travail d'analyse permet de faire un pont entre les deux premières études.
|
20 |
Défiabilisation des composants nanoélectroniques par des éléments radioactifs naturels / Effect of natural radioactive elements on nanoelectronics devicesKaouache, Abdelhakim 18 December 2014 (has links)
La miniaturisation croissante des transistors MOS a rendu les mémoires RAM de plus en plus sensibles aux particules alpha émises par les éléments radioactifs naturellement présents dans les matériaux utilisés dans la fabrication de ces mémoires. En effet, au niveau du sol, le taux d'erreurs logiques déclenchées par ces particules est comparable à celui déclenché par les neutrons issus du rayonnement cosmique. L'objectif principal de ce travail de thèse est la mise au point de méthodes d'évaluation de ce taux et permettre par la suite de proposer des solutions technologiques. Ainsi, dans le cadre d'une approche théorique, nous avons développé des modèles permettant d'évaluer le taux des erreurs logiques déclenchées par les chaines de l'uranium et du thorium dans un état d'équilibre séculaire mais aussi de déséquilibre. Ceci passe par une identification des radioéléments critiques, c'est-à-dire ceux qui sont capables d'augmenter l'émissivité (et ainsi le taux d'erreurs d'aléas logiques) à des niveaux inacceptables pendant la durée de vie du composant. La prise en compte de l'état de déséquilibre des chaines de désintégration radioactive dans ce volet théorique permet une approche réaliste de la contamination. Nous avons également proposé une méthode expérimentale pour analyser l'évolution de l'état radioactif dans les matériaux utilisés dans la fabrication des mémoires. Dans cette approche expérimentale, nous avons combiné trois techniques de mesure complémentaires: la spectroscopie alpha, la spectroscopie gamma et l'ICPMS. / The increasing miniaturisation of MOS transistors has made RAM memories more and more sensitive to alpha particles emitted by radioactive elements naturally present in the materials used for memory fabrication. Indeed, at ground level, the soft error rate triggered by these particles is comparable to that triggered by neutrons from cosmic rays. The main purpose of this work aims to develop methods to evaluate this rate allowing thereafter suggesting technologies mitigations. Thus, in the context of a theoretical approach, we have developed models to estimate soft errors rate triggered by uranium and thorium chains in secular equilibrium but also disequilibrium state. This requires identification of critical radionuclides those are able to increase the emissivity (and thus the soft error rate) to unacceptable levels during device lifetime. Taking into account disequilibrium state of decay chains in theoretical study provides a realistic approach to the contamination. We have also proposed an experimental method to analyze the radioactive state evolution in materials used for memory fabrication. In this experimental approach, we have combined three complementary measurement techniques: alpha spectroscopy, gamma spectroscopy and ICPMS.
|
Page generated in 0.0678 seconds