Spelling suggestions: "subject:"efficace""
21 |
Sections efficaces totales d'une molécule diatomique dans l'approximation de Born-OppenheimerJecko, Thierry 14 October 1996 (has links) (PDF)
Dans ce travail, on considère des molécules diatomiques dans la limite de Born-Oppenheimer (i.e. lorsque le rapport masse électronique/masse nucléique tend vers 0) et on considère une approximation adiabatique qui prend en compte plusieurs niveaux électroniques. On suppose l'absence de croisement de ces niveaux. Dans ce cadre, on établit une estimation semi-classique de résolvante et on en déduit l'asymptotique semi-classique de sections efficaces totales.
|
22 |
Modélisation et analyse des étapes de simulation des émetteurs de positons générés lors des traitements en protonthérapie - du faisceau à la caméra TEP - pour le suivi des irradiationsVan Ngoc Ty, Claire 19 December 2012 (has links) (PDF)
La protonthérapie est une technique innovante de traitement des cancers dans les zones critiques, telles que les yeux ou la base du crâne. Même si le phénomène physique d'interactions des protons dans les tissus est bien connu et présente des avantages pour la protonthérapie, il existe des incertitudes sur le parcours des protons liées aux hétérogénéités des tissus traversés en situation clinique et liées au calcul des paramètres du faisceau dans le planning de traitement qui contrebalancent les avantages théoriques des protons pour la délivrance de la dose. Des méthodes de contrôle de qualité de l'irradiation ont donc été proposées. La plupart reposent sur l'exploitation de la cartographie des émetteurs de positons générés lors de l'irradiation. Ceux-ci peuvent être détectés et quantifiés à l'aide de la tomographie par émission de positons (TEP), une technique d'imagerie médicale utilisée principalement pour établir le bilan d'extension des cancers par imagerie. Des acquisitions TEP ont donc été proposées et validées sur des fantômes et chez des patients après protonthérapie pour le contrôle du parcours des protons. Le contrôle s'effectue en comparant la distribution radioactive mesurée en TEP et la distribution β+ simulée. La simulation de l'activité positronique générée par les protons dans le milieu traversé peut être décomposée en plusieurs étapes : une étape de simulation du faisceau de protons, une étape de modélisation des interactions des protons dans l'objet irradié et une étape d'acquisition TEP. Différentes modélisations de ces étapes sont possibles. Au cours de cette thèse, nous avons proposé plusieurs modélisations pour les 3 étapes et nous avons évalué l'apport pour la qualité du contrôle de l'irradiation. Nous avons restreint notre évaluation à la vérification du parcours des protons. Ce travail de thèse s'appuie sur des irradiations en milieu homogène et inhomogène (dans un modèle de tête) réalisé au centre de protonthérapie d'Orsay. Les objets irradiés ont été transportés dans le Service Hospitalier Frédéric Joliot pour l'acquisition TEP. Nous avons comparé l'incertitude sur le parcours des protons à partir des modélisations de la distribution β+ obtenues : 1) En modélisant l'irradiation par un faisceau de protons sous une forme simplifiée et par simulation Monte Carlo. En modélisant la production des émetteurs β+ dans les tissus par simulation Monte Carlo avec le logiciel GEANT4 en incluant les modèles de physiques des versions 9.2 et 9.4 et en utilisant des sections efficaces ; 2) En modélisant l'acquisition TEP avec une modélisation simplifiée et une modélisation Monte Carlo de l'acquisition par la caméra TEP ; 3) Les résultats montrent qu'une modélisation simplifiée du faisceau n'affecte pas l'estimation du parcours des protons. La modélisation Monte-Carlo de la caméra permet de mieux modéliser le bruit présent dans le signal TEP mesuré en milieu homogène. Des résultats préliminaires de la modélisation de la caméra TEP sont présentés dans un modèle de tête (inhomogène). En conclusion, une modélisation simplifiée de la caméra TEP permet d'évaluer le parcours des protons en milieu homogène à 1 mm près, qui est équivalent à la reproductibilité de la mesure TEP post-irradiation telle qu'elle est mesurée par Knopf et al. (2008).
|
23 |
DEFINITION ET MISE AU POINT D'UNE SONDE MINI-SAOZ POUR L'ETUDE DE L'IMPACT DES ORAGES TROPICAUX SUR LA COMPOSITION CHIMIQUE DE LA STRATOSPHEREVicomte, Marie 07 May 2013 (has links) (PDF)
Les overshoots convectifs sont des phénomènes connus depuis longtemps au-dessus des continents tropicaux. Ils sont soupçonnés d'être une source majeure dans la basse stratosphère des espèces à courte durée de vie de la troposphère, de l'humidification par injection de cristaux de glace, et de NOx formés par la foudre. Cependant les mesures dans ces systèmes convectifs n'est pas une tâche facile. Le mini-SAOZ est un spectromètre UV-Visible développé au LATMOS depuis 2009 avec une technologie avancée. Il est conçu pour les mesures des profils atmosphériques des espèces chimiques mineures (O3, H2O, NO2, O2, O4, BrO, OClO, CH2O) par occultation solaire. Ses nouvelles performances et son faible poids permettent de l'intégrer sous de petits ballons pour étudier la convection tropicale. Deux vols d'essai ont été réalisés à Kiruna en 2010 et 2011 avec le soutien du CNES. Les résultats de l'analyse spectrale et les différents problèmes rencontrés lors de ces vols ont permis de nettes améliorations de la sonde afin qu'elle soit qualifiée pour les vols suivants aux tropiques. Deux vols du mini-SAOZ ont été opérés au cours de la campagne TRO-pico, en 2012, dont l'objectif était de mieux comprendre l'impact de la convection tropicale sur la composition chimique stratosphérique. Les comparaisons avec d'autres instruments valident les performances du mini-SAOZ. Cependant, les mesures obtenues au cours de cette thèse n'ont pas encore permis de montrer avec certitude les mécanismes liés à la convection tropicale.
|
24 |
Photodissociation de l'ozone : sélectivité isotopiqueNdengue, Steve 16 December 2011 (has links) (PDF)
L'anomalie isotopique de l'ozone observée au début des années 1980 a été la première manifestation de fractionnement isotopique indépendant de la masse d'origine chimique. Attribuée au départ, essentiellement au processus de formation de l'ozone, les travaux récents mettent en évidence d'autres contributions telles que la photodissociation. Cette thèse utilise une approche théorique basée sur des calculs ab initio de chimie et dynamique quantique pour déterminer les sections efficaces d'absorption et leurs variations isotopiques. Ces sections efficaces permettent d'étudier la photodissociation de l'ozone par irradiation du soleil (flux actinique) ; ce qui permet une évaluation précise du processus de photodissociation à l'enrichissement isotopique de l'ozone. Ces résultats pourront être intégrés dans un modèle global prenant en compte à la fois les processus de formation et de destruction de l'ozone.
|
25 |
PROCESSUS ÉLÉMENTAIRES DE NUCLÉATION : UN OUTIL POUR L'ÉTUDE DES TRANSITIONS DE PHASES DANS LES AGRÉGATSChirot, Fabien 21 September 2007 (has links) (PDF)
"Que peut-on apprendre en collant des atomes sur des agrégats ?". Le travail présenté ici répond (partiellement) à cette question. Grâce à un dispositif expérimental original, nous pouvons contrôler les réactions de collage entre un atome et un agrégat libre, sélectionné en masse et thermalisé. Cela nous permet mesurer des sections efficaces absolues pour ces réactions de collage. Nous montrons que, dans le cas d'agrégats de sodium, la section efficace mesurée suit une loi différente de celle prévue par le modèle géométrique généralement utilisé : le modèle de sphères dures. Nous expliquons en partie cette différence dans le cadre d'un modèle de harponnage et nous discutons l'influence de cette loi d'échelle non-géométrique sur la description des processus de nucléation et dans le cadre des théories<br />microréversibles décrivant l'évaporation des agrégats.<br />La maîtrise de réactions de collage ouvre d'autre part la possibilité de réaliser des expériences de nanocalorimétrie et donc de caractériser des transitions de phase dans les agrégats. Nous montrons en effet qu'il est possible de déterminer la capacité calorifique d'un agrégat en comptant simplement le nombre d'atomes que l'on peut coller dessus.<br />La méthode de mesure qui en découle s'avère au moins aussi précise que les deux autres méthodes existantes. Dans le cas des agrégats de sodium, nous pouvons ainsi mesurer les températures et chaleurs latentes de fusion pour des agrégats aussi petits que Na30+. Les résultats obtenus sont discutés dans le cadre d'un modèle à deux niveaux pour la fusion.
|
26 |
Étude formelle d'algorithmes efficaces en algèbre linéaireDénès, Maxime 20 November 2013 (has links) (PDF)
Les méthodes formelles ont atteint un degré de maturité conduisant à la conception de systèmes de preuves généralistes, permettant à la fois de vérifier la correction de systèmes logiciels complexes ou de formaliser des mathématiques avancées. Mais souvent, l'accent est mis davantage sur la facilité du raisonnement sur les programmes plutôt que sur leur exécution efficace. L'antagonisme entre ces deux aspects est particulièrement sensible pour les algorithmes de calcul formel, dont la correction repose habituellement sur des concepts mathématiques élaborés, mais dont l'efficacité pratique est une préoccupation importante. Cette thèse développe des approches à l'étude formelle et l'exécution efficace de programmes en théorie des types, et plus précisément dans l'assistant à la preuve \coq{}. Dans un premier temps, nous présentons un environnement d'exécution permettant de compiler en code natif de tels programmes tout en conservant la généralité et l'expressivité du formalisme. Puis, nous nous intéressons aux représentations de données et plus particulièrement au lien formellement vérifié et automatisé entre représentations adaptées aux preuves ou au calcul. Ensuite, nous mettons à profit ces techniques pour l'étude d'algorithmes en algèbre linéaire, comme le produit matriciel de Strassen, le procédé d'élimination de Gauss ou la mise en forme canonique de matrices, dont notamment la forme de Smith pour les matrices sur un anneau euclidien. Enfin, nous ouvrons le champ des applications à la formalisation et au calcul certifié des groupes d'homologie de complexes simpliciaux issus d'images numériques.
|
27 |
Contribution à l’évaluation des incertitudes sur les sections efficaces neutroniques, pour les réacteurs à neutrons rapides / Contribution to uncertainties evaluation for fast reactors neutronic cross sectionsPrivas, Edwin 28 September 2015 (has links)
La thèse a essentiellement été motivée par la volonté croissante de maîtriser les incertitudes des données nucléaires, pour des raisons de sûreté nucléaire. Elle vise en particulier les sections efficaces indispensables aux calculs neutroniques des réacteurs rapides au sodium de Génération IV (RNR-Na), et les moyens permettant de les évaluer.Le principal objectif de la thèse est de fournir et montrer l’intérêt de nouveaux outils permettant de réaliser des évaluations cohérentes, avec des incertitudes maîtrisées et fiables. Pour répondre aux attentes, différentes méthodes ont été implémentées dans le cadre du code CONRAD, développé au CEA de Cadarache, au Département d’Étude des Réacteurs.Après l’état des lieux et la présentation des différents éléments nécessaires pour effectuer une évaluation, il est présenté des résolutions stochastiques de l’inférence Bayésienne. Elles permettent de fournir d’une part, des informations supplémentaires à l’évaluateur par rapport à la résolution analytique et d’autre part, de valider cette dernière. Les algorithmes ont été testés avec succès à travers plusieurs cas, malgré des temps de calcul plus longs faute aux méthodes de type Monte Carlo.Ensuite, ce travail a rendu possible, dans CONRAD, de prendre en compte des contraintes dites microscopiques. Elles sont définies par l’ajout ou le traitement d’informations additionnelles par rapport à l’évaluation traditionnelle. Il a été développé un algorithme basé sur le formalisme des multiplicateurs de Lagrange pour résoudre les problèmes de continuité entre deux domaines en énergies traitées par deux théories différentes. De plus, d’autres approches sont présentées, avec notamment l’utilisation de la marginalisation, permettant soit de compléter une évaluation existante en ajoutant des matrices de covariance, soit de considérer une incertitude systématique pour une expérience décrite par deux théories. Le bon fonctionnement des différentes méthodes implémentées est illustré par des exemples, dont celui de la section efficace totale de l’238U.Enfin, les dernières parties de la thèse se focalisent sur le retour des expériences intégrales, par méthodes d’assimilation de données intégrales. Cela permet de réduire les incertitudes sur les sections efficaces d’intérêt pour les réacteurs rapides. Ce document se clôt par la présentation de quelques résultats clefs sur les sections efficaces de l’238U et du 239Pu, avec la considération d’expériences comme PROFIL et PROFIL-2 dans Phénix ou encore Jezebel. / The thesis has been motivated by a wish to increase the uncertainty knowledge on nuclear data, for safety criteria. It aims the cross sections required by core calculation for sodium fast reactors (SFR), and new tools to evaluate its.The main objective of this work is to provide new tools in order to create coherent evaluated files, with reliable and mastered uncertainties. To answer those problematic, several methods have been implemented within the CONRAD code, which is developed at CEA of Cadarache.After a summary of all the elements required to understand the evaluation world, stochastic methods are presented in order to solve the Bayesian inference. They give the evaluator more information about probability density and they also can be used as validation tools. The algorithms have been successfully tested, despite long calculation time.Then, microscopic constraints have been implemented in CONRAD. They are defined as new information that should be taken into account during the evaluation process. An algorithm has been developed in order to solve, for example, continuity issues between two energy domains, with the Lagrange multiplier formalism. Another method is given by using a marginalization procedure, in order to either complete an existing evaluation with new covariance or add systematic uncertainty on an experiment described by two theories. The algorithms are well performed along examples, such the 238U total cross section.The last parts focus on the integral data feedback, using methods of integral data assimilation to reduce the uncertainties on cross sections. This work ends with uncertainty reduction on key nuclear reactions, such the capture and fission cross sections of 238U and 239Pu, thanks to PROFIL and PROFIL-2 experiments in Phénix and the Jezebel benchmark.
|
28 |
Contribution à l'amélioration des données nucléaires neutroniques du sodium pour le calcul des réacteurs de génération IV / Improvement of Sodium Neutronic Nuclear Data for the Computation of Generation IV ReactorsArchier, Pascal 14 September 2011 (has links)
Les critères de sûreté exigés pour les réacteurs rapides au sodium de Generation IV (RNR-Na) se traduisent par la nécessité d'incertitudes réduites et maîtrisées sur les grandeurs neutroniques d'intérêt. Une part de ces incertitudes provient des données nucléaires et, dans le cas des RNR-Na, des données nucléaires du sodium, qui présentent des différences significatives entre les bibliothèques internationales (JEFF-3.1.1, ENDF/B-VII.0, JENDL-4.0). L'objectif de cette thèse est d'améliorer la connaissance sur les données nucléaires du sodium afin de mieux calculer les paramètres neutroniques des RNR-Na et fournir des incertitudes fiables. Après un état des lieux des présentes données du Na23, l'impact des différences est quantifié notamment sur les effets en réactivité de vidange du sodium, calculés avec des outils neutroniques déterministe et stochastique. Les résultats montrent qu'il est nécessaire de ré-évaluer entièrement les données nucléaires du sodium. Plusieurs développements ont été effectués dans le code d'évaluation Conrad, pour intégrer de nouveaux modèles de réactions nucléaires et leurs paramètres ainsi que pour permettre de procéder à des ajustements avec des mesures intégrales. Suite à ces développements, l'analyse des données différentielles et la propagation des incertitudes expérimentales avec Conrad ont été réalisées. Le domaine des résonances résolues a été étendu à 2 MeV et le domaine du continuum débute directement au-delà de cette énergie. Une nouvelle évaluation du Na23 et les matrices de covariances multigroupes associées ont été générées pour de futurs calculs d'incertitudes. La dernière partie de la thèse se focalise sur le retour des expériences intégrales de vidange du sodium, par des méthodes d'assimilation de données intégrales, afin de réduire les incertitudes sur les sections efficaces du sodium. Ce document se clôt sur des calculs d'incertitudes pour des RNR-Na de type industriel, qui montrent une meilleure prédiction de leurs paramètres neutroniques avec la nouvelle évaluation. / The safety criteria to be met for Generation IV sodium fast reactors (SFR) require reduced and mastered uncertainties on neutronic quantities of interest. Part of these uncertainties come from nuclear data and, in the particular case of SFR, from sodium nuclear data, which show significant differences between available international libraries (JEFF-3.1.1, ENDF/B-VII.0, JENDL-4.0). The objective of this work is to improve the knowledge on sodium nuclear data for a better calculation of SFR neutronic parameters and reliable associated uncertainties. After an overview of existing Na23 data, the impact of the differences is quantified, particularly on sodium void reactivity effets, with both deterministic and stochastic neutronic codes. Results show that it is necessary to completely re-evaluate sodium nuclear data. Several developments have been made in the evaluation code Conrad, to integrate new nuclear reactions models and their associated parameters and to perform adjustments with integral measurements. Following these developments, the analysis of differential data and the experimental uncertainties propagation have been performed with Conrad. The resolved resonances range has been extended up to 2 MeV and the continuum range begins directly beyond this energy. A new Na23 evaluation and the associated multigroup covariances matrices were generated for future uncertainties calculations. The last part of this work focuses on the sodium void integral data feedback, using methods of integral data assimilation to reduce the uncertainties on sodium cross sections. This work ends with uncertainty calculations for industrial-like SFR, which show an improved prediction of their neutronic parameters with the new evaluation.
|
29 |
Etude de la fragmentation lors de la réaction 12C+12C à 95 MeV/n et 400MeV/n dans le cadre de la hadronthérapie / Study of fragmentation cross-sections for 12C+12C reaction at 95 MeV/u and 400 MeV/u for hadrontherapyJuliani, Didier 11 September 2013 (has links)
La hadronthérapie est une méthode de radiothérapie utilisant des ions (ici le carbone) comme faisceau plutôt que des rayons X plus conventionnels pour le traitement des cancers. Étant donné le parcours spécifique des ions dans la matière, ils permettent de traiter des tumeurs profondes dans des zones délicates telles que le cerveau par exemple. Ceci est complémentaire à tout ce qui existe depuis des dizaines d’années (intervention chirurgicale, rayons X, chimiothérapie). Deux futurs centres de traitement et de recherche (ARCHADE à Caen et ETOILE à Lyon) seront opérationnels en France à partir de 2018 en ce qui concerne ARCHADE afin de profiter des avancées récentes et de poursuivre les recherches sur cette méthode. La perte d’énergie des ions carbone dans la matière suit la loi de Bethe-Bloch, le maximum de dépôt d’énergie se situant dans une zone restreinte appelée « pic de Bragg ». En modulant la position et l’énergie du faisceau, il est possible d’irradier l’ensemble du volume de la tumeur. Cependant, les réactions nucléaires de l’ion carbone dans les tissus entrainent la production de fragments plus légers (H, He, Li etc.) qui déposent leur énergie au-delà du pic de Bragg. Les modèles implémentés dans les codes de simulation couramment utilisés en hadronthérapie (FLUKA, GEANT4 etc.) sont incapables de reproduire en même temps les distributions angulaires des fragments générés ainsi que les distributions en énergie. Le fait de ne pas reproduire fidèlement ce phénomène de fragmentation nuit à la précision des systèmes de planification de traitement utilisés cliniquement. En effet, une mauvaise estimation du processus de fragmentation entraine un biais dans le calcul de la dose déposée dans les cellules saines en arrière du pic de Bragg. Ainsi, afin de mieux contraindre les modèles, deux expériences de mesure de sections efficaces de fragmentation du carbone ont été menées. La première en mai 2011 avec un faisceau à 95MeV/n au GANIL à CAEN avec les collaborateurs du LPC Caen et la seconde en août 2011 avec un faisceau à 400 MeV/n au GSI à Darmstadt, avec la collaboration FIRST. L’expérience E600 étudie la fragmentation des ions du faisceau de carbone à 95 MeV/n dans différentes cibles minces (Au, C, , Ti etc.) correspondant aux différents constituants élémentaires du corps humain. Les différents fragments sont détectés à l’aide de cinq télescopes. Chacun d’eux est constitué de 3 étages (2 détecteurs silicium et un scintillateur CsI) afin de faire des mesures de perte d’énergie et d’énergie totale permettant une identification par la méthode du ΔE-E. Ces télescopes étaient disposés sur des raquettes pilotées à distance afin de pouvoir modifier leur position angulaire par rapport à la position de la cible. Ainsi, les taux de production des différents fragments permettent de remonter aux sections efficaces de fragmentation doublement différentielles (en énergie et en angle). [...] / The hadrontherapy is a radiotherapy method using ions (carbon ions here) instead of the more conventional X-rays for cancer treatment. Deep radioresistant tumour areas, as brain carcinoma for example, can be treated thanks to the specific dosedeposition at the end of the ion path. This is an additional method to older classic ones (surgery, X-rays, chemotherapy). Two hadrontherapy centres for treatment and research are planned in France from 2018 (ARCHADE) in order to benefit from the newest progress and to keep improving this method. Carbon ions energy loss in the matter follows the Bethe-Bloch law. The maximum of energy depth is located in a limited area called “Bragg peak”. By adjusting the beam position and energy, the whole volume of the tumor can be irradiated. Nevertheless, nuclear reactions of carbon ion in tissues generate the production of lighter fragments (H, He, Li etc.) that deposit their energy beyond the Bragg peak. Models implemented in hadrontherapy simulation codes (FLUKA, GEANT4 etc.) cannot reproduce angular distributions of the lighter fragments and energy distributions at the same time. These poor estimations affect the treatment planning systems accuracy that are clinically used.Indeed, a bad estimation of fragmentation process induces a bias in the dose calculation concerning healthy cells beyond the Bragg peak. In order to better constraint models, two experiments based on fragmentation cross-sections measurements have been performed. The first one in may 2011 with a beam at 95 MeV/u (GANIL) in collaboration with the LPC Caen and the second one in august 2011 with a beam at 400 MeV/u (GSI) with the FIRST collaboration. E600 experiment is devoted to the study of carbon ions fragmentation at 95 MeV/u in several thin targets (Au, C, , Ti etc.) corresponding to the basic building blocks of human body. Five telescopes are designed for the fragments detection. Each one is a three-stage detector (2 silicon detectors and one CsI scintillator) that allows energy loss and total energy measurements for the ΔE-E identification method.Telescopes were disposed two by two in the reaction chamber with a remote control of the angular position. From the production rate measurements, the double differential fragmentation cross-sections (energy and angle) can be computed.From the experimental data for + reaction at 95 MeV/u on a 250 μm thick carbon target, all cross-sections were deduced.FIRST experiment uses a very different set-up. It is composed of: a beam monitoring, a vertex detector (CMOS), a calorimeter(KENTROS), a magnet (ALADIN), MUSIC (3 ionization chambers and 4 proportional counters) and a TOF-wall. Generated particles trajectory is reconstructed thanks to the vertex detector + TOF-wall for all fragments emitted with an angle lower than 5° and thanks to the vertex detector + KENTROS for higher angles. In the first case, the ALADIN magnet deflects the trajectory of the particles (MUSIC detector ran out). One 8 mm thick target has been used here. Preliminary results concerning production rates of the different charges, angular distributions and reconstruction efficiencies have been obtained. Heavier fragments mass identification is quite difficult because of the non-working MUSIC detector; it degrades the fragments momentumaccuracy.[...]
|
30 |
Study of the antihydrogen atom and ion production via charge exchange reaction on positronium / Étude de la production d'atomes et d'ions d'antihydrogène par réaction d'échange de charge avec du positroniumLatacz, Barbara Maria 24 September 2019 (has links)
Le but principal de la collaboration GBAR est de mesurer le comportement d'atomes d'antihydrogène sous l'effet de la gravité terrestre. Ceci est fait en mesurant la chute libre classique d'atomes d'antihydrogène, qui est un test direct du principe d'équivalence faible pour l'antimatière. La première étape de l'expérience est de produire des ions d'antihydrogène et de les amener dans un piège de Paul, où ils peuvent être refroidis à une température de l'ordre du μK en utilisant la technique du refroidissement sympathique avec des ions Be⁺ eux-mêmes mis dans leur état fondamental par la technique Raman à bande latérale. Une température de l'ordre du μK correspond à une vitesse de la particule de l'ordre de 1 m/s. Une fois cette vitesse atteinte, l'ion antihydrogène peut être neutralisé et commence sa chute. Ceci permet une précision de 1 % sur la mesure de l’accélération gravitationnelle g pour l’antimatière avec environ 1500 événements. Cependant, pour mesurer la chute libre, il faut d'abord produire l'ion antihydrogène. Celui-ci est formé dans les réactions d'échange de charge entre des antiprotons et des antihydrogènes avec du positronium. Positronium et atomes d'antihydrogène peut se trouver soit à l’état fondamental, soit dans un état excité. Une étude expérimentale de la mesure de la section efficace de ces deux réactions est décrite dans cette thèse. La production de l'atome d'antihydrogène ainsi que de l'ion se passe à l’intérieur d'une cavité. La formation d'un antihydrogène ion lors d'une interaction entre faisceaux requiert environ 5x10⁶ antiprotons/paquet et quelques 10¹¹ Ps/cm⁻³ de densité de positronium à l’intérieur d'une cavité. Celle-ci est produite par un faisceau contenant 5x10¹⁰ positrons par paquet. La production de faisceaux aussi intenses avec les propriétés requises est en soi un challenge. Le développement de la source de positrons de GBAR est décrite. Celle-ci est basée sur un accélérateur linéaire à électrons de 9 MeV. Le faisceau d’électrons est incident sur une cible de tungstène où les positrons sont créés par rayonnement de freinage (gammas) et création de paires. Une partie des positrons ainsi créés diffusent à nouveau dans un modérateur de tungstène en réduisant leur énergie à environ 3 eV. Ces particules sont re-accélérées à une énergie d'environ 53 eV. Aujourd'hui, le flux mesuré de positrons est au niveau de 6x10⁷ e⁺/s, soit quelques fois. Puis la thèse comporte une courte description des préparatifs pour les faisceaux d'antiprotons ou de protons, terminée par un chapitre sur le taux de production attendu d'atomes et d'ions d'antihydrogène. En aval de la réaction, les faisceaux d'antiprotons, d'atomes et d'ions d'antihydrogène sont guidés vers leur système de détection. Ceux-ci ont été conçus de façon à permettre la détection d'un à plusieurs milliers d'atomes d'antihydrogène, un seul ion antihydrogène et tous les 5x10⁶ antiprotons. Ceci est particulièrement difficile parce que l'annihilation des antiprotons crée beaucoup de particules secondaires qui peuvent perturber la mesure d'un atome ou ion. La majeure partie de la thèse consiste en la description des bruits de fond attendus pour la détection des atomes et ions d'antihydrogène. De plus, le système de détection permet de mesurer les sections efficaces pour les réactions symétriques de production d'atomes et d'ions hydrogèene par échange de charge entre protons et positronium. La partie production d’antihydrogène ions de l’expérience a été complètement installée au CERN en 2018. Les premiers tests avec des antiprotons provenant du décélérateur ELENA ont été effectués. Actuellement, l’expérience est testée avec des positrons et des protons, de façon à former des atomes et ions hydrogène. Une optimisation de la production de ces ions de matière aidera à se préparer pour la prochaine période de faisceau d'antiprotons en 2021. / The main goal of the GBAR collaboration is to measure the Gravitational Behaviour of Antihydrogen at Rest. It is done by measuring the classical free fall of neutral antihydrogen, which is a direct test of the weak equivalence principle for antimatter. The first step of the experiment is to produce the antihydrogen ion and catch it in a Paul trap, where it can be cooled to μK temperature using ground state Raman sideband sympathetic cooling. The μK temperature corresponds to particle velocity in the order of 1 m/s. Once such velocity is reached, the antihydrogen ion can be neutralised and starts to fall. This allows reaching 1 % precision on the measurement of the gravitational acceleration g for antimatter with about 1500 events. Later, it would be possible to reach 10⁻⁵ - 10⁻⁶ precision by measuring the gravitational quantum states of cold antihydrogen. However, in order to measure the free fall, firstly the antihydrogen ion has to be produced. It is formed in the charge exchange reactions between antiproton/antihydrogen and positronium. Positronium and antihydrogen atoms can be either in a ground state or in an excited state. An experimental study of the cross section measurement for these two reactions is described in the presented thesis. The antihydrogen atom and ion production takes place in a cavity. The formation of one antihydrogen ion in one beam crossing requires about 5x10⁶ antiprotons/bunch and a few 10¹¹ Ps/cm⁻³ positronium density inside the cavity, which is produced with a beam containing 5x10¹⁰ positrons per bunch. The production of such intense beams with required properties is a challenging task. First, the development of the positron source is described. The GBAR positron source is based on a 9 MeV linear electron accelerator. The relatively low energy was chosen to avoid activation of the environment. The electron beam is incident on a tungsten target where positrons are created from Bremsstrahlung radiation (gammas) through the pair creation process. Some of the created positrons undergo a further diffusion in the tungsten moderator reducing their energy to about 3 eV. The particles are re-accelerated to about 53 eV energy and are adiabatically transported to the next stage of the experiment. Presently, the measured positron flux is at the level of 6x10⁷ e⁺/s, which is a few times higher than intensities reached with radioactive sources. Then, the thesis features a short description of the antiproton/proton beam preparations, finalised with a chapter about the expected antihydrogen atom and ion production yield. After the reaction, antiproton, antihydrogen atom, and ion beams are guided to the detection system. It is made to allow for detection from 1 to a few thousand antihydrogen atoms, a single antihydrogen ion and all 5x10⁶ antiprotons. It is especially challenging because antiproton annihilation creates a lot of secondary particles which may disturb measurements of single antihydrogen atoms and ions. The main part of the Thesis is the description of the expected background for the antihydrogen atom and ion detection. Additionally, the detection system allows measuring the cross sections for the symmetric reactions of a hydrogen atom and ion production through charge exchange between protons and positronium. The antihydrogen ion production part of the experiment was fully installed at CERN in 2018. The first tests with antiprotons from the ELENA decelerator were done. Currently, the experiment is being commissioned with positrons and protons, in order to perform the hydrogen atom and ion formation. The optimisation of the ion production with matter will help to be fully prepared for the next antiproton beam time in 2021.
|
Page generated in 0.0638 seconds