Spelling suggestions: "subject:"matière sombreamento,"" "subject:"latière sombreamento,""
31 |
Detection directe et indirecte de matiere sombre supersymetriqueMayet, Frederic 21 September 2001 (has links) (PDF)
De nombreux arguments astrophysiques sont en faveur de l'existence de matière sombre non-baryonique dans l'Univers. Le neutralino, postulé par les extensions supersymétriques du modèle standard de la physique des particules, constitue l'un des candidats privilégiés à cette masse manquante. La détection de neutralinos peut être directe, par interaction dans le détecteur, ou indirecte, via la recherche des produits d'annihilation. Dans le cadre de la détection indirecte, le travail a été effectué au sein de la collaboration AMS dont la première phase a eu lieu en juin 1998 à bord de la navette Discovery. Le spectromètre AMS est équipé d'un détecteur Cherenkov à seuil (ATC) dont les performances ont été étudiées dans le but d'optimiser la sélection d'antiprotons. Le spectre de ces derniers peut en effet signer la présence de neutralinos. Une analyse des données antiprotons d'AMS est également présentée. Finalement, une étude phénoménologique permet d'évaluer le potentiel de découverte par cette méthode. D'autre part, cette thèse porte sur le développement d'un projet de nouveau détecteur (MACHe3) pour la détection directe de neutralinos. Il s'agit d'un bolomètre à He3 superfluide, fonctionnant à ultra-basses températures. L'analyse des données expérimentales de la cellule prototype est présentée. Afin d'optimiser la configuration du détecteur pour la détection directe, une simulation Monte Carlo a été développée, permettant d'évaluer ses performances futures. La confrontation de la simulation et des prédictions des modèles supersymétriques démontre le potentiel de découverte de MACHe3 et souligne sa complémentarité avec les détecteurs existants.
|
32 |
Propagation des rayons cosmique galactiques et détection indirecte de matière sombreDelahaye, Timur 07 July 2010 (has links) (PDF)
Cette thèse est dédiée à l'étude de la propagation des électrons et positrons cosmiques dans la Voie Lactée ainsi qu'à la détection indirecte de matière sombre. L'existence de la matière sombre dans l'Univers est une hypothèse raisonnable du point de vue de la cosmologie, de l'astrophysique mais également de la physique des particules. Pourtant sa détection nous échappe encore et il n'est pas possible de vérifier la validité de cette hypothèse autrement que par des moyens faisant intervenir la gravitation. L'une des voies possibles pour la détection de la matière sombre et la compréhension de ses propriétés, consiste à chercher les produits de son annihilation ou de sa désintégration dans les rayons cosmiques Galactiques. Durant ces trois dernières années, les données concernant les flux d'électrons et de positrons cosmiques se sont accumulées et ont atteint des précisions remarquables. Une telle précision expérimentale exige que l'on rafine les modèles théoriques et que l'on quantifie les erreurs. Cette thèse s'efforce donc de recenser et de quantifier toutes les sources d'incertitudes des prédictions de flux d'électrons et de positrons cosmiques, qu'ils soient primaires ou secondaires, classiques ou exotiques. La plus grande attention a été portée sur les sources et la propagation dans le halo Galactique. De plus, une étude des émissions gamma et radio associées à ces rayons cosmiques est présentée, toujours avec la même volonté de mesurer les incertitudes. Enfin, un état des lieux de la recherche de détection de l'annihilation ou de la désintégration de la matière sombre galactique est présenté.
|
33 |
Gamma-ray lines from the dark side of matter: model-independent approaches / Lignes gammas provenant de la matière noire: approches indépendantes de modèlesScarna, Tiziana 17 December 2014 (has links)
Lignes spectrales de rayons gammas provenants de la matière noire. <p>Approches indépendantes de modèles/ Gamma-Ray Lines from the Dark Side of Matter: Model-Independent Approaches<p><p> Cette thèse a pour thématique centrale la matière noire, et plus particulièrement un type de signal qu’elle pourrait émettre, à savoir des lignes spectrales de rayons gammas. La nature de la matière noire demeure mystérieuse, et ce que l’on sait de ses propriétés est exposé dans le premier chapitre. En particulier, la pertinence des lignes spectrales de rayons gammas dans l’étude de la matière noire est soulignée. Cette thèse est consacrée à l’étude des connexions possibles entre la phénoménologie de ce type de signal et d’autres manifestations, qu’il s’agisse de détection directe ou indirecte, ou bien de détection dans des collisionneurs tels que le LHC. Le but est d’établir la possibilité de discriminer différents modèles et/ou d’obtenir des contraintes indépendantes.<p>\ / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
|
34 |
Test et calibrations technologiques avec PICO-0.1 pour les futurs détecteurs de chambre à bulle de matière sombre de PICOChen, Simon 08 1900 (has links)
Parmi les douzaines d’expériences qui visent à découvrir la matière sombre, l’expérience de détection directe PICO utilise des détecteurs à liquide surchauffé comme moyen pour s’y prendre. La chambre à bulle PICO-40L remplie de C3F8, présentement située dans le laboratoire sous-terrain SNOLAB, est en cours de test en vue d’une recherche aveugle de WIMP (Weakly Interacting Massive Particle) d’une durée de 1 an. Pour assurer la stabilité du détecteur pendant les périodes de préparation et pendant l’acquisition de données, un logiciel de surveillance a été écrit. Un moyen fiable de surveiller les paramètres importants du détecteur et d’envoyer des alarmes en cas d’urgence joue un rôle important à non seulement au succès de PICO-40L, mais aussi au développement du futur détecteur PICO-500.
Située à l’Université de Montréal, la chambre à bulle PICO-0.1 a été conçue afin de calibrer les nombreux événements de fond qui se présentent dans ce type de détecteur. De plus, cette chambre à bulle a été utilisée comme première tentative au monde de mesurer la diffusion Thomson sur un noyau d’atome en exposant le détecteur rempli de C3F8 à une source de gamma produite par la réaction 19F proton à alpha et gamma 16O à l’aide d’un faisceau de protons crée par l’accélérateur de particules de l’Université de Montréal. Ce type d’interaction s’avérera à un événement de fond important pour les expériences de détection directe de matière sombre à bas seuil. / Amongst the dozens of experiments aiming to be the first to claim a dark matter signal, PICO is a direct dark matter detection experiment that utilizes superheated liquid detectors as a means of doing so. The latest C3F8 filled PICO-40L bubble chamber currently located in the SNOLAB underground laboratory is under testing to prepare for a 1 live-year blinded WIMP (Weakly Interacting Massive Particle) search. To ensure the stability of the detector during both the testing and the data acquisition phases, a monitoring software was coded. A reliable way to monitor all the parameters and to send alerts accordingly plays an important role in not only the success of PICO-40L, but also the development of the future larger-scale PICO-500 detector.
PICO-0.1 is a test bubble chamber located at the University of Montreal that was built to calibrate for the numerous background events that can occur in this kind of technology. This test chamber was also used as a world’s first attempt to measure the coherent (Thomson) photon scattering onto a nucleus by exposing the C3F8 filled detector to a gamma
source produced by the 19F proton to alpha and gamma 16O reaction using a proton beam created by the University of Montreal particle accelerator. This kind of interaction will prove to be a significant background for future sub-keV direct dark matter detection experiments.
|
35 |
Searching for dark matter with superheated liquid detectorsPlante, Arthur 09 1900 (has links)
No description available.
|
36 |
Dark matter: signs and genesis / Matière noire: signes et genèseLopez Honorez, Laura 26 June 2007 (has links)
<p align="justify">The success of Big Bang Nucleosynthesis (BBN) combined with the detailed analysis of the small imperfections of the Cosmic Microwave Background blackbody spectrum lead to the conclusion that most of the matter content of our universe is made of some non-baryonic material, the dark matter!</p><p><p><p align="justify">In this thesis, we review the compiling indications of dark matter and the so-called freeze-out mechanism which may settle the relic density of the species in the framework of the standard Big Bang model. We also examine principally two methods of detection of dark matter, direct and indirect detection searches.</p><p><p><p align="justify">Let us stress that the Standard Model on its own is unable to provide enough aspirants for the role of dark matter. As a consequence, one has to dig into the tremendous domain of physics "Beyond the Standard Model" in order to have a chance to elucidate the problem of the missing mass.</p><p><p><p align="justify">In this thesis in particular, we consider the Inert Doublet Model (IDM) which includes an additional Higgs doublet, enclosing two neutral scalars candidates for dark matter. We invoke the Standard freeze-out mechanism for the production of dark matter. We get then dark matter candidates in two rather separate mass ranges, one between 40 and 80 GeV, the other one between 400 GeV and 1 TeV. We also show that dark matter annihilation at the galactic center can be at the origin of a gamma-ray flux which can be probed by the future GLAST experiment.</p><p><p><p align="justify">We address a low reheating temperature scenario for the genesis of dark matter in a Left-Right symmetric extension of the Standard Model. The candidate for dark matter is a MeV right-handed neutrino and we show that a baryon-dark matter interaction at the galactic center can be the source of the low energy positrons responsible for the 511 keV gamma-ray excess observed by the INTEGRAL experiment in the galactic bulge region.</p><p><p><p align="justify">Finally, prompted by the possibility to explain the baryon and dark matter rather similar abundances by one single "Matter Genesis" mechanism, we study a non-thermal production mechanism for dark matter. The framework is also Left-Right symmetric and dark candidate is a ~3 GeV right handed neutrino.</p> <p><p> / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
|
37 |
Radon-induced surface contaminations in neutrinoless double beta decay and dark matter experimentsPattavina, Luca 17 January 2011 (has links)
Pas de résumé en français / In experiments looking for rare events, like neutrinoless double beta decay (DBD0v) and dark matter search (DM), one of the main issues is to increase the experimental sensitivity through the material selection and production. In the specific the background contribution coming from the materials used for the detector realization has to be minimized. Moreover the net reduction of the background produced by the bulk part of the apparatus has raised concerns about the background contribution coming from the surfaces. Many procedures and techniques were developed during the last years in order to remove and to minimize the presence of possible contaminants on detector surfaces. To succeed in this strategy a big effort was put in defining all possible mechanisms that lead to surface contaminations, as well as specific cleaning procedures, which are able to reduce and control the surface radioactivity. The presence in air and gases of possible radioactive elements that can stick on the detector surfaces can lead to a recontamination process that will vanish all the applied cleaning procedures. Here is presented and analyzed the contribution to the background of rare events experiments like CUORE (DBD0v) and EDELWEISS (DM) produced by an exposure of their detector components to a big activity of 222Rn, radioactive daughter isotope from the 238U chain
|
38 |
Position measurement of the superCDMS HVeV detector and implementation of an importance sampling algorithm in the superCDMS simulation softwarePedreros, David S. 03 1900 (has links)
La matière sombre est considérée comme l'un des plus grands mystères dans la cosmologie moderne. En effet, on peut dire que l’on connaît plus sur ce que la matière sombre n'est pas que sur sa vraie nature. La collaboration SuperCDMS travaille sans répit pour réussir à faire la première détection directe de la matière sombre. À cet effet, la collaboration a eu recours à plusieurs expériences et simulations à diverses échelles, pouvant aller de l'usage d'un seul détecteur semi-conducteur, jusqu'à la création d'expériences à grande échelle qui cherchent à faire cette première détection directe de la matière sombre. Dans ce texte, on verra différentes méthodes pour nous aider à mieux comprendre les erreurs systématiques liées à la position du détecteur utilisé dans le cadre des expériences IMPACT@TUNL et IMPACT@MTL, soit l'usage des simulations et de la radiologie industrielle respectivement. On verra aussi comment l'implémentation de la méthode de réduction de variance connue comme échantillonnage préférentiel, peut aider à améliorer l'exécution des simulations de l'expérience à grande échelle planifiée pour le laboratoire canadien SNOLAB. En outre, on verra comment l'échantillonnage préférentiel s'avère utile non seulement pour mieux profiter des ressources disponibles pour la collaboration, mais aussi pour avoir une meilleure compréhension des source de bruits de fond qui seront présentes à SNOLAB, tels que les signaux générés par la désintégration radioactive de divers isotopes. / Dark matter is one of the biggest mysteries of modern-day cosmology. Simply put, we know much more about what it is not, rather than what it actually is. The SuperCDMS collaboration works relentlessly toward making the first direct detection of this type of matter. To this effect, multiple experiments and simulations have been performed, ranging from small-scale testing of the detectors to large-scale, long-term experiments, looking for the actual detection of dark matter. In this work, I will analyze different methods to help understand the systematic errors linked to detector position in regard to the small-scale experiments IMPACT@TUNL and IMPACT@MTL, through simulation and industrial radiography respectively. We will also see how the implementation of the variance reduction method known as importance sampling can be used to improve the simulation performance of the large-scale experiment in the Canadian laboratory SNOLAB. Additionally, we will see how this method can provide not only better management of the computing resources available to the collaboration, but also how it can be used to better the understanding of the background noises, such as the signals generated by radioactive decay of different isotopes, that will be present at SNOLAB.
|
39 |
Accélération du lentillage gravitationnel à plans multiples par apprentissage profondWilson, Charles 04 1900 (has links)
Le "modèle standard" actuel de la cosmologie est celui de ΛCDM, décrivant un Univers en expansion
accélérée ainsi qu’une structure de matière sombre froide formée en halos, sur lesquels s’assemblent
les galaxies. Malgré les nombreuses confirmations observationnelles de ses prédictions, il existe
d’importantes tensions entre les mesures de la distribution de structure sombre aux petites échelles
de l’Univers et ce qui serait attendu de ΛCDM. Cependant, ces halos légers de matière sombre,
qui sont prédit d’abonder à travers le cosmos, n’hébergent pas de galaxies lumineuses et sont donc
très difficiles à observer directement. Leur présence peut toutefois être détectée dans les lentilles
gravitationnelles fortes de type galaxie-galaxie, un phénomène se produisant lorsque la lumière
d’une galaxie d’arrière-plan est fortement déviée par le champ gravitationnel d’une galaxie d’avantplan, formant des images multiples et des arcs étendus. Les halos distribués en ligne de visée de
tels systèmes, ainsi que ceux imbriqués dans la galaxie lentille, peuvent causer des perturbations
gravitationnelles dans les images de galaxies lentillées. La détection de ces effets infimes dans des
observations de lentilles gravitationnelles est faite par des méthodes statistiques Bayésiennes, qui
nécéssitent des centaines de milliers de simulations de la contribution de ces perturbateurs à la
déflexion de la lumière. Traditionnellement, la modélisation du lentillage par les halos en ligne de
visée s’est faite avec le formalisme du lentillage à plans multiples, qui souffre d’une nature récursive
peu efficace. De plus, il est prédit par le modèle ΛCDM que la majorité des systèmes de lentilles
gravitationnelles comporteraient davantage de halos en ligne de visée que de sous-halos imbriqués
dans la galaxie lentille, motivant une modélisation détaillée des effets de ligne de visée. Dans un
contexte d’analyse Bayésienne, l’approche du lentillage à plans multiples représente une échelle de
temps de plusieurs jours pour l’analyse d’un seul système. En considérant que des grands relevés
du ciel comme ceux de l’Observatoire Vera Rubin et du télescope spatial Euclid sont projetés de
découvrir des centaines de milliers de lentilles gravitationnelles, l’effort de contraindre la distribution
de matière sombre aux petites échelles se voit confronté à ce qui pourrait être un insurmontable
problème de temps de calcul. Dans ce mémoire, je présente le développement d’un nouveau formalisme de modélisation du
lentillage gravitationnel par halos en ligne de visée accéléré par des réseaux de neurones, motivé
par les lacunes du lentillage à plans multiples et l’importance scientifique de la modélisation de
ces effets. Les architectures de ces réseaux, conçues dans le cadre de ce travail, sont basées sur
le mécanisme d’attention, et peuvent être conditionnées sur des ensembles de modèles de halos en
ligne de visée afin de produire les angles de déflexion leur étant associés. Ce formalisme offre la
flexibilité requise pour remplacer celui du lentillage à plans multiples, laissant à l’usager la liberté
de spécifier un modèle de lentille principale et étant compatible avec des grilles de pixels de taille
quelconque. Notre formalisme permet d’accélérer la modélisation du lentillage de ligne de visée
par presque deux ordres de grandeur lorsque comparé au lentillage à plans multiples, et promet
d’atteindre une exactitude lui étant comparable dans des développements futurs. Il s’agit d’une
contribution significative à l’étude de la matière sombre aux petites échelles, qui permettra soit de
réconcilier ΛCDM et les observations, ou mènera à l’adoption d’un modèle cosmologique alternatif. / The current "standard model" of cosmology is that of ΛCDM, describing a Universe undergoing
accelerated expansion with a structure of cold dark matter formed into halos, onto which are
assembled galaxies. Despite the numerous observational confirmations of its predictions, there
remains some important tensions between measures of the distribution of dark structure on small
scales of the Universe and what would be expected from ΛCDM. However, these light dark matter
halos, predicted to be adundant throughout the cosmos, are not hosts of luminous galaxies and are
therefore very difficult to observe directly. Yet, their presence can still be detected in galaxy-galaxy
type strong gravitational lenses, a phenomenon occuring when the light of a background galaxy is
strongly deflected by the gravitational field of a foreground galaxy, forming multiple images and
extended arcs. Halos distributed along the line-of-sight of such systems, as well as those nested
within the lens galaxy, can introduce gravitational perturbations in images of lensed galaxies. The
detection of such infinitesimal effects in strong lensing observations is made with methods relying on
Bayesian statistics, which require hundreds of thousands of simulations of the contribution of these
perturbers to the deflection of light. Traditionally, modeling the lensing from line-of-sight halos
has been done with the multi-plane lensing framework, which suffers from its inefficient recursive
nature. Morevoer, the ΛCDM model predicts that most gravitational lens systems would host
a larger amount of line-of-sight halos than subhalos nested within the lens galaxy, motivating a
detailed modeling of line-of-sight effects. In a Bayesian analysis context, the multi-plane lensing
approach represents a timescale of multiple days for the analysis of a single system. Considering
that large sky surveys such as those of the Vera Rubin Observatory and the Euclid space telescope
are projected to discover hundreds of thousands of gravitational lenses, the effort of constraining
the small-scale distribution of dark matter is confronted to what might seem like an insurmountable
problem of computation time. In this thesis, I present the development of a new neural-network-accelerated framework for
modeling the gravitational lensing by line-of-sight halos, motivated by the shortcomings of multiplane lensing and the scientific importance of modeling these effects. The architectures of these
networks, conceived as part of this work, are based on the attention mechanism, and can be
conditioned on sets of line-of-sight halo models in order to produce their associated deflection
angles. This framework offers the flexibility required to replace that of multi-plane lensing, leaving
up to the user the freedom to specify a main lens model and being compatible with pixel grids of
any size. Our framework allows to accelerate the modeling of line-of-sight lensing by nearly two
orders of magnitude relative to multi-plane lensing, and promises to reach a comparable accuracy
in future developments. This constitutes a significative contribution to the study of dark matter on
small scales, which will either lead to the reconciliation of ΛCDM and observations, or the adoption
of an alternate cosmological model.
|
40 |
Etude de bruit de fond induit par les muons dans l'expérience EDELWEISS-IIChantelauze, Astrid 04 November 2009 (has links) (PDF)
L'expérience EDELWEISS a pour but de détecter des WIMPs, particules massives faiblement interactives, qui pourraient composer la matière noire de l'univers. Elle mesure l'énergie libérée lors de la collision élastique d'un WIMP sur un noyau de matière ordinaire. Du fait de sa très faible section efficace d'interaction, qui conduit à un taux d'évènement extrêment bas (<1evt/kg/an) et du fait du faible dépôt d'énergie (<100keV), le signal de recul nucléaire des WIMPs peut être imité par des neutrons de la radioactivité ambiante ou induits par des muons. Cette thèse est dédiée à l'étude du bruit de fond induit par les muons. Les performances du véto muon de l'expérience EDELWEISS-II sont présentées et la détection des muons er de leurs gerbes discutés. Les premières coïncidences entre le véto muon et les bolomètres ont été réalisées sur deux prises de données de 4 mois de 2007 et 2008 et conduisent à un résultat de 0.043+-0.015 coinc/kg/j pour une énergie de recul de ER<250 keV
|
Page generated in 0.0427 seconds