Spelling suggestions: "subject:"matière voire,"" "subject:"matière noire,""
91 |
Cosmologie observationnelle avec le satellite Planck : étude d'effets systématiques de l'instrument HFI et de l'ionisation de l'univers / Observational cosmology with the Planck satellite : study of some systematic effects of the HFI instrument and of the ionisation of the Universe.Sanselme, Lilian 20 September 2013 (has links)
Le satellite Planck a été conçu pour mesurer de manière ultime les anisotropies primairesen température du fond diffus cosmologique (CMB), et améliorer les contraintes existantes sursa polarisation. La première partie de cette thèse s’inscrit dans le cadre du traitement des donnéesde l’instrument à haute fréquence de ce satellite. Les propriété statistiques du bruit sonttestée. Des effets systématiques dans l’estimateur du bruit sont ainsi détectés, et certains ontpu être corrigés. La sélection des données à projeter sur les cartes est ensuite présentée, ainsique la validation de la qualité de ces données. Cette sélection est finalement comparée à unesélection pour laquelle les critères sont beaucoup plus sévères, afin de vérifier que l’impactdes données imparfaites résiduelles est négligeable. Nous montrons que les données validéespour une utilisation scientifique répondent bien aux exigences de gaussianité et de stationnarité: des effets instrumentaux ne devraient pas induire de fausses conclusions cosmologiques.La seconde partie porte sur l’interprétation des données ainsi obtenues. Le modèle de concordanceest présenté, ainsi que les résultats rendus publiques par la collaboration Planck en 2013.La troisième partie est dédiée à deux études phénoménologiques concernant l’ionisation del’Univers. Premièrement, l’influence de l’annihilation de matière noire sur le spectre du CMBest étudiée : une méthode pour estimer l’impact de l’incertitude des canaux par lesquels sefont ces dépôts d’énergie est développée. Il ressort que les hypothèses sur la façon exacte dontl’énergie s’injecte dans le plasma ne sont pas cruciales pour retrouver les paramètres associée àl’annihilation. Deuxièmement, l’époque de la Réionisation et son rôle dans le spectre du CMBest présentée, avec l’analyse d’une paramétrisation de la fraction d’ionisation. Nous montronsla fiabilité des différents algorithmes dans le cas où la fraction d’ionisation est constante parmorceaux, c’est-à-dire même en présence de fortes discontinuités. / The Planck satellite was designed to perform the ultimate measurement of the primary fluctuationsof the cosmic microwave background (CMB), and to improve on the existing polarizationconstraints. In this framework, the first part of this thesis focusses on the data processingof Planck’s high frequency instrument. In particular, the statistical properties of the noise havebeen tested. This has allowed us to identify systematic effects in the noise estimator, amongwhich some have been corrected. The selection of the data to be projected on the maps, alongwith its quality validation, are then presented. Comparing this selection to a case where the criteriaare much more severe, we conclude that any residual imperfections in the selected dataare negligible.We also show that the data validated for scientific use meet the requirements ofgaussianity and stationarity : instrumental effects will not influence cosmological conclusions.The second part of this document deals with the scientific interpretation of these data. Theconcordance model is presented along with the main 2013 results released by the Planck collaboration.Finally, the third part is dedicated to two phenomenological studies of the ionizationof the Universe. First, the influence of dark matter annihilation on the CMB spectrum is investigated: we develop a method to measure the impact of uncertainties in the thermodynamicalprocesses at play and conclude that the parameters associated to dark matter annihilation arenot strongly dependent on the underlying hypotheses used to model the energy deposition inthe plasma. Second, the epoch of reionization and its role on the CMB spectrum is presented,along with an analysis of the parametrization of the ionization fraction.We show the reliabilityof different algorithms in the case where the ionization fraction is piecewise-constant, i.e. evenin the presence of strong discontinuities.
|
92 |
Modèles effectifs de nouvelle physique au Large Hadron Collider / Effective Models of new physics at the Large Hadron ColliderLlodra-Perez, Jérémie 01 July 2011 (has links)
Grâce à l’exploitation du Large Hadron Collider, débutée en 2010, le monde de la physique des particules espère enfin avoir une compréhension plus précise du mécanisme de brisure de la symétrie électrofaible et résoudre certaines questions expérimentales et théoriques que soulèvent encore le modèle standard. S’inscrivant dans cette effervescence scientifique, nous allons présenter dans ce manuscrit une paramétrisation largement indépendante des modèles afin de caractériser les effets d’une éventuelle nouvelle physique sur les mécanismes de production et de désintégration du bosons de Higgs. Ce nouvel outil pourra aisément être utilisé dans les analyses des grandes expériences généralistes comme CMS et ATLAS afin de valider ou d’exclure de manière significative certaines théories au delà du modèle standard. Ensuite, dans une approche différente, fondée sur la construction de modèles, nous avons considéré un scenario où les champs du modèle standard peuvent se propager dans un espace plat possédant six dimensions. Les nouvelles directions spatiales supplémentaires sont compactifiées sur un Plan Projectif Réel. Cet orbifold original est l’unique géométrie à six dimensions qui présente des fermions chiraux et un candidat de matière noire dit naturel. Le photon scalaire, particule la plus légère du premier mode de Kaluza-Klein, est en effet stabilisé par une symétrie résiduelle de l’invariance de Lorentz à six dimensions. En utilisant les contraintes actuelles fournies par les observations cosmologiques, nous avons déterminé l’ordre de grandeur de la masse de cette particule aux alentours d’une centaine de GeV. De ce fait les nouveaux états présents dans cette théorie sont suffisamment légers pour produire des signatures claires et observables au Large Hadron Collider. Avec une étude plus poussée du spectre de masses et des couplages du modèle, incluant les corrections radiatives à une boucle, nous avons pu ainsi donner les premières prédictions et contraintes sur la phénoménologie attendue au Large Hadron Collider. / With the start of the Large Hadron Collider runs, in 2010, particle physicists will be soon able to have a better understanding of the electroweak symmetry breaking. They might also answer to many experimental and theoretical open questions raised by the Standard Model. Surfing on this really favorable situation, we will first present in this thesis a highly modelindependent parametrization in order to characterize the new physics effects on mechanisms of production and decay of the Higgs boson. This original tool will be easily and directly usable in data analysis of CMS and ATLAS, the huge generalist experiments of LHC. It will help indeed to exclude or validate significantly some new theories beyond the Standard Model. In another approach, based on model-building, we considered a scenario of new physics, where the Standard Model fields can propagate in a flat six-dimensional space. The new spatial extra-dimensions will be compactified on a Real Projective Plane. This orbifold is the unique six-dimensional geometry which possesses chiral fermions and a natural Dark Matter candidate. The scalar photon, which is the lightest particle of the first Kaluza-Klein tier, is stabilized by a symmetry relic of the six dimension Lorentz invariance. Using the current constraints from cosmological observations and our first analytical calculation, we derived a characteristic massrange around few hundred GeV for the Kaluza-Klein scalar photon. Therefore the new states of our Universal Extra-Dimension model are light enough to be produced through clear signatures at the Large Hadron Collider. So we used a more sophisticated analysis of particle mass spectrum and couplings, including radiative corrections at one-loop, in order to establish our first predictions and constraints on the expected LHC phenomenology
|
93 |
Théorie Lagrangienne Relativiste de la Formation des Grandes Structures : description Intrinsèque des Perturbations et Gravitoélectromagnétisme / On the Lagrangian Theory of Structure Formation in Relativistic Cosmology : intrinsic Perturbation Approach and GravitoelectromagnetismAl Roumi, Fosca 18 September 2015 (has links)
La dynamique de formation des structures de l'Univers est habituellement décrite dans le cadre du modèle standard de Cosmologie. Cependant, pour que les observations cosmologiques soient cohérentes avec le modèle standard, il est nécessaire de supposer l'existence d'une grande proportion d'éléments de nature inconnue dans le contenu de l'Univers. Pour tenter de résoudre cette énigme, nous ne considèrerons pas d'autres sources dans le contenu de l'Univers que celles ordinaires et resterons dans le cadre de la Relativité Générale. Nous développerons néanmoins une description plus réaliste de la formation de structures dans le cadre de la théorie d'Einstein. Ainsi, contrairement au modèle standard de Cosmologie, nous ne supposerons pas que l'Univers moyenné est une solution homogène et isotrope des équations d'Einstein. Lors de mon travail sous la direction de Thomas Buchert, j'ai participé au développement d'un formalisme perturbatif permettant une description plus réaliste de la dynamique de l'espace-temps. J'ai également contribué à l'obtention de solutions relativistes à la partie gravitoélectrique des équations d'Einstein en généralisant les solutions perturbatives newtoniennes. Ces travaux ont été réalisés dans le cadre d'une approche lagrangienne intrinsèque, évitant ainsi de définir les grandeurs physiques sur un fond plat. L'approche gravitoélectromagnétique que j'ai adoptée m'a permis une interprétation nouvelle et performante des solutions des équations d'Einstein. Enfin, j'ai étudié l'impact de la topologie sur la dynamique des ondes gravitationelles à l'aide d'une description globale de l'hypersurface spatiale, permise par des théorèmes mathématiques puissants / The dynamics of structure formation in the Universe is usually described by Newtonian numerical simulations and analytical models in the frame of the Standard Model of Cosmology. The structures are then defined on a homogeneous and isotropic background. Such a description has major drawbacks since, to be self-consistent, it entails a large amount of dark components in the content of the Universe. To address the problem of dark matter and dark energy, we will neither suppose that exotic sources contribute to the content of the Universe, nor that General Relativity is obsolete. We will develop a more realistic description of structure formation in the frame of General Relativity and thus no longer assume that the average model is a homogeneous-isotropic solution of the Einstein equations, as claimed by the Standard Model of Cosmology. During my work under the supervision of Thomas Buchert, I contributed to the development of the perturbative formalism that enables a more realistic description of spacetime dynamics. In the framework of the intrinsic Lagrangian approach, which avoids defining physical quantities on a flat background, I contributed to the building of relativistic solutions to the gravitoelectric part of the Einstein equations from the generalization of the Newtonian perturbative solutions. Moreover, the gravitoelectromagnetic approach I worked with has provided a new understanding of the dynamics of the analytical solutions to the field equations. Finally, treating globally the spatial manifold, I used powerful mathematical tools and theorems to describe the impact of topology on the dynamics of gravitational waves
|
94 |
Search for dark matter with EDELWEISS-III excluding background from muon-induced neutrons / Recherche de matière noire avec l'expérience EDELWEISS-III excluant le bruit de fond neutron induit par les muonsKéfélian, Cécile 05 February 2016 (has links)
Le but de l'expérience EDELWEISS est la détection directe de matière noire sousforme de WIMPs, par l'étude de leur diffusion élastique sur les noyaux de germanium des détecteurs bolomètriques. Le plus problématique des bruits de fond provient des neutrons pouvant mimer l'interaction d'un WIMP dans un détecteur. Ces neutrons sont notamment produits par les rares muons cosmiques de haute énergie qui atteignent le laboratoire souterrain malgré les 4800 m w.e. de roche. Les muons résiduels sont détectés par un système veto de 46 modules de scintillateur plastique entourant l'expérience, qui permet de rejeter la plupart du bruit de fond associé. La détermination précise du bruit de fond neutron résiduel induit par ces muons dans EDELWEISS-III, essentielle pour l'identification des WIMPs, est le but de cette thèse. Le taux de bruit de fond dépend de la géométrie de l'expérience ainsi que des matériaux utilisés, qui ont subi d'importantes modifications depuis EDELWEISS-II. Des simulations GEANT4 du passage des muons dans la nouvelle géométrie ont été réalisées afin d'extraire le taux d'événements induits par les muons dans les bolomètres. Ce taux est en bon accord avec le taux mesuré extrait des données du Run308. En parallèle, une limite inférieure sur l'efficacité du veto muon a été extraite à partir des données bolomètres. Une nouvelle méthode basée sur l'utilisation d'une source d'AmBe a été développée afin d'extraire l'efficacité de chaque module de la simulation. À partir de ces résultats, il a été montré que le bruit de fond attendu est négligeable pour la recherche de WIMPs avec les données du Run308 et ne limitera pas la sensibilité future d'EDELWEISS-III / The aim of the EDELWEISS-III experiment is to detect the elastic scattering of WIMPs from the galactic dark matter halo on germanium bolometers. The most problematic background arises from neutrons, which can mimic a WIMP interaction in a detector. Neutrons are notably induced by high energy cosmic ray muons reaching the underground laboratory despite the 4800 m w.e. of rock overburdened. Remaining muons are tagged using an active muon-veto system of 46 plastic scintillator modules surrounding the experiment, which allows to reject most of the associated background. The goal of this thesis was to give a precise estimation of the irreducible muon-induced neutron background, needed to identify a potential WIMP signal. The expected background depends on the geometry of the experiment as well as on the used materials, both strongly modified since EDELWEISS-II. Geant4-based simulations of muons through the modified geometry were performed to derive the rate of events induced by muons in the bolometer array. This rate has been shown to be in good agreement with the measured one extracted from the Run308 data. In parallel, a lower limit on the muon-veto efficiency was derived using bolometer data only. A new method based on an AmBe source was developed to extract precisely the detection efficiency of individual modules from the simulation. From these results, it was shown that the expected background is negligible for the WIMP search analyses performed with the Run308 data and won't limit the future sensitivity of the EDELWEISS-III experiment
|
95 |
Muon to electron conversion, flavored leptogenesis and asymmetric dark matter in minimal extensions of the Standard ModelDhen, Mikaël 30 September 2015 (has links)
Il est clair que le Modèle Standard des particules élémentaires n'est pas complet. Parmi tous les indices d'une physique au-delà du Modèle Standard, la masse des neutrinos, l'asymétrie matière-antimatière de notre Univers et la matière noire constituent les trois contextes généraux de cette thèse.Le fait que les neutrinos soient massifs constitue la plus claire évidence d'une physique au-delà du Modèle Standard. La masse des neutrinos peut trouver une explication notamment dans le cadre des modèles favoris dits "modèles Seesaw". Ces modèles, en plus de générer une petite masse pour les neutrinos, génèrent aussi des processus dans lesquels la saveur d'un lepton chargé est changée, comme la désintégration d'un muon en un électron et un photon, ou la conversion d'un muon en un électron au sein d'un atome sans émission de neutrino. Ces processus sont importants car les expériences futures devraient atteindre des sensibilités impressionnantes sur leurs taux, mais aussi parce que leur observation confirmerait l'existence d'une physique nouvelle et pourrait peut-être discriminé parmi les différents modèles. Il est donc important d'avoir une expression analytique fiable du taux de ces processus dans le cadre de ces modèles Seesaw favoris. Dans la première partie de cette thèse, nous calculons l'expression du taux de conversion d'un muon en un électron au sein d'un atome dans le cadre des modèles Seesaw de type 1, et analysons la phénoménologie s'y rapportant. Ces modèles Seesaw, en plus de générer une petite masse pour les neutrinos et des processus changeant la saveur leptonique, permettent aussi la création de l'asymétrie matière-antimatière dans l'Univers, à travers le mécanisme dit de "leptogenèse". Selon ce mécanisme, une asymétrie leptonique aurait d'abord été créée, avant d'être partiellement transférée en une asymétrie baryonique. Dans la seconde partie de cette thèse, nous calculons et analysons la leptogenèse dans le cadre des modèles Seesaw de type 2 avec, pour la première fois, la prise en compte des effets de saveurs.Finalement, la troisième et dernière partie de cette thèse se concentre sur la possibilité de générer non seulement la matière baryonique à partir d'une asymétrie, mais aussi la matière noire. A cette fin, nous considérons le modèle dit "doublet inerte'', car il contient une interaction qui pourrait à priori générer de la matière noire à partir d'une asymétrie. Nous adressons dès lors la question suivante et y répondons: est-il possible de générer toute la matière noire à partir d'une asymétrie de matière noire dans le contexte du modèle doublet inerte ? / Option Physique du Doctorat en Sciences / info:eu-repo/semantics/nonPublished
|
96 |
Recherche indirecte de matière noire avec l'expérience H.E.S.S. / Indirect search for dark matter with the H.E.S.S. experimentKieffer, Matthieu 28 September 2015 (has links)
L’Univers est dominé par une composante invisible appelée Matière Noire (MN), de nature inconnue mais dont les effets gravitationnels sur la matière visible sont clairement observés. Il a été proposé que la MN soit constituée de particules massives et interagissant faiblement avec la matière, permettant ainsi de concilier théorie, observations et simulations. L’annihilation de ces particules dans les régions où la MN est fortement concentrée pourrait produire des rayons γ de très haute énergie dont les signatures spectrales peuvent être détectées par le réseau de télescopes H.E.S.S. Un excès à ~3σ est observé dans la direction de la Galaxie Naine du Sagittaire, avec la méthode standard d’analyse ON-OFF. Plus de données sont nécessaires pour conclure quant à son origine. La seconde partie du travail concerne la recherche de raies spectrales en γ dans la région du Centre Galactique. Une méthode de Maximum de Vraisemblance Complète a été développée, étalonnée et appliquée à une fraction d’un ensemble de 20h de données prises en 2014. Aucun excès de γ n’étant observé, des limites sur la section efficace d’annihilation de la MN sont produites pour des masses de 100 GeV à 2 TeV, la sensibilité de H.E.S.S. à basse énergie étant obtenue par l’ajout d’un 5ème télescope depuis 2012. Ces limites complètent efficacement les précédents résultats de Fermi-LAT et H.E.S.S. D’autre part l’analyse finale devrait permettre d’exclure un potentiel signal à 130 GeV observé dans les données de Fermi-LAT en 2012 et ce avec plus de 95% CL, et de proposer les limites les plus solides à ce jour sur les modèles d’émission de raies spectrales en γ dans le domaine d’énergie couvert par H.E.S.S. / The Universe is full of gravitational evidence of a dominant invisible Dark Matter (DM) component at the Galactic and cosmological scales. Although its nature is still one of the major puzzles of the 21st Century, Weakly Interacting Massive Particles (WIMPs) are an excellent scenario for matching theoretical predictions with observations and simulations. In particular, their self-annihilations would give rise to characteristic spectral signatures in γ-rays, detectable at Very High Energies (VHE) with the H.E.S.S. telescope array in regions such as the Galactic Centre (GC) and Dwarf Spheroidal Galaxies (dSphs). The standard ON-OFF analysis method is applied in the observation of the Sagittarius dSph where a ~3σ hotspot is observed above 300 GeV, although more statistics is required to conclude on its potential DM origin. The second part of the work is focused on the search for monochromatic γ-ray line signatures in the GC region. A Full Likelihood method has been developed, calibrated with Monte-Carlo simulations and applied to a sub-sample of a 20h dataset acquired in 2014. No excess signal is found, thus leading to limits on the DM annihilation cross-section down to a 100 GeV mass range, the sensitivity at the lowest energies being achieved by the 5th H.E.S.S. telescope added in 2012. These limits efficiently fill the gap in mass between results from Fermi-LAT and the first phase of H.E.S.S. On the other side the analysis of the complete dataset is expected to exclude the 130 GeV line-like feature recently reported in the Fermi-LAT data, with more than 95% CL, and to provide the most constraining DM limits so far on γ-ray line emission in the VHE range.
|
97 |
Mesure de l'échelle des oscillations acoustiques de baryons dans la fonction de corrélation des forêts Lyman-α avec la distribution des quasars observés dans le relevé SDSS / Mesure of the scale of bayonic acoustic oscillations in the correlation function of Lyman-α forest with the quasar distribution observed in the SDSS surveyDu Mas des Bourboux, Hélion 08 September 2017 (has links)
La propagation des ondes acoustiques dans le plasma primordial a laissé son empreinte sous la forme d'un pic dans la fonction de corrélation à deux points de la densité de matière. Ce pic d'oscillations acoustiques de baryons (BAO) constitue une échelle standard permettant de déterminer certains paramètres des différents modèles cosmologiques.Dans ce manuscrit de thèse, nous présentons une mise à jour de la mesure de BAO à un redshift z=2.40, à l'aide de la fonction de corrélation croisée entre deux traceurs des fluctuations primordiales de densité de matière: les quasars de SDSS-III (BOSS) et leurs fluctuations d'absorption du flux des forêts Lyman-α. Ces fluctuations tracent la distribution d'hydrogène neutre dans le milieu intergalactique (IGM).Cette étude constitue le premier développement d'un ajustement entièrement physique de la fonction de corrélation croisée; il prend notamment en compte la physique des quasars et la présence d'éléments plus lourds que l'hydrogène dans l'IGM. Nous y présentons également les premières simulations de notre analyse. Celles-ci nous permettent de valider l'ensemble de la procédure de mesure de l'échelle BAO.Cette étude mesure la distance de Hubble et la distance de diamètre angulaire avec respectivement une précision de 2% et 3% (intervalle à 1 σ). Nous combinons nos résultats avec d'autres mesures de BAO à des redshifts plus faibles et trouvons la densité de matière noire et d'énergie noire dans le cadre de deux différents modèles cosmologiques: ΛCDM et oΛCDM. / The acoustic wave propagation in the primordial plasma left its imprint in the two-point correlation function of the matter density field. This baryonic acoustic oscillation (BAO) peak builds up a standard ladder allowing us to infer some parameters of the different cosmological models.In this thesis manuscript we present an update of the BAO measurement at a redshift z=2.40, from the cross-correlation function between two tracers of the primordial matter density fluctuations: quasars of SDSS-III (BOSS) and their Lyman-α-forest absorption fluctuations. These fluctuations trace the neutral hydrogen distribution in the intergalactic medium (IGM).This study gives the first developpment of the full physical fit of the cross-correlation. Among other effects, it takes into account quasar physics and the distribution of IGM elements heavier than hydrogen. We also present the first simulations of our analysis. They allow us to validate the overall data analysis leading to the BAO measurement.This study measures the Hubble distance and the angular diameter distance at the 2%$ and 3%$ precision level respectivelly (1 σ interval). We combine our results with other BAO measurements at lower redshifts and find the dark matter density and dark energy density in the framework of two different cosmological models: ΛCDM et oΛCDM.
|
98 |
Study of the Galactic Center and dark matter search with H.E.S.S. / Etude du Centre Galactique et recherche de matière noire avec H.E.S.S.Rinchiuso, Lucia 03 July 2019 (has links)
L’expérience H.E.S.S. (High Energy Spectroscopic System) composée de cinq télescopes Tcherenkov observe le ciel en rayons gamma au-delà d'une centaine de GeV jusqu'à plusieurs dizaines de TeV. Les rayons gamma sont produits par des phénomènes non-thermiques parmi les plus violents dans l'univers au voisinage d'objets astrophysique comme les pulsars, supernovae ou trous noirs, mais pourraient être également produits par l'annihilation de particules de matière noire.De nombreuses sondes cosmologiques et astrophysiques suggèrent que 85% de la matière dans l'Univers est d'origine inconnue. Cette matière appelée matière noire, de nature non baryonique, serait constituée de particules non encore découvertes dont les candidats privilégiés seraient des particules massives interagissant faiblement (WIMPs) avec la matière ordinaire, particules prédites au-delà du Modèle Standard de la physique des particules.Des particules de matière noire peuvent s'annihiler en particules du Modèle Standard dans les régions denses de l'Univers. Parmi les produits d'annihilations se trouvent les photons dont la détection à hautes énergies par des télescopes au sol à effet Tcherenkov pourrait apporter des informations uniques sur la nature de la matière noire.H.E.S.S. observe des régions du ciel dense en matière noire comme le Centre Galactique et des galaxies naines satellites de la Voie Lactée.Une interprétation d'un excès de rayons gamma détecté au Centre Galactique par H.E.S.S. en termes d’accélération de protons par une population de pulsars millisecondes est présenté.10 ans d'observations du Centre Galactique avec le réseau H.E.S.S. I de quatre télescopes, cinq ans de prise de données vers la région du Centre Galactique avec le réseau complet H.E.S.S. II, et un jeu de deux ans de données vers des galaxies naines découvertes récemment sont analysés. Les recherches de signaux d'annihilation de matière noire vers ces cibles ont produit les limites plus fortes à présent sur la section efficace d'annihilation de matière noire dans la plage en masse du TeV. Le potentiel de détection de matière noire avec le futur réseau de télescopes CTA (Cherenkov Telescope Array) vers la région central du halo Galactique est étudiés. / The H.E.S.S. (High Energy Spectroscopic System) experiment is an array of five Cherenkov telescopes that observe the sky in gamma-rays from about 100 GeV up to several ten TeV.Gamma rays are produced in violent non-thermal phenomena in the Universe in the neighborhood of pulsars, supernovae, black holes, ..., and could also be produced by the annihilation of dark matter particles.Numerous cosmological and astrophysical probes suggest that 85% of the total matter budget in the Universe is of unknown origin. This component of matter known as dark matter is non baryonic and could consist of yet undiscovered particles which privileged candidates are arguably massive particles with electroweak couplings with ordinary matter (WIMPs).Dark matter particles may annihilate into Standard Model particles in dense regions of the Universe. Among the annihilation products are photons which detection at high energy with ground-based Cherenkov telescopes could bring unique information on the nature of the dark matter.H.E.S.S. observes dark-matter-dense regions of the sky such as the Galactic Center and dwarf galaxy satellites of the Milky Way. A study on the interpretation of an excess of gamma-rays detected by H.E.S.S. at the Galactic Center in terms of acceleration of protons by a population of unresolved millisecond pulsars is performed.10 years of observations of the Galactic Center with the four-telescope H.E.S.S.-I array, five years of data taking towards the Galactic Center region with the full H.E.S.S.-II array and a two-years dataset towards newly discovered dwarf spheroidal galaxies are analyzed. The search for dark matter annihilation signals towards these targets provided the strongest limits so far on dark matter annihilation cross section in gamma rays of TeV energies. The potential of dark matter detection with the upcoming Cherenkov Telescope Array (CTA) towards the inner Galactic halo are studied. They may annihilate into Standard Model particles in dense regions of the Universe. Among the annihilation products are high energy photons. The detection of these photons with ground-based Cherenkov telescopes may reveal the nature of the dark matter. H.E.S.S. have observed some dark-matter-dense regions of the sky likethe Galactic Center and dwarf galaxies satellites of the Milky Way. In this work 10 years of observations of the Galactic Center with the four-telescopes H.E.S.S.-I array, five years of data taking towards the Galactic Center region with the full H.E.S.S.-II array and a two-years dataset towards newly discovered dwarf spheroidal galaxies are analyzed. The searches for dark matter annihilation signals towards these targets produced the strongest limits so far on dark matter annihilation cross section in gamma rays of TeV energies.Perspectives of dark matter detection with the future array CTA (Cherenkov Telescope Array) towards the inner Galactic halo are also discussed. A study on the interpretation of an excess of gamma-rays detected by H.E.S.S. at the Galactic Center in terms of acceleration of protons by a population of unresolved millisecond pulsars complements the dark matter searches.
|
99 |
Reconstitution de pan-génomes microbiens par séquençage métagénomique aléatoire : Application à l’étude du microbiote intestinal humain / Abundance-based reconstitution of microbial pan-genomes from whole-metagenome shotgun sequencing data : Application to the study the human gut microbiotaPlaza onate, Florian 10 December 2018 (has links)
L’avènement du séquençage métagénomique aléatoire a révolutionné la microbiologie en permettant la caractérisation sans culture préalable de communautés microbiennes complexes telles que le microbiote intestinal humain. Des outils bioinformatiques récemment développés atteignent une résolution au niveau de la souche en recensant des gènes accessoires ou en capturant des variants nucléotidiques (SNPs). Toutefois, ces outils sont limités par l’étendue des génomes de référence disponibles qui sont loin de couvrir toute la variabilité microbienne. En effet, de nombreuses espèces n’ont pas encore été séquencées ou sont représentées par seulement quelques génomes.La création de catalogues de gènes non redondants par assemblage de novo suivie du regroupement des gènes co-abondants révèlent une partie de la matière noire microbienne en reconstituant le répertoire de gènes d’espèces potentiellement inconnues. Bien que les méthodes existantes identifient avec précision les gènes core présents dans toutes les souches d’une espèce, elles omettent de nombreux gènes accessoires ou les divisent en petits groupes de gènes qui ne sont pas associés aux core génomes. Or, capturer ces gènes accessoires est indispensable en recherche clinique et épidémiologique car ces derniers assurent des fonctions spécifiques à certaines souches telles que la pathogénicité ou la résistance aux antibiotiques.Lors de cette thèse, nous avons développé MSPminer, un logiciel performant qui reconstitue et structure des pan-génomes d’espèces métagénomiques (ou MSPs pour Metagenomic Species Pan-genomes) en regroupant les gènes co-abondants dans un ensemble d’échantillons métagénomiques. MSPminer s’appuie sur une nouvelle mesure robuste de la proportionnalité couplée à un classificateur empirique pour regrouper et distinguer les gènes core mais aussi les gènes accessoires des espèces microbiennes.Grâce à MSPminer, nous avons structuré un catalogue de 9,9 millions de gènes du microbiote intestinal humain en 1 661 MSPs. L’homogénéité de l’annotation taxonomique, de la composition nucléotidique ainsi que la présence de gènes essentiels indiquent que les MSPs ne correspondent pas à des chimères mais à des objets biologiquement cohérents regroupant des gènes provenant de la même espèce. Parmi ces MSPs, 1 301 (78%) n’ont pas pu être annotées au niveau espèce montrant que de nombreux microorganismes colonisant l’intestin humain demeurent inconnus malgré les progrès substantiels des techniques de culture microbienne. Remarquablement, les MSPs capturent bien plus de gènes que les clusters générés par les outils existants tout en garantissant une spécificité élevée.Cet ensemble de MSPs peut d’ores et déjà être utilisé pour le profilage taxonomique et la découverte de biomarqueurs dans des échantillons de selles humaines. Ainsi, nous tirons parti des MSPs pour comparer l’impact sur le microbiote intestinal des deux principaux types de chirurgie bariatrique, la gastrectomie par laparoscopie (LSG) et la dérivation gastrique de Roux-en-Y (LRYGB). Enfin, les MSPs ouvrent la voie à des analyses au niveau souche. Dans une autre cohorte, nous avons mis en évidence l’existence de sous-espèces associées à l’origine géographique de l’hôte en étudiant les profils de présence/absence des gènes accessoires groupés dans les MSPs. / The advent of shotgun metagenomic sequencing has revolutionized microbiology by allowing culture-independent characterization of complex microbial communities such as the human gut microbiota. Recently developed bioinformatics tools achieved strain-level resolution by making a census of accessory genes or by capturing nucleotide variants (SNPs). Yet, these tools are hampered by the extent of available reference genomes which are far from covering all the microbial variability. Indeed, many species are still not sequenced or are represented by only few genomes.Building of non-redundant gene catalogs followed by the binning of co-abundant genes reveals a part of the microbial dark matter by reconstituting the gene repertoire of species potentially unknown. While existing methods accurately identify core genes present in all the strains of a species, they miss many accessory genes or split them into small gene groups that remain unassociated to core genomes. However, capturing these accessory genes is essential in clinical research and epidemiology because they provide functions specific to certain strains such as pathogenicity or antibiotic resistance.In this thesis, we developed MSPminer, a computationally efficient software tool that reconstitutes Metagenomic Species Pan-genomes (MSPs) by binning co-abundant genes across metagenomic samples. MSPminer relies on a new robust measure of proportionality coupled with an empirical classifier to group and distinguish not only species core genes but accessory genes also.With MSPminer, we structured a catalog made up of 9.9 million genes of the human gut microbiota in 1 661 MSPs. The homogeneity of the taxonomic annotation, of the nucleotide composition as well as the presence of essential genes indicate that the MSPs do not correspond to chimeras but to biologically consistent objects grouping genes from the same species. Among these MSPs, 1 301 (78%) could not be annotated at species level showing that many microorganisms colonizing the human intestinal tract are still unknown despite the substantial improvements of microbial culture techniques. Remarkably, MSPs capture more genes than clusters generated by existing tools while ensuring high specificity.This set of MSPs can be readily used for taxonomic profiling and biomarkers discovery in human gut metagenomic samples. In this way, we take advantage of the MSPs to compare the impact of two main types of surgeries, the laparoscopic sleeve gastrectomy (LSG) and the Roux-En-Y gastric bypass (LRYGB). Finally, the MSPs open the way to strain-level analyses. In another cohort, we identified subspecies associated the host geographical origin by studying presence/absence patterns of the accessory genes grouped in the MSPs.
|
100 |
Réduction du bruit de fond en vue de la détection de la matière sombre avec le projet PICASSODi Marco, Marie January 2004 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
|
Page generated in 0.067 seconds