• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 66
  • 34
  • 6
  • Tagged with
  • 108
  • 65
  • 63
  • 45
  • 39
  • 32
  • 27
  • 24
  • 23
  • 22
  • 21
  • 21
  • 20
  • 18
  • 17
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Position measurement of the superCDMS HVeV detector and implementation of an importance sampling algorithm in the superCDMS simulation software

Pedreros, David S. 03 1900 (has links)
La matière sombre est considérée comme l'un des plus grands mystères dans la cosmologie moderne. En effet, on peut dire que l’on connaît plus sur ce que la matière sombre n'est pas que sur sa vraie nature. La collaboration SuperCDMS travaille sans répit pour réussir à faire la première détection directe de la matière sombre. À cet effet, la collaboration a eu recours à plusieurs expériences et simulations à diverses échelles, pouvant aller de l'usage d'un seul détecteur semi-conducteur, jusqu'à la création d'expériences à grande échelle qui cherchent à faire cette première détection directe de la matière sombre. Dans ce texte, on verra différentes méthodes pour nous aider à mieux comprendre les erreurs systématiques liées à la position du détecteur utilisé dans le cadre des expériences IMPACT@TUNL et IMPACT@MTL, soit l'usage des simulations et de la radiologie industrielle respectivement. On verra aussi comment l'implémentation de la méthode de réduction de variance connue comme échantillonnage préférentiel, peut aider à améliorer l'exécution des simulations de l'expérience à grande échelle planifiée pour le laboratoire canadien SNOLAB. En outre, on verra comment l'échantillonnage préférentiel s'avère utile non seulement pour mieux profiter des ressources disponibles pour la collaboration, mais aussi pour avoir une meilleure compréhension des source de bruits de fond qui seront présentes à SNOLAB, tels que les signaux générés par la désintégration radioactive de divers isotopes. / Dark matter is one of the biggest mysteries of modern-day cosmology. Simply put, we know much more about what it is not, rather than what it actually is. The SuperCDMS collaboration works relentlessly toward making the first direct detection of this type of matter. To this effect, multiple experiments and simulations have been performed, ranging from small-scale testing of the detectors to large-scale, long-term experiments, looking for the actual detection of dark matter. In this work, I will analyze different methods to help understand the systematic errors linked to detector position in regard to the small-scale experiments IMPACT@TUNL and IMPACT@MTL, through simulation and industrial radiography respectively. We will also see how the implementation of the variance reduction method known as importance sampling can be used to improve the simulation performance of the large-scale experiment in the Canadian laboratory SNOLAB. Additionally, we will see how this method can provide not only better management of the computing resources available to the collaboration, but also how it can be used to better the understanding of the background noises, such as the signals generated by radioactive decay of different isotopes, that will be present at SNOLAB.
72

Accélération du lentillage gravitationnel à plans multiples par apprentissage profond

Wilson, Charles 04 1900 (has links)
Le "modèle standard" actuel de la cosmologie est celui de ΛCDM, décrivant un Univers en expansion accélérée ainsi qu’une structure de matière sombre froide formée en halos, sur lesquels s’assemblent les galaxies. Malgré les nombreuses confirmations observationnelles de ses prédictions, il existe d’importantes tensions entre les mesures de la distribution de structure sombre aux petites échelles de l’Univers et ce qui serait attendu de ΛCDM. Cependant, ces halos légers de matière sombre, qui sont prédit d’abonder à travers le cosmos, n’hébergent pas de galaxies lumineuses et sont donc très difficiles à observer directement. Leur présence peut toutefois être détectée dans les lentilles gravitationnelles fortes de type galaxie-galaxie, un phénomène se produisant lorsque la lumière d’une galaxie d’arrière-plan est fortement déviée par le champ gravitationnel d’une galaxie d’avantplan, formant des images multiples et des arcs étendus. Les halos distribués en ligne de visée de tels systèmes, ainsi que ceux imbriqués dans la galaxie lentille, peuvent causer des perturbations gravitationnelles dans les images de galaxies lentillées. La détection de ces effets infimes dans des observations de lentilles gravitationnelles est faite par des méthodes statistiques Bayésiennes, qui nécéssitent des centaines de milliers de simulations de la contribution de ces perturbateurs à la déflexion de la lumière. Traditionnellement, la modélisation du lentillage par les halos en ligne de visée s’est faite avec le formalisme du lentillage à plans multiples, qui souffre d’une nature récursive peu efficace. De plus, il est prédit par le modèle ΛCDM que la majorité des systèmes de lentilles gravitationnelles comporteraient davantage de halos en ligne de visée que de sous-halos imbriqués dans la galaxie lentille, motivant une modélisation détaillée des effets de ligne de visée. Dans un contexte d’analyse Bayésienne, l’approche du lentillage à plans multiples représente une échelle de temps de plusieurs jours pour l’analyse d’un seul système. En considérant que des grands relevés du ciel comme ceux de l’Observatoire Vera Rubin et du télescope spatial Euclid sont projetés de découvrir des centaines de milliers de lentilles gravitationnelles, l’effort de contraindre la distribution de matière sombre aux petites échelles se voit confronté à ce qui pourrait être un insurmontable problème de temps de calcul. Dans ce mémoire, je présente le développement d’un nouveau formalisme de modélisation du lentillage gravitationnel par halos en ligne de visée accéléré par des réseaux de neurones, motivé par les lacunes du lentillage à plans multiples et l’importance scientifique de la modélisation de ces effets. Les architectures de ces réseaux, conçues dans le cadre de ce travail, sont basées sur le mécanisme d’attention, et peuvent être conditionnées sur des ensembles de modèles de halos en ligne de visée afin de produire les angles de déflexion leur étant associés. Ce formalisme offre la flexibilité requise pour remplacer celui du lentillage à plans multiples, laissant à l’usager la liberté de spécifier un modèle de lentille principale et étant compatible avec des grilles de pixels de taille quelconque. Notre formalisme permet d’accélérer la modélisation du lentillage de ligne de visée par presque deux ordres de grandeur lorsque comparé au lentillage à plans multiples, et promet d’atteindre une exactitude lui étant comparable dans des développements futurs. Il s’agit d’une contribution significative à l’étude de la matière sombre aux petites échelles, qui permettra soit de réconcilier ΛCDM et les observations, ou mènera à l’adoption d’un modèle cosmologique alternatif. / The current "standard model" of cosmology is that of ΛCDM, describing a Universe undergoing accelerated expansion with a structure of cold dark matter formed into halos, onto which are assembled galaxies. Despite the numerous observational confirmations of its predictions, there remains some important tensions between measures of the distribution of dark structure on small scales of the Universe and what would be expected from ΛCDM. However, these light dark matter halos, predicted to be adundant throughout the cosmos, are not hosts of luminous galaxies and are therefore very difficult to observe directly. Yet, their presence can still be detected in galaxy-galaxy type strong gravitational lenses, a phenomenon occuring when the light of a background galaxy is strongly deflected by the gravitational field of a foreground galaxy, forming multiple images and extended arcs. Halos distributed along the line-of-sight of such systems, as well as those nested within the lens galaxy, can introduce gravitational perturbations in images of lensed galaxies. The detection of such infinitesimal effects in strong lensing observations is made with methods relying on Bayesian statistics, which require hundreds of thousands of simulations of the contribution of these perturbers to the deflection of light. Traditionally, modeling the lensing from line-of-sight halos has been done with the multi-plane lensing framework, which suffers from its inefficient recursive nature. Morevoer, the ΛCDM model predicts that most gravitational lens systems would host a larger amount of line-of-sight halos than subhalos nested within the lens galaxy, motivating a detailed modeling of line-of-sight effects. In a Bayesian analysis context, the multi-plane lensing approach represents a timescale of multiple days for the analysis of a single system. Considering that large sky surveys such as those of the Vera Rubin Observatory and the Euclid space telescope are projected to discover hundreds of thousands of gravitational lenses, the effort of constraining the small-scale distribution of dark matter is confronted to what might seem like an insurmountable problem of computation time. In this thesis, I present the development of a new neural-network-accelerated framework for modeling the gravitational lensing by line-of-sight halos, motivated by the shortcomings of multiplane lensing and the scientific importance of modeling these effects. The architectures of these networks, conceived as part of this work, are based on the attention mechanism, and can be conditioned on sets of line-of-sight halo models in order to produce their associated deflection angles. This framework offers the flexibility required to replace that of multi-plane lensing, leaving up to the user the freedom to specify a main lens model and being compatible with pixel grids of any size. Our framework allows to accelerate the modeling of line-of-sight lensing by nearly two orders of magnitude relative to multi-plane lensing, and promises to reach a comparable accuracy in future developments. This constitutes a significative contribution to the study of dark matter on small scales, which will either lead to the reconciliation of ΛCDM and observations, or the adoption of an alternate cosmological model.
73

Matière diffuse et molécules interstellaires

Cernicharo, José 24 June 1988 (has links) (PDF)
La structure des nuages sombres de la région Taurus-Auriga-perseus et les causes des différences chimiques observées sont etudiées à l'aide de données radio, IR et optique. Des observations millimétriques ont permis de réaliser des cartes détaillées enCO de ce complexe moléculaire interstellaire. De nouvelles molécules métalliques ont été détectées (CLNA,CLK,CLAL, et FAL) ainsi que des isotopes de SICC et HCCCH. Des travaux instrumentaux pour différents radiotélescopes sont aussi décrits.
74

Etude de bruit de fond induit par les muons dans l'expérience EDELWEISS-II

Chantelauze, Astrid 04 November 2009 (has links) (PDF)
L'expérience EDELWEISS a pour but de détecter des WIMPs, particules massives faiblement interactives, qui pourraient composer la matière noire de l'univers. Elle mesure l'énergie libérée lors de la collision élastique d'un WIMP sur un noyau de matière ordinaire. Du fait de sa très faible section efficace d'interaction, qui conduit à un taux d'évènement extrêment bas (<1evt/kg/an) et du fait du faible dépôt d'énergie (<100keV), le signal de recul nucléaire des WIMPs peut être imité par des neutrons de la radioactivité ambiante ou induits par des muons. Cette thèse est dédiée à l'étude du bruit de fond induit par les muons. Les performances du véto muon de l'expérience EDELWEISS-II sont présentées et la détection des muons er de leurs gerbes discutés. Les premières coïncidences entre le véto muon et les bolomètres ont été réalisées sur deux prises de données de 4 mois de 2007 et 2008 et conduisent à un résultat de 0.043+-0.015 coinc/kg/j pour une énergie de recul de ER<250 keV
75

Discrimination d'événements par analyse des signaux enregistrés par le projet PICASSO

Archambault, Simon 07 1900 (has links)
La matière sombre est un mystère dans le domaine de l’astrophysique depuis déjà plusieurs années. De nombreuses observations montrent que jusqu’à 85 % de la masse gravitationnelle totale de l’univers serait composée de cette matière de nature inconnue. Une théorie expliquant cette masse manquante considérerait les WIMPs (Weakly Interacting Massive Particles), particules stables, non chargées, prédites par des extensions du modèle standard, comme candidats. Le projet PICASSO (Projet d’Identification des CAndidats Supersymétriques à la matière Sombre) est une expérience qui tente de détecter directement le WIMP. Le projet utilise des détecteurs à gouttelettes de fréon (C4F10) surchauffées. La collision entre un WIMP et le noyau de fluor crée un recul nucléaire qui cause à son tour une transition de phase de la gouttelette liquide à une bulle gazeuse. Le bruit de ce phénomène est alors capté par des senseurs piézoélectriques montés sur les parois des détecteurs. Le WIMP n’est cependant pas la seule particule pouvant causer une telle transition de phase. D’autres particules environnantes peuvent former des bulles, telles les particules alpha où même des rayons gamma . Le système d’acquisition de données (DAQ) est aussi en proie à du bruit électronique qui peut être enregistré, ainsi que sensible à du bruit acoustique extérieur au détecteur. Finalement, des fractures dans le polymère qui tient les gouttelettes en place peut également causer des transitions de phase spontanées. Il faut donc minimiser l’impact de tous ces différents bruit de fond. La pureté du matériel utilisé dans la fabrication des détecteurs devient alors très importante. On fait aussi appel à des méthodes qui impliquent l’utilisation de variables de discrimination développées dans le but d’améliorer les limites d’exclusion de détection du WIMP. / Dark matter has been a mystery for astrophysicists for years now. Numerous observations have shown that up to 85 % of the gravitation mass of the universe is made of this unknown type of matter. One of the theories explaining this missing mass problem considers WIMPs (Weakly Interacting Massive Particles), neutral stable particles predicted by extensions of the standard model, as possible candidates. The PICASSO experiment (Project In Canada to Search for Supersymetric Objects) tries to detect this particle directly. The technique uses superheated droplet detectors, with freon (C4F10) as the active medium. When a WIMP hits the fluorine nucleus, it creates a nuclear recoil, which in turn triggers a phase transition from a liquid droplet to a gaseous bubble. The acoustic noise of this event is then recorded by piezoelectric transducers mounted on the walls of the detector. There are however other particles than the WIMPs that can trigger this phase transition. Alpha particles, or even gamma rays can create bubbles. The Data Acquisition System (DAQ) is also subject to electronic noise that can be picked up, and to acoustic noise coming from an exterior source. Fractures in the polymer holding the droplets in place can also trigger spontaneous phase transitions. There is therefore a need to minimize the impact of these background noises. The level of purity of the ingredients used in detector fabrication then becomes very important. Digital processing methods are also used to develop discrimination variables that improve the limits of detection of the WIMP.
76

Analyse des données et étude systématique de la réponse des détecteurs dans le cadre du projet PICASSO

Giroux, Guillaume January 2008 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
77

Agglomération et hétéroagglomération des nanoparticules d'argent en eaux douces

Maillette, Sébastien 04 1900 (has links)
Les nanomatériaux sont une classe de contaminants qui est de plus en plus présent dans l’environnement. Leur impact sur l’environnement dépendra de leur persistance, mobilité, toxicité et bioaccumulation. Chacun de ces paramètres dépendra de leur comportement physicochimique dans les eaux naturelles (i.e. dissolution et agglomération). L’objectif de cette étude est de comprendre l’agglomération et l’hétéroagglomération des nanoparticules d’argent dans l’environnement. Deux différentes sortes de nanoparticules d’argent (nAg; avec enrobage de citrate et avec enrobage d’acide polyacrylique) de 5 nm de diamètre ont été marquées de manière covalente à l’aide d’un marqueur fluorescent et ont été mélangées avec des colloïdes d’oxyde de silice (SiO2) ou d’argile (montmorillonite). L’homo- et hétéroagglomération des nAg ont été étudiés dans des conditions représentatives d’eaux douces naturelles (pH 7,0; force ionique 10 7 à 10-1 M de Ca2+). Les tailles ont été mesurées par spectroscopie de corrélation par fluorescence (FCS) et les résultats ont été confirmés à l’aide de la microscopie en champ sombre avec imagerie hyperspectrale (HSI). Les résultats ont démontrés que les nanoparticules d’argent à enrobage d’acide polyacrylique sont extrêmement stables sous toutes les conditions imposées, incluant la présence d’autres colloïdes et à des forces ioniques très élevées tandis que les nanoparticules d’argent avec enrobage de citrate ont formées des hétéroagrégats en présence des deux particules colloïdales. / Nanomaterials are a class of contaminants that are increasingly found in the natural environment. Their environmental risk will depend on their persistence, mobility, toxicity and bioaccumulation. Each of these parameters will depend strongly upon their physicochemical fate (dissolution, agglomeration) in natural waters. The goal of this paper is to understand the agglomeration and heteroagglomeration of silver nanoparticles in the environment. Two different silver nanoparticles (nAg; citrate coated and polyacrylic acid coated) with a diameter of 5 nm were covalently labelled with a fluorescent dye and then mixed with colloidal silicon oxides (SiO2) and clays (montmorillonite). The homo- and heteroagglomeration of the silver nanoparticles were then studied in waters that were representative of natural freshwaters (pH 7.0; ionic strength 10-7 to 10-1 M of Ca2+). Sizes were followed by fluorescence correlation spectroscopy (FCS) and results were validated using enhanced darkfield microscopy with hyperspectral imaging (HSI). Results have demonstrated that the polyacrylic acid coated nAg was extremely stable under all conditions, including in the presence of other colloids and at high ionic strength, whereas the citrate coated nAg formed heteroagregates in the presence of both natural colloidal particles.
78

Direct detection of dark matter with the PICO Experiment and the PICO-0.1 calibration chamber

Tardif, Frédéric 08 1900 (has links)
No description available.
79

Etude statistique des corrélations dans la distribution des galaxies - application aux oscillations baryoniques acoustiques / Statistical study of the correlation in the galaxy distribution – application to the baryonic acoustic oscillations

Labatie, Antoine 13 December 2012 (has links)
Les Oscillations Baryoniques Acoustiques (BAOs) correspondent au phénomène d'ondes acoustiques dans le plasma baryon-photon avant la recombinaison. Ces oscillations impriment une échelle standard, correspondant à l'horizon sonique, qui peut être observée dans les grandes structures de l'Univers. De par cette propriété d'étalon standard, les BAOs permettent d'étudier la relation distance-redshift dans les catalogues de galaxies et fournissent un outil très prometteur pour étudier les propriétés de l'énergie sombre. Les BAOs peuvent être étudiés à partir des statistiques du second ordre (la fonction de corrélation ou le spectre de puissance) dans la distribution des galaxies. Dans cette thèse, on se restreint au cas de la fonction de corrélation. Les BAOs apparaissent dans la fonction de corrélation comme un faible pic à l'échelle de l'horizon sonique. Il y a deux applications principales des BAOs: la détection des BAOs et la contraintes des paramètres cosmologiques grâce à la propriété d'étalon standard. La détection du pic BAO à une échelle proche de l'échelle attendue permet de confirmer le modèle cosmologique actuel. Quant à la contrainte des paramètres cosmologiques, permettant d'étudier l'énergie sombre, il s'agit d'un objectif majeur de la cosmologie moderne. Dans cette thèse, on s'intéresse à différents problèmes statistiques concernant l'étude de la fonction de corrélation dans la distribution des galaxies, avec un accent particulier sur l'étude des BAOs. Dans la première partie, on fait une étude à la fois théorique et pratique du biais dû à la contrainte intégrale dans les estimateurs de la fonction de corrélation. On montre que ce biais est très faible pour les relevés de galaxies actuels. Dans la seconde partie, on s'intéresse à la détection des BAOs. On montre les limitations de la méthode de détection classique, et on propose une nouvelle méthode plus rigoureuse. Notre méthode permet notamment de prendre en compte la dépendance de la matrice de la covariance de l'estimateur en fonction du modèle. Enfin dans la troisième partie, on étudie à nouveau la question la dépendance de la matrice de la covariance, cette fois pour la contrainte des paramètres cosmologiques. On estime une matrice de covariance dépendant du modèle et l'on compare nos contraintes avec les contraintes obtenues en faisant l'approximation habituelle d'une matrice de covariance constante. On montre que l'effet de cette approximation est relativement faible et diminue lorsque les relevés de galaxies grandissent. / Baryon Acoustic Oscillations (BAOs) correspond to the acoustic phenomenon in the baryon-photon plasma before recombination. BAOs imprint a particular scale, corresponding to the sound horizon, that can be observed in large-scale structures of the Universe. Using this standard ruler property, BAOs can be used to probe the distance-redshift relation in galaxy catalogues, thus providing a very promising tool to study dark energy properties. BAOs can be studied from the second order statistics (the correlation function or the power spectrum) in the distribution of galaxies. In this thesis we restrict to the case of the correlation function. BAOs appear in the correlation function as a small localized bump at the scale of the sound horizon in comoving coordinates. There are two major applications of BAO study: BAO detection and cosmological parameter constraints using the standard ruler property. The detection of BAOs at the expected scale enables to confirm the current cosmological model. As for cosmological parameter constraints, enabling the study of dark energy, it is a major goal of modern cosmology. In this thesis we tackle different statistical problems concerning the correlation function analysis in the galaxy distribution, with a focus on the study of BAOs. In the first part, we make both a theoretical and practical study of the bias due to the integral constraints in correlation function estimators. We show that this bias is very small for current galaxy surveys. In the second part we study the BAO detection. We show the limitations of the classical detection method and propose a new method, which is more rigorous. In particular our method enables to take into account the model-dependence of the covariance matrix of the estimators. In the third part, we focus again on the model-dependence of the covariance matrix, but this time for parameter constraints. We estimate a model-dependent covariance matrix and compare our constraints with constraints obtained by making the usual approximation of a constant covariance matrix. We show that the effect of this approximation is quite small for current galaxy surveys and decreases with the survey size.
80

Combinaisons de sondes cosmologiques : deux applications avec les données de Planck et SDSS-III/BOSS / Combinations of cosmic microwave background and large-scale structure cosmological probes

Doux, Cyrille 14 November 2017 (has links)
Cette thèse s’intéresse aux combinaisons d’observables cosmologiques provenant des mesures du fond diffus cosmologique et des relevés de galaxies, et est basée sur l’exploitation des données du satellite Planck et du Baryon Oscillation Spectroscopic Survey (BOSS) du Sloan Digital Sky Survey. On explore l’utilisation de corrélations croisées entre les jeux de données afin de mettre en évidence de nouveaux effets et d’améliorer les contraintes statistiques sur les paramètres cosmologiques. Dans un premier temps, on mesure pour la première fois une corrélation entre le lentillage gravitationnel du fond diffus cosmologique et le spectre de puissance des fluctuations de la forêt Lyman-α des quasars. Cet effet, d’origine purement non-linéaire, est interprété comme la réponse du spectre de puissance à des grandes échelles. Il montre comment les fluctuations dans la densité en hydrogène neutre dans le milieu intergalactique sont influencées par des fluctuations à grande échelle dans la densité de matière noire. Le signal mesuré est compatible avec l’approche théorique et des simulations menées par d’autres groupes. Dans un deuxième temps, on développe un formalisme permettant une analyse conjointe de la densité de galaxies et de quasars de BOSS avec le lentillage gravitationnel du fond diffus cosmologique. La prise en compte des corrélations croisées entre ces sondes permet de diminuer les barres d’erreurs de certains paramètres cosmologiques de 20%, ce qui équivaut à augmenter la surface couverte par les relevés de presque 50%. Cette analyse est complétée par la mesure des anisotropies de température du fond diffus cosmologique afin de contraindre tous les paramètres du modèle standard ΛCDM, ainsi que les biais des galaxies. Puis on étend le modèle afin d’explorer les contraintes sur l’équation d’état de l’énergie noire et la somme des masses des neutrinos / This thesis addresses the combinations of cosmological probes from the measurements of the cosmic microwave background (CMB) and galaxy redshift surveys, and exploits data from the Planck satellite and the Baryon Oscillation Spectroscopic Survey (BOSS) of the Sloan Digital Sky Survey. It explores how cross-correlations between different data sets can be used to detect new signals and improve contraints on cosmological parameters. First, we measure, for the first time, the cross-correlation between gravitational lensing of the CMB and the power spectrum of the Lyman-α forest in the spectra of quasars. This effect, which emerges from purely non-linear evolution, is interpreted as the response of the power spectrum to large-scale modes. It shows how fluctuations in the density of neutral hydrogen in the intergalactic medium are affected by large-scale fluctuations in the density of dark matter. The measured signal is compatible with the theoretical approach and simulations run by another group. In a second time, we develop a formalism enabling the joint analysis of the galaxy/quasar density contrast and CMB lensing. Taking cross-correlations between these probes into account reduces error bars on some cosmological parameters by up to 20%, equivalent to an increase in the size of the survey of about 50%. This analysis is completed by CMB temperature anisotropies information in order to constrain all the parameters of the ΛCDM standard model and galaxy biases at once. Finally, it is extended to obtain contraints on the dark energy equation of state as well as the sum of the masses of neutrinos

Page generated in 0.0409 seconds