• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 10
  • 5
  • 5
  • Tagged with
  • 20
  • 20
  • 15
  • 15
  • 13
  • 10
  • 9
  • 9
  • 9
  • 8
  • 8
  • 8
  • 8
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Propriétés Physiques des Galaxies Distantes sous la loupe des Amas-lentilles

Richard, Johan 12 September 2012 (has links) (PDF)
Les recherches que j'ai menées depuis mon doctorat ont consisté à étudier l'Univers distant, en particulier la formation et l'évolution des galaxies. Je me suis basé pour cela sur des observations obtenues sur les grands équipements astronomiques (télescopes au sol et spatiaux, radiotélescopes), que j'ai combinées à l'effet bénéfique de l'amplification gravitationnelle fournie par des amas de galaxies massifs. En effet, la présence d'un tel amas sur la ligne de visée va entraîner une augmentation du flux et de la taille des galaxies situées en arrière-plan, à la manière d'un télescope supplémentaire. Cet effet, une fois bien modélisé et calibré, nous permet d'étudier plus facilement et à meilleure résolution les sources distantes qui sont généralement plus faibles. Une grand partie de mon travail a ainsi concerné de multiples observations d'amas de galaxies massifs, dans l'idée de mesurer un grand nombre de systèmes multiples apparaissant par effet de lentille forte. Ceci permet de calibrer le profil de masse de ces amas et de sélectionner les meilleurs télescopes gravitationnels. Le résultat de ces campagnes d'observations est également très important pour construire un échantillon de galaxies distantes amplifiées. Parmi les études sur les galaxies à des décalages spectraux 1 < z < 5, correspondant typiquement au pic de la formation stellaire globale dans l'histoire des galaxies, on peut distinguer les observations résolues et non résolues spatialement. Les galaxies les plus brillantes (intrinsèquement ou par effet d'amplification) sont aussi les plus étendues dans la dimension spatiale, ce qui permet de mesurer leurs propriétés internes : régions multiples de formation stellaire intense dans un même objet, mesure de la cinématique globale en étudiant le champ de vitesse du gaz, ou encore évolution des propriétés chimiques (comme la métallicité du gaz) de part et d'autre de la galaxie. Ce type d'étude nous permet de comprendre les mécanismes physiques en oeuvre dans les galaxies distantes, et de comprendre leur différence par rapport à l'Univers local. Les galaxies les plus faibles sont généralement peu ou pas résolues, ce qui nous donne accès à des mesures globales (taille de l'objet, masse stellaire, luminosité, spectre intégré). Un des avantages de l'amplification est d'obtenir un niveau de signal mesuré suffisant pour étudier les paramètres globaux de galaxies intrinsèquement très faibles, ce qui est entièrement complémentaire aux études de galaxies plus lumineuses ou plus massives en absence d'amplification. Parmi les propriétés statistiques de ces échantillons, les relations d'échelle entre les différents paramètres globaux peuvent être étudiées sur plusieurs ordres de grandeur. Enfin, pour les galaxies les plus distantes (typiquement à z > 5), qui sont moins nombreuses et quasiment non-résolues, on va effectuer des recherches de sources amplifiées pour les étudier en d'etail de manière individuelle. Ces sources ont un intérêt tout particulier car elles auraient une contribution importante au processus de réionisation du milieu intergalactique, qui s'est produit au cours du premier milliard d'années d'histoire de l'Univers. Là encore, l'effet de lentille est très important pour étudier des sources intrinsèquement moins lumineuses, ou des sources très amplifiées que l'on peut étudier par spectroscopie.
12

Triaxial galaxy clusters / Amas de galaxies triaxiaux

Bonamigo, Mario 22 September 2016 (has links)
Il est bien établit théoriquement et observationnellement que les amas de galaxies ne sont pas des objets sphèriques, et qu'ils sont beaucoup mieux décrits par la géométrie triaxiale. Malgré cela, les travaux sur la forme tri-dimensionnelle des amas de galaxies sont encore trés rares. L'objet de cette thèse est de contribuer à cette problématique naissante. L'originalité de ce travail est d'aborder ce sujet théoriquement et observationnellement. J'ai mesuré la forme d'amas de galaxies simulés, proposant des prédictions sur la forme des haloes de matière noire. J'ai ensuite développé un algorithme qui se propose de combiner des données en lentilles gravitationnelles et en rayons X afin de contraindre un modèle de haloe triaxial. L'algorithme est testé sur des données simulées. Finalement, je présente l'analyse en rayons X de Abell 1703, qui, combinée avec l'analyse en lentilles gravitationnelles, permettra de déterminer la forme de Abell 1703. / It is well established both theoretically and observationally that galaxy clusters are not spherical objects and that they are much better approximated as triaxial objects. This thesis focusses on the three dimencional shape of galaxy clusters. The originality of my approach is to tackle the problem both theoretically and observationally. First, I have measured the shape of dark matter haloes in the Millenium XXL and Sbarbine simulations, providing predictions for dark matter halo shape over 5 order in magnitude in mass. Then, I have developed an algorithm aimed at fitting simultaneously lensing and X-ray data in order to constrain a triaxial mass distribution. The algorithm is tested and characterized on mock data sets. It is found to be able to recover the input parameters. Finally, I present the X-ray analysis of galaxy cluster Abell 1703, which will be combined with the existing lensing analysis in order to investigate its shape.
13

Reconstruction libre de lentilles gravitationnelles de type galaxie-galaxie avec les machines à inférence récurentielle

Adam, Alexandre 12 1900 (has links)
Les lentilles gravitationnelles de type galaxie-galaxie se produisent lorsque la lumière d'une galaxie en arrière-plan est déviée par le champ gravitationnel d'une galaxie en avant-plan, formant des images multiples ou même des anneaux d'Einstein selon le point de vue d'un observateur sur Terre. Ces phénomènes permettent non seulement d'étudier les galaxies lointaines, magnifiées par la galaxie-lentille, mais aussi de comprendre la distribution de masse de la galaxie-lentille et de son environnement, une opportunité unique pour sonder la matière noire contenue dans ces galaxies. Or, les méthodes traditionnelles pour analyser ces systèmes requièrent une quantité significative de temps ordinateur (de quelques heures à quelques jours), sans compter le temps des experts pour faire converger les analyses MCMC requises pour obtenir les paramètres d'intérêts. Ce problème est significatif, considérant qu'il est projeté que les grands relevés du ciel comme ceux qui seront menés aux observatoires Rubin et Euclid découvrirons plusieurs centaines de milliers de lentilles gravitationnelles. De plus, le Télescope géant européen (ELT), faisant usage de la technologie d'optique adaptative, et le télescope spatial James Webb, vont nous offrir une vue sans précédent de ces systèmes, avec un pouvoir de résolution qui rendra possible certaines analyses comme la recherche de halo de matière noire froide, longtemps prédite par le modèle cosmologique standard $\Lambda$CDM. Les approximations traditionnelles faites pour simplifier la reconstruction des lentilles gravitationnelles ne seront plus valides dans ce régime. Dans ce mémoire, je présente un travail qui s'attaque à ces deux problèmes. Je présente une méthode d'optimisation basée sur les machines à inférence récurentielle pour reconstruire deux images, soit celle d'une galaxie en arrière-plan et une image pour la distribution de masse de la galaxie en avant-plan. La représentation paramétrique choisie a le potentiel de reconstruire une classe très large de lentilles gravitationnelles, incluant des halos et sous-halos de matière noire, ce qu'on démontre dans ce travail en utilisant des profiles de densité réalistes provenant de la simulation cosmologique hydrodynamique IllustrisTNG. Nos reconstructions atteignent un niveau de réalisme jamais atteint auparavant et s'exécutent sur une fraction du temps requis pour exécuter une analyse traditionnelle, soit un pas significatif vers une méthode pouvant adresser le défi d'analyser autant de systèmes complexes et variés en un temps à l'échelle humaine. / Galaxy-Galaxy gravitational lenses is a phenomenon that happens when the light coming from a background galaxy is bent by the gravitational field of a foreground galaxy, producing multiple images or even Einstein ring images of the background source from the point of view of an observer on Earth. These phenomena allow us to study in detail the morphology of the background galaxy, magnified by the lens, but also study the mass density distribution of the lens and its environment, thus offering a unique probe of dark matter in lensing galaxies. Traditional methods studying these systems often need significant compute time (from hours to days), and this is without taking into account the time spent by experts to make the MCMC chains required to obtain parameters of interest converge. This problem is significant, considering that large surveys from observatories like Rubin and Euclid are projected to discover hundreds of thousands of gravitational lenses. Moreover, the Extremely Large Telescope (ELT), using adaptive optics, and the James Webb Space Telescope will offer an unprecedented glimpse of these systems, with a resolving power predicted to enable searches for cold dark matter subhalos — objects long predicted by the standard cosmological model CDM. Approximations used to make analysis tractable in traditional methods will no longer be valid in that regime. In this thesis, I present a method that aims to address these two issues. The method, based on Recurrent Inference Machines (RIM), reconstructs two pixelated maps, one for the background source and another for the mass density map of the foreground lensing galaxy. This free-form parametric representation has the potential to reconstruct a large class of gravitational lenses, including those with dark matter halos and subhalos, which we demonstrate using realistic mass density profiles from the cosmological hydrodynamic simulation IllustrisTNG. Our method can achieve an unmatched level of realism in a fraction of the time required by traditional methods, which is a significant step toward solving the challenge of studying such a large number of complex and varied systems in a human timescale.
14

Accélération du lentillage gravitationnel à plans multiples par apprentissage profond

Wilson, Charles 04 1900 (has links)
Le "modèle standard" actuel de la cosmologie est celui de ΛCDM, décrivant un Univers en expansion accélérée ainsi qu’une structure de matière sombre froide formée en halos, sur lesquels s’assemblent les galaxies. Malgré les nombreuses confirmations observationnelles de ses prédictions, il existe d’importantes tensions entre les mesures de la distribution de structure sombre aux petites échelles de l’Univers et ce qui serait attendu de ΛCDM. Cependant, ces halos légers de matière sombre, qui sont prédit d’abonder à travers le cosmos, n’hébergent pas de galaxies lumineuses et sont donc très difficiles à observer directement. Leur présence peut toutefois être détectée dans les lentilles gravitationnelles fortes de type galaxie-galaxie, un phénomène se produisant lorsque la lumière d’une galaxie d’arrière-plan est fortement déviée par le champ gravitationnel d’une galaxie d’avantplan, formant des images multiples et des arcs étendus. Les halos distribués en ligne de visée de tels systèmes, ainsi que ceux imbriqués dans la galaxie lentille, peuvent causer des perturbations gravitationnelles dans les images de galaxies lentillées. La détection de ces effets infimes dans des observations de lentilles gravitationnelles est faite par des méthodes statistiques Bayésiennes, qui nécéssitent des centaines de milliers de simulations de la contribution de ces perturbateurs à la déflexion de la lumière. Traditionnellement, la modélisation du lentillage par les halos en ligne de visée s’est faite avec le formalisme du lentillage à plans multiples, qui souffre d’une nature récursive peu efficace. De plus, il est prédit par le modèle ΛCDM que la majorité des systèmes de lentilles gravitationnelles comporteraient davantage de halos en ligne de visée que de sous-halos imbriqués dans la galaxie lentille, motivant une modélisation détaillée des effets de ligne de visée. Dans un contexte d’analyse Bayésienne, l’approche du lentillage à plans multiples représente une échelle de temps de plusieurs jours pour l’analyse d’un seul système. En considérant que des grands relevés du ciel comme ceux de l’Observatoire Vera Rubin et du télescope spatial Euclid sont projetés de découvrir des centaines de milliers de lentilles gravitationnelles, l’effort de contraindre la distribution de matière sombre aux petites échelles se voit confronté à ce qui pourrait être un insurmontable problème de temps de calcul. Dans ce mémoire, je présente le développement d’un nouveau formalisme de modélisation du lentillage gravitationnel par halos en ligne de visée accéléré par des réseaux de neurones, motivé par les lacunes du lentillage à plans multiples et l’importance scientifique de la modélisation de ces effets. Les architectures de ces réseaux, conçues dans le cadre de ce travail, sont basées sur le mécanisme d’attention, et peuvent être conditionnées sur des ensembles de modèles de halos en ligne de visée afin de produire les angles de déflexion leur étant associés. Ce formalisme offre la flexibilité requise pour remplacer celui du lentillage à plans multiples, laissant à l’usager la liberté de spécifier un modèle de lentille principale et étant compatible avec des grilles de pixels de taille quelconque. Notre formalisme permet d’accélérer la modélisation du lentillage de ligne de visée par presque deux ordres de grandeur lorsque comparé au lentillage à plans multiples, et promet d’atteindre une exactitude lui étant comparable dans des développements futurs. Il s’agit d’une contribution significative à l’étude de la matière sombre aux petites échelles, qui permettra soit de réconcilier ΛCDM et les observations, ou mènera à l’adoption d’un modèle cosmologique alternatif. / The current "standard model" of cosmology is that of ΛCDM, describing a Universe undergoing accelerated expansion with a structure of cold dark matter formed into halos, onto which are assembled galaxies. Despite the numerous observational confirmations of its predictions, there remains some important tensions between measures of the distribution of dark structure on small scales of the Universe and what would be expected from ΛCDM. However, these light dark matter halos, predicted to be adundant throughout the cosmos, are not hosts of luminous galaxies and are therefore very difficult to observe directly. Yet, their presence can still be detected in galaxy-galaxy type strong gravitational lenses, a phenomenon occuring when the light of a background galaxy is strongly deflected by the gravitational field of a foreground galaxy, forming multiple images and extended arcs. Halos distributed along the line-of-sight of such systems, as well as those nested within the lens galaxy, can introduce gravitational perturbations in images of lensed galaxies. The detection of such infinitesimal effects in strong lensing observations is made with methods relying on Bayesian statistics, which require hundreds of thousands of simulations of the contribution of these perturbers to the deflection of light. Traditionally, modeling the lensing from line-of-sight halos has been done with the multi-plane lensing framework, which suffers from its inefficient recursive nature. Morevoer, the ΛCDM model predicts that most gravitational lens systems would host a larger amount of line-of-sight halos than subhalos nested within the lens galaxy, motivating a detailed modeling of line-of-sight effects. In a Bayesian analysis context, the multi-plane lensing approach represents a timescale of multiple days for the analysis of a single system. Considering that large sky surveys such as those of the Vera Rubin Observatory and the Euclid space telescope are projected to discover hundreds of thousands of gravitational lenses, the effort of constraining the small-scale distribution of dark matter is confronted to what might seem like an insurmountable problem of computation time. In this thesis, I present the development of a new neural-network-accelerated framework for modeling the gravitational lensing by line-of-sight halos, motivated by the shortcomings of multiplane lensing and the scientific importance of modeling these effects. The architectures of these networks, conceived as part of this work, are based on the attention mechanism, and can be conditioned on sets of line-of-sight halo models in order to produce their associated deflection angles. This framework offers the flexibility required to replace that of multi-plane lensing, leaving up to the user the freedom to specify a main lens model and being compatible with pixel grids of any size. Our framework allows to accelerate the modeling of line-of-sight lensing by nearly two orders of magnitude relative to multi-plane lensing, and promises to reach a comparable accuracy in future developments. This constitutes a significative contribution to the study of dark matter on small scales, which will either lead to the reconciliation of ΛCDM and observations, or the adoption of an alternate cosmological model.
15

Large imaging surveys for cosmology: cosmic magnification and photometric calibration

Boucaud, Alexandre 27 September 2013 (has links) (PDF)
Ce travail de thèse se focalise sur l'usage de grands sondages pour extraire de l'information sur la cosmologie. Une photométrie de précision joue un rôle clé dans cette quête à travers la détermination de redshifts photométriques ainsi que la propagation des erreurs dans les résultats cosmologiques ; thème unissant les deux parties de cette thèse. Après une revue de la cosmologie et des mesures favorisant le modèle ΛCDM, ainsi qu'une description du Large Synoptic Survey Telescope (LSST), la première partie de ce travail se porte sur l'étude de la variation des principaux constituants de l'atmosphère sur la photométrie au sol, au niveau du site du LSST à Cerro Pachón, au Chili. Nous utilisons des données récentes sur l'ozone, la vapeur d'eau et les aérosols pour en construire une simulation de longue durée et estimer quantitativement l'influence des gradients spatiaux et temporels de ces constituants sur la procédure de la calibration du LSST. La deuxième partie de ce travail débute par une description théorique de l'effet de lentille gravitationnelle, avec un accent sur le lentillage faible. Après une comparaison des avantages et inconvénients inhérents aux mesures de cisaillement cosmique, nous explorons l'utilisation de l'amplification cosmique conjointement à la séparation tomographique en redshift permise par le LSST afin de contraindre les modèles. Nous trouvons que l'amplification cosmique, bien qu'affectée par le clustering intrinsèque, représente une sonde prometteuse du biais des galaxies et de l'énergie noire, complémentaire au cisaillement cosmique, et qui augmente la robustesse des contraintes cosmologiques provenant des mêmes relevés.
16

CONTRAINTES COSMOLOGIQUES DEDUITES DES EFFETS DE LENTILLE GRAVITATIONNELLE DANS LES AMAS DE GALAXIES

GOLSE, Ghislain 16 October 2002 (has links) (PDF)
Les amas-lentilles dans lesquels plusieurs systèmes d'images multiples de galaxies d'arrière-plan sont présents peuvent être utilisés pour contraindre les paramètres cosmologiques. En effet, la modélisation du potentiel gravitationnel de l'amas de galaxies est alors suffisamment précise pour pouvoir accéder à des contraintes sur les distances entre sources et images. Or ces distances dépendent directement de la géométrie de l'Univers, qui est fixée par les paramètres cosmologiques (c'est-à-dire la densité de matière de l'Univers, la constante cosmologique et plus généralement l'énergie noire). Cette méthode requiert des modèles paramétriques précis de potentiels gravitationnels. Un formalisme général de profils pseudo elliptiques a donc été développé, donnant les expressions analytiques des grandeurs utilisées dans le phénomène de lentille gravitationnelle. Une première approche a été effectuée avec une étude semi-analytique des erreurs, afin d'estimer les ordres de grandeur des précisions attendues, en fonction de contraintes observationnelles réalistes. Ce travail préliminaire s'est poursuivi par des simulations numériques de lentilles gravitationnelles typiques. Cette étape a permis de préciser la méthode d'optimisation du potentiel et la dégénérescence attendue entre les paramètres cosmologiques. Ce processus a ensuite été appliqué aux amas de galaxies A2218 et AC114. La géométrie de l'Univers qu'on en déduit rentre dans le cadre du paradigme actuel (issu principalement des contraintes données par l'étude des anisotropies du fond diffus cosmologique et celle des supernovae distantes de type Ia prises comme chandelles standard). Les dégénérescences obtenues peuvent être en partie brisées en combinant ces résultats avec ceux issus de tests cosmologiques indépendants. Enfin, le processus d'optimisation du potentiel permet en outre de donner une description fine de la distribution de masse de ces deux amas. Leur profil de densité centrale est en particulier plat. Le test cosmologique présenté dans cette thèse nécessite la connaissance précise du décalage spectral des sources de chaque système d'images. Un programme d'observations spectroscopiques d'arcs gravitationnels dans l'amas de galaxies A1689 -- qui est un excellent candidat pour le test proposé -- effectué sur le VLT a ainsi été conduit.
17

Moyennes sur le Cône de Lumière et Cosmologie de Précision

Nugier, Fabien 04 September 2013 (has links) (PDF)
Le premier objectif de cette thèse est de répondre au manque en cosmologie de description sur le cône de lumière passé: hypersurface nulle où se propagent tous les signaux observés. Son deuxième est d'évaluer l'importance des inhomogénéités dans la détermination des paramètres de l'énergie sombre, de nature encore inconnue et pour laquelle l'influence des structures de matière a été proposée comme une alternative cosmologique. Nous définissons une jauge "géodésique sur le cône de lumière" qui simplifie grandement l'étude de la propagation lumineuse dans l'Univers. Nous établissons ensuite une moyenne, invariante de jauge, pour les quantités scalaires sur le cône et calculons l'effet des inhomogénéités sur le flux lumineux en considérant leur spectre de puissance jusque son régime non-linéaire. Leur effet sur le flux est négligeable tandis que des observables comme la distance de luminosité, évaluée jusqu'au second ordre en perturbations, sont bien plus affectées. Nous étudions aussi le module de distance à la base de la découverte de l'énergie sombre par les supernovæ (SNe) Ia. La moyenne de ce module est peu affectée par les inhomogénéités mais sa variance l'est sensiblement. Ces résultats montrent, dans leur cadre, qu'une alternative à l'énergie sombre par un effet des structures est impossible mais, en même temps, soulignent leur importance sur la dispersion des données du diagramme de Hubble. Les effets physiques dominants sont la vitesse des SNe et l'effet de lentille faible. Nos prédictions sur la dispersion se révèlent en très bon accord avec les premières analyses de SNe visant à détecter un signal de lentilles et seront vérifiables dans les années futures.
18

Estimateur neuronal de ratio pour l'inférence de la constante de Hubble à partir de lentilles gravitationnelles fortes

Campeau-Poirier, Ève 12 1900 (has links)
Les deux méthodes principales pour mesurer la constante de Hubble, soit le taux d’expansion actuel de l’Univers, trouvent des valeurs différentes. L’une d’elle s’appuie lourdement sur le modèle cosmologique aujourd’hui accepté pour décrire le cosmos et l’autre, sur une mesure directe. Le désaccord éveille donc des soupçons sur l’existence d’une nouvelle physique en dehors de ce modèle. Si une autre méthode, indépendante des deux en conflit, soutenait une des deux valeurs, cela orienterait les efforts des cosmologistes pour résoudre la tension. Les lentilles gravitationnelles fortes comptent parmi les méthodes candidates. Ce phénomène se produit lorsqu’une source lumineuse s’aligne avec un objet massif le long de la ligne de visée d’un télescope. La lumière dévie de sa trajectoire sur plusieurs chemins en traversant l’espace-temps déformé dans le voisinage de la masse, résultant en une image déformée, gros- sie et amplifiée. Dans le cas d’une source lumineuse ponctuelle, deux ou quatre images se distinguent nettement. Si cette source est aussi variable, une de ses fluctuations apparaît à différents moments sur chaque image, puisque chaque chemin a une longueur différente. Le délai entre les signaux des images dépend intimement de la constante de Hubble. Or, cette approche fait face à de nombreux défis. D’abord, elle requiert plusieurs jours à des spécialistes pour exécuter la méthode de Monte-Carlo par chaînes de Markov (MCMC) qui évalue les paramètres d’un seul système de lentille à la fois. Avec les détections de milliers de systèmes prévues par l’observatoire Rubin dans les prochaines années, cette approche est inconcevable. Elle introduit aussi des simplifications qui risquent de biaiser l’inférence, ce qui contrevient à l’objectif de jeter la lumière sur le désaccord entre les mesures de la constante de Hubble. Ce mémoire présente une stratégie basée sur l’inférence par simulations pour remédier à ces problèmes. Plusieurs travaux antérieurs accélèrent la modélisation de la lentille grâce à l’ap- prentissage automatique. Notre approche complète leurs efforts en entraînant un estimateur neuronal de ratio à déterminer la distribution de la constante de Hubble, et ce, à partir des produits de la modélisation et des mesures de délais. L’estimateur neuronal de ratio s’exécute rapidement et obtient des résultats qui concordent avec ceux de l’analyse traditionnelle sur des simulations simples, qui ont une cohérence statistique acceptable et qui sont non-biaisés. / The two main methods to measure the Hubble constant, the current expansion rate of the Universe, find different values. One of them relies heavily on today’s accepted cosmological model describing the cosmos and the other, on a direct measurement. The disagreement thus arouses suspicions about the existence of new physics outside this model. If another method, independent of the two in conflict, supported one of the two values, it would guide cosmologists’ efforts to resolve the tension. Strong gravitational lensing is among the candidate methods. This phenomenon occurs when a light source aligns with a massive object along a telescope line of sight. When crossing the curved space-time in the vicinity of the mass, the light deviates from its trajectory on several paths, resulting in a distorted and magnified image. In the case of a point light source, two or four images stand out clearly. If this source is also variable, the luminosity fluctuations will appear at different moments on each image because each path has a different length. The time delays between the image signals depend intimately on the Hubble constant. This approach faces many challenges. First, it requires several days for specialists to perform the Markov Chain Monte-Carlo (MCMC) which evaluates the parameters of a single lensing system at a time. With the detection of thousands of lensing systems forecasted by the Rubin Observatory in the coming years, this method is inconceivable. It also introduces simplifications that risk biasing the inference, which contravenes the objective of shedding light on the discrepancy between the Hubble constant measurements. This thesis presents a simulation-based inference strategy to address these issues. Several previous studies have accelerated the lens modeling through machine learning. Our approach complements their efforts by training a neural ratio estimator to determine the distribution of the Hubble constant from lens modeling products and time delay measurements. The neural ratio estimator results agree with those of the traditional analysis on simple simulations, have an acceptable statistical consistency, are unbiased, and are obtained significantly faster.
19

Mesurer la masse de trous noirs supermassifs à l’aide de l’apprentissage automatique

Chemaly, David 07 1900 (has links)
Des percées récentes ont été faites dans l’étude des trous noirs supermassifs (SMBH), grâce en grande partie à l’équipe du télescope de l’horizon des évènements (EHT). Cependant, déterminer la masse de ces entités colossales à des décalages vers le rouge élevés reste un défi de taille pour les astronomes. Il existe diverses méthodes directes et indirectes pour mesurer la masse de SMBHs. La méthode directe la plus précise consiste à résoudre la cinématique du gaz moléculaire, un traceur froid, dans la sphère d’influence (SOI) du SMBH. La SOI est définie comme la région où le potentiel gravitationnel du SMBH domine sur celui de la galaxie hôte. Par contre, puisque la masse d’un SMBH est négligeable face à la masse d’une galaxie, la SOI est, d’un point de vue astronomique, très petite, typiquement de quelques dizaines de parsecs. Par conséquent, il faut une très haute résolution spatiale pour étudier la SOI d’un SMBH et pouvoir adéquatement mesurer sa masse. C’est cette nécessité d’une haute résolution spatiale qui limite la mesure de masse de SMBHs à de plus grandes distances. Pour briser cette barrière, il nous faut donc trouver une manière d’améliorer la résolution spatiale d’objets observés à un plus au décalage vers le rouge. Le phénomène des lentilles gravitationnelles fortes survient lorsqu’une source lumineuse en arrière-plan se trouve alignée avec un objet massif en avant-plan, le long de la ligne de visée d’un observateur. Cette disposition a pour conséquence de distordre l’image observée de la source en arrière-plan. Puisque cette distorsion est inconnue et non-linéaire, l’analyse de la source devient nettement plus complexe. Cependant, ce phénomène a également pour effet d’étirer, d’agrandir et d’amplifier l’image de la source, permettant ainsi de reconstituer la source avec une résolution spatiale considérablement améliorée, compte tenu de sa distance initiale par rapport à l’observateur. L’objectif de ce projet consiste à développer une chaîne de simulations visant à étudier la faisabilité de la mesure de la masse d’un trou noir supermassif (SMBH) par cinéma- tique du gaz moléculaire à un décalage vers le rouge plus élevé, en utilisant l’apprentissage automatique pour tirer parti du grossissement généré par la distorsion d’une forte lentille gravitationnelle. Pour ce faire, nous générons de manière réaliste des observations du gaz moléculaire obtenues par le Grand Réseau d’Antennes Millimétrique/Submillimétrique de l’Atacama (ALMA). Ces données sont produites à partir de la suite de simulations hydrody- namiques Rétroaction dans des Environnements Réalistes (FIRE). Dans chaque simulation, l’effet cinématique du SMBH est intégré, en supposant le gaz moléculaire virialisé. Ensuite, le flux d’émission du gaz moléculaire est calculé en fonction de sa vitesse, température, densité, fraction de H2, décalage vers le rouge et taille dans le ciel. Le cube ALMA est généré en tenant compte de la résolution spatiale et spectrale, qui dépendent du nombre d’antennes, de leur configuration et du temps d’exposition. Finalement, l’effet de la forte lentille gravi- tationnelle est introduit par la rétro-propagation du faisceau lumineux en fonction du profil de masse de l’ellipsoïde isotherme singulière (SIE). L’exploitation de ces données ALMA simulées est testée dans le cadre d’un problème de régression directe. Nous entraînons un réseau de neurones à convolution (CNN) à apprendre à prédire la masse d’un SMBH à partir des données simulées, sans prendre en compte l’effet de la lentille. Le réseau prédit la masse du SMBH ainsi que son incertitude, en supposant une distribution a posteriori gaussienne. Les résultats sont convaincants : plus la masse du SMBH est grande, plus la prédiction du réseau est précise et exacte. Tout comme avec les méthodes conventionnelles, le réseau est uniquement capable de prédire la masse du SMBH tant que la résolution spatiale des données permet de résoudre la SOI. De plus, les cartes de saillance du réseau confirment que celui-ci utilise l’information contenue dans la SOI pour prédire la masse du SMBH. Dans les travaux à venir, l’effet des lentilles gravitationnelles fortes sera introduit dans les données pour évaluer s’il devient possible de mesurer la masse de ces mêmes SMBHs, mais à un décalage vers le rouge plus élevé. / Recent breakthroughs have been made in the study of supermassive black holes (SMBHs), thanks largely to the Event Horizon Telescope (EHT) team. However, determining the mass of these colossal entities at high redshifts remains a major challenge for astronomers. There are various direct and indirect methods for measuring the mass of SMBHs. The most accurate direct method involves resolving the kinematics of the molecular gas, a cold tracer, in the SMBH’s sphere of influence (SOI). The SOI is defined as the region where the gravitational potential of the SMBH dominates that of the host galaxy. However, since the mass of a SMBH is negligible compared to the mass of a galaxy, the SOI is, from an astronomical point of view, very small, typically a few tens of parsecs. As a result, very high spatial resolution is required to study the SOI of a SMBH and adequately measure its mass. It is this need for high spatial resolution that limits mass measurements of SMBHs at larger distances. To break this barrier, we need to find a way to improve the spatial resolution of objects observed at higher redshifts. The phenomenon of strong gravitational lensing occurs when a light source in the back- ground is aligned with a massive object in the foreground, along an observer’s line of sight. This arrangement distorts the observed image of the background source. Since this distor- tion is unknown and non-linear, analysis of the source becomes considerably more complex. However, this phenomenon also has the effect of stretching, enlarging and amplifying the image of the source, enabling the source to be reconstructed with considerably improved spatial resolution, given its initial distance from the observer. The aim of this project is to develop a chain of simulations to study the feasibility of measuring the mass of a supermassive black hole (SMBH) by kinematics of molecular gas at higher redshift, using machine learning to take advantage of the magnification generated by the distortion of a strong gravitational lens. To this end, we realistically generate observations of molecular gas obtained by the Atacama Large Millimeter/Submillimeter Antenna Array (ALMA). These data are generated from the Feedback in Realistic Environments (FIRE) suite of hydrodynamic simulations. In each simulation, the kinematic effect of the SMBH is integrated, assuming virialized molecular gas. Next, the emission flux of the molecular gas is calculated as a function of its velocity, temperature, density, H2 fraction, redshift and sky size. The ALMA cube is generated taking into account spatial and spectral resolution, which depend on the number of antennas, their configuration and exposure time. Finally, the effect of strong gravitational lensing is introduced by back-propagating the light beam according to the mass profile of the singular isothermal ellipsoid (SIE). The exploitation of these simulated ALMA data is tested in a direct regression problem. We train a convolution neural network (CNN) to learn to predict the mass of an SMBH from the simulated data, without taking into account the effect of the lens. The network predicts the mass of the SMBH as well as its uncertainty, assuming a Gaussian a posteriori distribution. The results are convincing: the greater the mass of the SMBH, the more precise and accurate the network’s prediction. As with conventional methods, the network is only able to predict the mass of the SMBH as long as the spatial resolution of the data allows the SOI to be resolved. Furthermore, the network’s saliency maps confirm that it uses the information contained in the SOI to predict the mass of the SMBH. In future work, the effect of strong gravitational lensing will be introduced into the data to assess whether it becomes possible to measure the mass of these same SMBHs, but at a higher redshift.
20

Détection d'exoplanètes par effet de microlentille gravitationnelle : des observations à la caractérisation.

Bachelet, Etienne 24 October 2013 (has links) (PDF)
L'utilisation des microlentilles gravitationnelles dans la recherche d'exoplanètes a débuté en 1995. Les premiers résultats furent rapides, puisque la première exoplanète fut détectée en 2003 par les collaborations MOA et OGLE. Aujourd'hui, plus de vingt exoplanètes ont été publiées et ce nombre va considérablement augmenter dans les prochaines années avec le lancement des télescopes de surveillance KMTNet et les observatoires spatiaux EUCLID et WFIRST. Lorsqu'une étoile "proche", la microlentille, croise la ligne de visée entre la Terre et une étoile plus distante, la source, le flux de cette dernière est alors amplifié. Si par chance, une planète orbite autour de cette lentille, elle va également produire une amplification de faible amplitude. La courbe de lumière de l'évènement présente alors une signature typique : la déviation planétaire. Dans ce manuscript, nous présentons tous les outils théoriques et observationnels nécessaires à la détection d'exoplanète par la méthode des microlentilles gravitationnelles. Nous présentons ensuite l'étude de deux cas spécifiques : MOA- 2010-BLG-411Lb, une binaire composée d'une naine brune autour d'une naine M, et MOA-2010-BLG-477Lb, un super-Jupiter orbitant une étoile M. Une uniformisation des résultats sur les planètes détectées par effet de mircolentille gravitationnelle est également présentée. Deux problèmes majeurs compliquent la détection de planètes par la méthode des microlentielles gravitationnelles. Premièrement, le phénomène de microlentille gravitationnelle est peu probable pour une étoile donnée (une chance sur un million). Il faut donc observer des champs très riche en étoiles, tel que le Bulbe Galactique. Chaque nuit, les collaborations OGLE et MOA observe le Bulbe Galactique afin de repérer les évènements de microlentilles. Le second problème est que les déviations planétaires sont très courtes, d'une durée d'une heure à quelques jours pour les planètes les plus massives. Il faut donc observer les évènements de microlentilles en continu. C'est pour cela qu'une batterie de télescopes est répartie sur tout l'Hémisphère Sud. Le nombre d'évènements détectés chaque saison a considérablement augmenté durant les dernières années, obligeant les télescopes de suivi à faire des choix quand aux cible à observer. Nous avons décidé de développer un nouveau logiciel automatique permettant de faire ce choix à notre place. Il a été testé sur quatre années d'observations et l'analyse statistique des résultats est présentée. Nous espérons utiliser ces nouveaux résultats pour mieux contraindre un modèle de notre Galaxie.

Page generated in 0.1912 seconds