• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 5
  • 1
  • Tagged with
  • 7
  • 7
  • 4
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Cosmological simulations of galaxy clusters

Henson, Monique January 2018 (has links)
Galaxy clusters are the most massive collapsed structures in the Universe and their properties offer a crucial insight into the formation of structure. High quality observational data is forthcoming with ongoing and upcoming surveys, but simulations are needed to provide robust theoretical predictions for comparison, as well mock data for testing observational techniques. Numerical simulations are now able to accurately model a range of astrophysical processes. This is highlighted in the BAHAMAS and MACSIS simulations, which have successfully reproduced the observed scaling relations of galaxy clusters. We use these simulations to quantify the impact baryons have on the mass distribution within galaxy clusters, as well as the bias in X-ray and weak lensing mass estimates. It is shown that baryons have only a minor affect on the spins, shape and density profiles of galaxy clusters and they have no significant impact on the bias in weak lensing mass estimates. When using spectroscopic temperatures and densities, the X-ray hydrostatic mass bias decreases as a function of mass, leading to a bias of ~40% for clusters with M_500 > 10^15 solar masses. In the penultimate chapter, we use the EAGLE and C-EAGLE simulations to construct more realistic mock cluster observations. The EAGLE simulations have been shown to successfully reproduce the properties of field galaxies and they are complemented by the C-EAGLE project, which extends this work to the cluster scale. We use these simulations to construct a cluster lightcone that accounts for the impact of uncorrelated large scale structure on cluster observables, including weak lensing mass estimates, the Sunyaev-Zel'dovich parameter and X-ray luminosity.
2

The History of Enrichment of the Intergalactic Medium Using Cosmological Simulations

Oppenheimer, Benjamin Darwin January 2008 (has links)
I investigate the chemical evolution of the Universe in a series of cosmological hydrodynamic simulations with the purpose of finding a self-consistent evolutionary scenario of galaxy formation able to reproduce key observables focusing on the enrichment of the intergalactic medium (IGM). The most successful models I run and analyze use the scalings of momentum-driven feedback whereby UV photons generated during the Main Sequence stage accelerate dust-driven winds while providing a significantly larger energy budget than from supernovae alone. The success of this outflow model relies on its ability to drive highly mass-loaded winds from small galactic haloes. These feedback relations, supported by observations of local starburst, are inserted into simulations at all epochs, reproducing observables including the C IV column density and linewidth distributions at z=6->1.5 and the O VI forest at z=0-0.5. Outflows at z>=5 propagate early nucleosynthetic products traced by C IV and lower ionization species into an otherwise metal-free IGM. Continual outflows at the peak ages of star formation (z=5->1.5) produce a non-evolving cosmic mass density of C IV despite continual enrichment increasing IGM metallicity by a factor of ten. The z=0-0.5 O VI forest is composed of weaker absorbers tracing photo-ionized diffuse IGM metals, sometimes injected by primordial galaxies, and stronger absorbers tracing recently injected metals, often unable to escape their parent haloes and sometimes collisionally ionized. Tracking the individual histories of metals in outflows shows the average outflow travels ~100 physical kpc and returns to galaxies on an average timescale of 1-2 Gyr; this result implies metals in superwinds do not remain in the IGM for a Hubble time and are more likely to rejoin galaxies. Metal absorbers aligned with Lyman-alpha are examined in detail, finding that the two often trace different phases of gas with the former tracing an inhomogeneous distribution of metals exhibiting turbulence imparted during the outflow phase dissipating on a Hubble timescale. I find this is the first model to self-consistently reproduce the wide range of IGM observables spanning the history of heavy metal production while being consistent with key galaxy observables. The link between star formation and galactic superwinds requires that a successful model of galaxy formation reproduces both the evolution of galaxies and the IGM.
3

Modelling turbulent effects of stellar feedback in cosmological simulations

Engels, Jan Frederik 23 October 2017 (has links)
No description available.
4

Galaxy Formation With Ultralight Bosonic Dark Matter

Veltmaat, Jan 12 December 2019 (has links)
No description available.
5

Constrained local universe simulations from galaxy peculiar velocities / Conditions initiales à partir de vitesse particulières observées pour les simulations

Doumler, Timur 22 June 2012 (has links)
Les vitesses particulières de galaxies fournissent des informations importantes sur notre mouvement par rapport aux grandes structures observées et peuvent être utilisées afin de contraindre la distribution de matière noire sous-jacente. En ce basant sur cette approche, la technique des réalisations contraintes permet de calculer des simulations numériques qui ressemblent à l'Univers Local observé. Ceci fourni un laboratoire numérique puissant pour étudier la dynamique, la formation et l' évolution des structures bien connues de l'Univers Local. L' étape cruciale est de générer, à partir des données observationnelles, des conditions initiales appropriées. Nous présentons ici des améliorations de la technique des simulations contraintes, accompagnées d'un code numérique nouvellement développé et hautement optimisé, qui peut ingérer les énormes ensemble de données observationnelles. Les galaxies évoluent à partir du collapse gravitationnel des surdensités primordiales de l'univers très jeune; leurs mouvements créent un champ de déplacement à grande échelle. Une source majeure d'erreurs systématiques dans les simulations contraintes est produite si l'on ne tient pas compte de cet effet. Afin de dépasser cette limitation, nous avons développé la méthode de reconstruction par approximation inverse de Zeldovich (RZA). La RZA permet de reconstruire les déplacements et les positions initiales des galaxies observées et de générer une estimation significativement meilleure des conditions initiales de l'Univers Local. Cette méthode est intensivement testée sur des données de simulations. Nous étudions aussi l'influence de la qualité des données et de diverses erreurs observationnelles et/ou systématiques. Nous démontrons qu'avec la technique RZA, la qualité de la reconstruction des champs de densité et de vitesse est drastiquement améliorée. La position des objets dans les simulations contraintes évoluées sont retrouvées plus précisément et sur un plus grand intervalle de masses / Galaxy peculiar velocities provide valuable information about our motion with respect to theobserved large-scale structure and can be used to constrain the underlying dark matter distribution.Based on this approach, the technique of constrained realisations allows us to run numericalsimulations that resemble the observed Local Universe. This provides a powerful numerical laboratoryto study the dynamics, formation and evolution of structure in the Local Universe. Thecrucial step is to generate appropriate initial conditions from the observational data.We present here improvements on the technique of constrained simulations, along with anewly developed highly optimised numerical code that can handle the upcoming large observationaldatasets. Galaxies evolve from the gravitational collapse of primordial overdensities in theearly Universe; their motion leads to a large-scale displacement field. A major source of systematicerrors in constrained simulations arises by not accounting for this effect. To overcome thislimitation, we develop the Reverse Zeldovich Approximation (RZA) reconstruction method. TheRZA allows to reconstruct displacements and initial positions of observed galaxies and generatea significantly better estimate of the initial conditions of the Local Universe. This method isextensively tested on simulation data. We also study the influence of data quality and variousobservational and systematic errors. We show that with the RZA technique, the reconstructionquality of the density and velocity fields improves significantly. The positions of objects in theevolved constrained simulations are recovered more accurately and over a wider range of masses. / Die Pekuliargeschwindigkeiten von Galaxien liefern wertvolle Informationen über ihre Bewegungrelativ zu den beobachteten großräumigen Strukturen und können verwendet werden, um diezugrundeliegende Verteilung der dunklen Materie abzuschätzen. Auf dieser Grundlage könnenmit der Methode der “Constrained Realisations” numerische Simulationen durchgeführt werden,die die Materieverteilung im Lokalen Universum widerspiegeln und somit leistungsfähige numerischeExperimente ermoeglichen, um die Dynamik, Entstehung und Evolution von Strukturenim lokalen Universum zu untersuchen. Eine wichtige Voraussetzung für diese Experimente ist es,korrekte Anfangsbedingungen aus den Beobachtungsdaten abzuleiten.In dieser Arbeit werden Verbesserungen der “Constrained Simulations”-Technik sowie ein fürdiesen Zweck neu entwickelter, hochgradig optimierter numerischer Code vorgestellt, welcheres ermöglicht, die kommenden, sehr umfangreichen Beobachtungsdaten zu verarbeiten. Galaxienentwickeln sich aus dem Gravitationskollaps von primordialen Überdichten im frühen Universum.Deren Bewegung führt zu einer großräumigen Dislokation, deren Vernachlässigung die größtesystematische Fehlerquelle für “Constrained Simulations” darstellt. An dieser Stelle knüpft dieReverse-Zeldovich-Näherung (RZA) an, die hier vorgestellt wird. Mithilfe der RZA können wirdiese Dislokation abschätzen und somit die ursprünglichen Positionen der beobachteten Galaxienrekonstruieren. Dadurch erhält man wesentlich genauere Anfangsbedingungen fuer die Entwicklungdes Lokalen Universums. Diese Methode wird ausführlich an Simulationsdaten getestet.Der Einfluß der Datenqualität und verschiedener Beobachtungs- und systematischer Fehler wirdeingehend untersucht. Die Rekonstruktionsgenauigkeit der Dichte- und Geschwindigkeitsfelderkann durch den Einsatz der RZA signifikant erhöht werden. In unseren Tests stimmen die Positionenvon Objekten in den mit RZA erzeugten “Constrained Simulations” wesentlich besser mitden ursprünglichen überein, als ohne die RZA, und das für einen deutlich größeren Bereich vonMassen
6

Caractérisation des amas de galaxies avec des méthodes d'apprentissage automatique

Sadikov, Maria 08 1900 (has links)
Les amas de galaxies sont les plus grandes structures gravitationnellement liées de l'Univers. Ils sont communément séparés en trois catégories, basées sur la distribution du gaz intra-amas. Ce gaz peut être très concentré vers le centre de l'amas, il peut être réparti dans l'amas de manière plutôt uniforme, ou encore il peut avoir une distribution légèrement piquée vers le centre dans un cas intermédiaire. Une autre distinction entre les trois catégories est l'interaction entre le trou noir supermassif se trouvant au centre de l'amas de galaxies et le gaz intra-amas environnant. Dans le cas de la première catégorie, lorsque le gaz est concentré au centre de l'amas, le trou noir est dit "actif". Il produit alors des jets, qui à leur tour injectent de l'énergie dans le gaz intra-amas sous forme d'ondes sonores, d'ondes de choc et de turbulence. Les amas de galaxies offrent donc une opportunité très intéressante pour étudier ce mécanisme d'échange d'énergie. Afin de mieux caractériser ces processus, il est essentiel d'avoir des méthodes robustes pour classifier les amas de galaxies selon les trois catégories. Il existe plusieurs propriétés pouvant être utilisées comme métriques de classification, mais celles-ci ne sont pas toujours en accord les unes avec les autres. Ces propriétés ont été étudiées pour des petits échantillons d'amas de galaxies, analysés de manière individuelle avec des méthodes traditionnelles. Cependant, avec le développement de puissants instruments d'observation tels que eROSITA, on s'attend à obtenir des échantillons contenant environ 100 000 amas de galaxies. Étant donné la taille de ces ensemble de données, il devient nécessaire d'avoir un moyen rapide, efficace et automatique pour les traiter. On a donc recours à l'apprentissage automatique pour accélérer l'analyse. Ce mémoire présente une analyse des propriétés du gaz intra-amas avec des méthodes d'apprentissage automatique. On se sert des simulations cosmologiques IllustrisTNG pour obtenir des images en rayons X d'amas de galaxies, à partir desquelles on construit notre ensemble de données. On s'intéresse à cinq propriétés du gaz intra-amas contenu dans les amas de galaxies, qui sont couramment utilisées comme métriques de classification: le temps de refroidissement central, la densité électronique centrale, l'excès d'entropie centrale, le paramètre de concentration de la brillance de surface et le paramètre de courbure du profil de densité. On explore les relations entre ces différentes métriques, puis on implémente un réseau de neurones qui vise à prédire leur valeur à partir d'une image en rayons X d'un amas de galaxies. Notre réseau atteint une pourcentage d'erreur moyen de 1.8% pour les prédictions de la métrique la plus performante, c'est-à-dire le temps de refroidissement central. Ensuite, afin d'estimer les incertitudes sur les résultats obtenus, on effectue une analyse probabiliste de nos prédictions à l'aide de la méthode de l'inférence sans vraisemblance. On utilise également une méthode de partitionnement de données qui rassemble les images en rayons-X en trois groupes distincts; on constate que ce regroupement corrèle fortement avec la division des mêmes images en utilisant le paramètre de concentration comme métrique de classification. L'ensemble de ce travail permet de conclure que le temps de refroidissement central et la concentration sont les métriques se prêtant le mieux à une analyse avec des méthodes d'apprentissage automatique, ainsi que de mettre en place les outils qui serviront à caractériser les futurs échantillons d'amas de galaxies. / Galaxy clusters are the largest gravitationally bound structures of the universe. They are commonly divided into three categories, based on the distribution of the intracluster gas. In one case, the gas is strongly concentrated towards the center of the cluster. In another case, it is rather uniformly dispersed through the cluster. In a third intermediate case, the distribution is slightly peaked towards the center. The three categories also differ by the interaction between the gas and the supermassive black hole located at the center of the cluster. In the first category, the black hole is said to be 'active' and it produces jets that heat up the intracluster gas through shock waves, sound waves and turbulence. The feedback mechanism from the black hole is not entirely understood, and galaxy clusters offer a valuable opportunity to study this energy transfer mechanism in more detail. Numerous properties can serve as classification metrics, but they are not always consistent with one another. Moreover, traditional methods used to extract those properties are time-consuming and have only been applied to small samples. With the advent of powerful X-ray observatories such as eROSITA, we expect to obtain large galaxy clusters datasets (~100 000). Given the size of the datasets and the number of parameters to consider, machine learning methods are needed to accelerate the data processing. This thesis presents an analysis of intracluster gas properties with machine learning techniques. We use the galaxy clusters from the IllustrisTNG cosmological simulations to create the X-ray images that make up our dataset. We study five properties of the hot gas in galaxy clusters that are commonly used as classification metrics; the central cooling time, the central electron density, the central entropy excess, the concentration of the surface brightness and the cuspiness parameter, which represents the slope of the density profile. We explore the correlations between the different metrics, and implement a neural network that predicts their values from an X-ray image of a galaxy cluster. The network achieves a mean percentage error of 1.8% on the central cooling time predictions, making it the best-performing metric. In order to get uncertainty estimates, we perform a probabilistic analysis of the network predictions using simulation-based inference. We also use a clustering approach that groups the X-ray images into three separate groups; we note that those groups are consistent with classification based on the concentration parameter. Our results show that the central cooling time and the concentration are the metrics that lend themselves the best to a machine learning analysis of galaxy cluster images. This project aims to lay the groundwork for characterizing future galaxy cluster observations.
7

From Spitzer Mid-InfraRed Observations and Measurements of Peculiar Velocities to Constrained Simulations of the Local Universe / Des observations mi-InfraRouges du Télescope Spitzer et des mesures de vitesses particulières aux simulations contraintes de l'univers local

Sorce, Jenny 12 June 2014 (has links)
Les galaxies sont des sondes observationnelles pour l'étude des structures de l'Univers. Leur mouvement gravitationnel permet de tracer la densité totale de matière. Par ailleurs, l'étude de la formation des structures et galaxies s'appuie sur les simulations numériques cosmologiques. Cependant, un seul univers observable à partir d'une position donnée, en temps et espace, est disponible pour comparaison avec les simulations. La variance cosmique associée affecte notre capacité à interpréter les résultats. Les simulations contraintes par les données observationnelles constituent une solution optimale au problème. Réaliser de telles simulations requiert les projets Cosmicflows et CLUES. Cosmicflows construits des catalogues de mesures de distances précises afin d'obtenir les déviations de l'expansion. Ces mesures sont principalement obtenues avec la corrélation entre la luminosité des galaxies et la vitesse de rotation de leur gaz. La calibration de cette relation est présentée dans le mi-infrarouge avec les observations du télescope spatial Spitzer. Les estimations de distances résultantes seront intégrées au troisième catalogue de données du projet. En attendant, deux catalogues de mesures atteignant 30 et 150 h−1 Mpc ont été publiés. Les améliorations et applications de la méthode du projet CLUES sur les deux catalogues sont présentées. La technique est basée sur l'algorithme de réalisation contrainte. L'approximation de Zel'dovich permet de calculer le champ de déplacement cosmique. Son inversion repositionne les contraintes tridimensionnelles reconstruites à l'emplacement de leur précurseur dans le champ initial. La taille inégalée, 8000 galaxies jusqu'`a une distance de 150 h−1 Mpc, du second catalogue a mis en évidence l'importance de minimiser les biais observationnels. En réalisant des tests sur des catalogues de similis, issus des simulations cosmologiques, une méthode de minimisation des biais peut être dérivée. Finalement, pour la première fois, des simulations cosmologiques sont contraintes uniquement par des vitesses particulières de galaxies. Le procédé est une réussite car les simulations obtenues ressemblent à l'Univers Local. Les principaux attracteurs et vides sont simulés à des positions approchant de quelques mégaparsecs les positions observationnelles, atteignant ainsi la limite fixée par la théorie linéaire / Galaxies are observational probes to study the Large Scale Structure. Their gravitational motions are tracers of the total matter density and therefore of the Large Scale Structure. Besides, studies of structure formation and galaxy evolution rely on numerical cosmological simulations. Still, only one universe observable from a given position, in time and space, is available for comparisons with simulations. The related cosmic variance affects our ability to interpret the results. Simulations constrained by observational data are a perfect remedy to this problem. Achieving such simulations requires the projects Cosmicflows and CLUES. Cosmicflows builds catalogs of accurate distance measurements to map deviations from the expansion. These measures are mainly obtained with the galaxy luminosity-rotation rate correlation. We present the calibration of that relation in the mid-infrared with observational data from Spitzer Space Telescope. Resulting accurate distance estimates will be included in the third catalog of the project. In the meantime, two catalogs up to 30 and 150 h−1 Mpc have been released. We report improvements and applications of the CLUES’ method on these two catalogs. The technique is based on the constrained realization algorithm. The cosmic displacement field is computed with the Zel’dovich approximation. This latter is then reversed to relocate reconstructed three-dimensional constraints to their precursors’ positions in the initial field. The size of the second catalog (8000 galaxies within 150 h−1 Mpc) highlighted the importance of minimizing the observational biases. By carrying out tests on mock catalogs, built from cosmological simulations, a method to minimize observational bias can be derived. Finally, for the first time, cosmological simulations are constrained solely by peculiar velocities. The process is successful as resulting simulations resemble the Local Universe. The major attractors and voids are simulated at positions approaching observational positions by a few megaparsecs, thus reaching the limit imposed by the linear theory / Die Verteilung der Galaxien liefert wertvolle Erkenntnisse über die großräumigen Strukturen im Universum. Ihre durch Gravitation verursachte Bewegung ist ein direkter Tracer für die Dichteverteilung der gesamten Materie. Die Strukturentstehung und die Entwicklung von Galaxien wird mithilfe von numerischen Simulationen untersucht. Es gibt jedoch nur ein einziges beobachtbares Universum, welches mit der Theorie und den Ergebnissen unterschiedlicher Simulationen verglichen werden muß. Die kosmische Varianz erschwert es, das lokale Universum mit Simulationen zu reproduzieren. Simulationen, deren Anfangsbedingungen durch Beobachtungsdaten eingegrenzt sind (“Constrained Simulations”) stellen eine geeignete Lösung dieses Problems dar. Die Durchführung solcher Simulationen ist das Ziel der Projekte Cosmicflows und CLUES. Im Cosmicflows-Projekt werden genaue Entfernungsmessungen von Galaxien erstellt, welche die Abweichung von der allgemeinen Hubble- Expansion abbilden. Diese Messungen werden hauptsächlich aus der Korrelation zwischen Leuchtkraft und Rotationsgeschwindigkeit von Spiralgalaxien gewonnen. In dieser Arbeit wird die Kalibrierung dieser Beziehung im mittleren Infrarot mithilfe von Daten vom Spitzer Space Telescope vorgestellt. Diese neuen Entfernungsbestimmungen werden im dritten Katalog des Cosmicflows Projekts enthalten sein. Bisher wurden zwei Kataloge veröffentlicht, mit Entfernungen bis zu 30 beziehungsweise 150 h−1 Mpc. In dieser Arbeit wird die CLUESMethode auf diese zwei Kataloge angewendet und Verbesserungen warden vorgestellt und diskutiert. Zunächst wird das kosmische Verschiebungsfeld mithilfe der Zeldovich-Näherung bestimmt. In umgekehrter Richtung kann man damit die aus heutigen Beobachtungsdaten rekonstruierten dreidimensionalen Constraints an ihren Ursprungsort im frühen Universum zurückzuversetzen. Durch den großen Datenumfang des cosmicflows-2 Katalogs (8000 Galaxien bis zu einer Entfernung von 150 h−1 Mpc) ist es besonders wichtig, den Einfluss verschiedener Beobachtungsfehler zu minimieren. Eine für das lokale Universum angepasste Korrekturmethode lässt sich durch die Untersuchung von Mock-Katalogen finden, welche aus kosmologischen Simulationen gewonnen werden. Schließlich stellt diese Arbeit erstmals kosmologische Simulationen vor, die ausschließlich durch Pekuliargeschwindigkeiten eingegrenzt sind. Der Erfolg dieser Methode wird dadurch bestätigt, dass die dadurch erzeugten Simulationen dem beobachteten lokalen Universum sehr ähnlich sind. Die relevanten Attraktoren und Voids liegen in den Simulationen an Positionen, welche bis auf wenige Megaparsec mit den beobachteten Positionen übereinstimmen. Die Simulationen erreichen damit die durch die lineare Theorie gegebene Genauigkeitsgrenze

Page generated in 0.4616 seconds