• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2
  • 2
  • 1
  • Tagged with
  • 5
  • 5
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Contribution au Déploiement d'un Intergiciel Distribué et Hiérarchique, Appliqué aux Simulations Cosmologiques

Depardon, Benjamin 06 October 2010 (has links) (PDF)
Les travaux présentés dans cette thèse portent sur l'exécution d'applications sur les environ- nements hétérogènes et distribués que sont les grilles de calcul. Nous étudions de bout en bout le processus permettant à des utilisateurs d'exécuter des applications scientifiques complexes. Les contributions de cette thèse se situent donc à plusieurs niveaux. 1) Déploiement d'inter- giciel hiérarchique : nous proposons dans un premier temps un modèle d'exécution pour les intergiciels hiérarchiques. À partir de ce modèle, nous présentons plusieurs heuristiques pour définir automatiquement la meilleure hiérarchie en fonction des exigences des utilisateurs et du type de plate-forme. Nous évaluons la qualité de ces heuristiques en conditions réelles avec l'intergiciel Diet. 2) Partitionnement de graphe : nous proposons un algorithme distribué et auto-stabilisant pour partitionner un graphe quelconque ayant des arêtes pondérées entre les nœuds. Le partitionnement est réalisé en fonction des distances pondérées entre les nœuds et forme des grappes au sein desquelles les nœuds sont à une distance maximale k d'un nœud élu dans la grappe. 3) Ordonnancement : nous étudions l'ordonnancement de tâches indépen- dantes sous des contraintes de limitation d'utilisation des ressources. Nous définissons des formulations en programme linéaire pour résoudre ce problème dans deux cas : lorsque les tâches arrivent toutes en même temps et lorsqu'elles ont des dates d'arrivée. 4) Simulations cosmologiques : nous avons étudié le comportement d'applications nécessaires à l'exécution de workflows de simulations cosmologiques. Puis, en se basant sur l'intergiciel de grille Diet, nous avons mis en place une infrastructure complète permettant à des utilisateurs non expérimentés de soumettre facilement des simulations cosmologiques sur une grille de calcul.
2

Formation of supermassive black holes / Formation de trous noirs supermassifs

Habouzit, Mélanie 15 September 2016 (has links)
Des trous noirs supermassifs (TNs) de plusieurs millions de masses solaires occupent le centre de la plupart des galaxies proches. La découverte du TN Sagittarius A* au centre de notre galaxie, La Voie lactée, l'a confirmé. Pour autant, certaines galaxies semblent dépourvues de TNs (par exemple NGC205, M33), ou alors ne posséder un TN que de quelques milliers de masses solaires. D'autre part, des TNs dans leur forme la plus lumineuse, appelés quasars, dont la luminosité est plus importante que des centaines de fois celle d'une galaxie toute entière, ont été observés à très grand décalage spectral, lorsque l'Univers n'était alors âgé que d'un milliard d'années. Les modèles de formation des TNs doivent expliquer à la fois l'existence des TNs de faibles masses observés aujourd'hui dans les galaxies de faibles masses, mais aussi leur prodigieux homologues quasars dans l'Univers jeune. La formation des TNs pose encore de nos jours de nombreuses questions: comment se forment les TNs au début de l'histoire de l'Univers? Quelle est leur masse initiale? Quelle est la masse minimale d'une galaxie pour posséder un TN? Pour répondre à ces questions et pour étudier la formation des TNs dans le contexte de l'évolution des galaxies, nous avons utilisé des simulations hydrodynamiques cosmologiques, qui offrent l'avantage de suivre l'évolution temporelle de nombreux processus comme la formation stellaire, l'enrichissement en métaux, les mécanismes de rétroactions des TNs et des supernovae. J'ai particulièrement dirigé mes recherches sur les trois principaux modèles de formation des TNs à partir du reliquat des premières étoiles, d'amas d'étoiles, ou encore par effondrement direct. / Supermassive black holes (BHs) harboured in the center of galaxies have been confirmed with the discovery of Sagittarius A* in the center of our galaxy, the Milky Way. Recent surveys indicate that BHs of millions of solar masses are common in most local galaxies, but also that some local galaxies could be lacking BHs (e.g. NGC205, M33), or at least hosting low-mass BHs of few thousands solar masses. Conversely, massive BHs under their most luminous form are called quasars, and their luminosity can be up to hundred times the luminosity of an entire galaxy. We observe these quasars in the very early Universe, less than a billion years after the Big Bang. BH formation models therefore need to explain both the low-mass BHs that are observed in low-mass galaxies today, but also the prodigious quasars we see in the early Universe.BH formation is still puzzling today, and many questions need to be addressed: How are BHs created in the early Universe? What is their initial mass? How many BHs grow efficiently? What is the occurrence of BH formation in high redshift galaxies? What is the minimum galaxy mass to host a BH? We have used cosmological hydrodynamical simulations to capture BH formation in the context of galaxy formation and evolution. Simulations offer the advantage of following in time the evolution of galaxies, and the processes related to them, such as star formation, metal enrichment, feedback of supernovae and BHs. We have particularly focused our studies on the three main BH formation models: Pop III remnant, stellar cluster, and direct collapse models.
3

Caractérisation des amas de galaxies avec des méthodes d'apprentissage automatique

Sadikov, Maria 08 1900 (has links)
Les amas de galaxies sont les plus grandes structures gravitationnellement liées de l'Univers. Ils sont communément séparés en trois catégories, basées sur la distribution du gaz intra-amas. Ce gaz peut être très concentré vers le centre de l'amas, il peut être réparti dans l'amas de manière plutôt uniforme, ou encore il peut avoir une distribution légèrement piquée vers le centre dans un cas intermédiaire. Une autre distinction entre les trois catégories est l'interaction entre le trou noir supermassif se trouvant au centre de l'amas de galaxies et le gaz intra-amas environnant. Dans le cas de la première catégorie, lorsque le gaz est concentré au centre de l'amas, le trou noir est dit "actif". Il produit alors des jets, qui à leur tour injectent de l'énergie dans le gaz intra-amas sous forme d'ondes sonores, d'ondes de choc et de turbulence. Les amas de galaxies offrent donc une opportunité très intéressante pour étudier ce mécanisme d'échange d'énergie. Afin de mieux caractériser ces processus, il est essentiel d'avoir des méthodes robustes pour classifier les amas de galaxies selon les trois catégories. Il existe plusieurs propriétés pouvant être utilisées comme métriques de classification, mais celles-ci ne sont pas toujours en accord les unes avec les autres. Ces propriétés ont été étudiées pour des petits échantillons d'amas de galaxies, analysés de manière individuelle avec des méthodes traditionnelles. Cependant, avec le développement de puissants instruments d'observation tels que eROSITA, on s'attend à obtenir des échantillons contenant environ 100 000 amas de galaxies. Étant donné la taille de ces ensemble de données, il devient nécessaire d'avoir un moyen rapide, efficace et automatique pour les traiter. On a donc recours à l'apprentissage automatique pour accélérer l'analyse. Ce mémoire présente une analyse des propriétés du gaz intra-amas avec des méthodes d'apprentissage automatique. On se sert des simulations cosmologiques IllustrisTNG pour obtenir des images en rayons X d'amas de galaxies, à partir desquelles on construit notre ensemble de données. On s'intéresse à cinq propriétés du gaz intra-amas contenu dans les amas de galaxies, qui sont couramment utilisées comme métriques de classification: le temps de refroidissement central, la densité électronique centrale, l'excès d'entropie centrale, le paramètre de concentration de la brillance de surface et le paramètre de courbure du profil de densité. On explore les relations entre ces différentes métriques, puis on implémente un réseau de neurones qui vise à prédire leur valeur à partir d'une image en rayons X d'un amas de galaxies. Notre réseau atteint une pourcentage d'erreur moyen de 1.8% pour les prédictions de la métrique la plus performante, c'est-à-dire le temps de refroidissement central. Ensuite, afin d'estimer les incertitudes sur les résultats obtenus, on effectue une analyse probabiliste de nos prédictions à l'aide de la méthode de l'inférence sans vraisemblance. On utilise également une méthode de partitionnement de données qui rassemble les images en rayons-X en trois groupes distincts; on constate que ce regroupement corrèle fortement avec la division des mêmes images en utilisant le paramètre de concentration comme métrique de classification. L'ensemble de ce travail permet de conclure que le temps de refroidissement central et la concentration sont les métriques se prêtant le mieux à une analyse avec des méthodes d'apprentissage automatique, ainsi que de mettre en place les outils qui serviront à caractériser les futurs échantillons d'amas de galaxies. / Galaxy clusters are the largest gravitationally bound structures of the universe. They are commonly divided into three categories, based on the distribution of the intracluster gas. In one case, the gas is strongly concentrated towards the center of the cluster. In another case, it is rather uniformly dispersed through the cluster. In a third intermediate case, the distribution is slightly peaked towards the center. The three categories also differ by the interaction between the gas and the supermassive black hole located at the center of the cluster. In the first category, the black hole is said to be 'active' and it produces jets that heat up the intracluster gas through shock waves, sound waves and turbulence. The feedback mechanism from the black hole is not entirely understood, and galaxy clusters offer a valuable opportunity to study this energy transfer mechanism in more detail. Numerous properties can serve as classification metrics, but they are not always consistent with one another. Moreover, traditional methods used to extract those properties are time-consuming and have only been applied to small samples. With the advent of powerful X-ray observatories such as eROSITA, we expect to obtain large galaxy clusters datasets (~100 000). Given the size of the datasets and the number of parameters to consider, machine learning methods are needed to accelerate the data processing. This thesis presents an analysis of intracluster gas properties with machine learning techniques. We use the galaxy clusters from the IllustrisTNG cosmological simulations to create the X-ray images that make up our dataset. We study five properties of the hot gas in galaxy clusters that are commonly used as classification metrics; the central cooling time, the central electron density, the central entropy excess, the concentration of the surface brightness and the cuspiness parameter, which represents the slope of the density profile. We explore the correlations between the different metrics, and implement a neural network that predicts their values from an X-ray image of a galaxy cluster. The network achieves a mean percentage error of 1.8% on the central cooling time predictions, making it the best-performing metric. In order to get uncertainty estimates, we perform a probabilistic analysis of the network predictions using simulation-based inference. We also use a clustering approach that groups the X-ray images into three separate groups; we note that those groups are consistent with classification based on the concentration parameter. Our results show that the central cooling time and the concentration are the metrics that lend themselves the best to a machine learning analysis of galaxy cluster images. This project aims to lay the groundwork for characterizing future galaxy cluster observations.
4

L'histoire cosmique des baryons dans un univers hierarchique

Rasera, Yann 13 October 2005 (has links) (PDF)
Durant cette these, j'ai etudie la formation des galaxies grace a des simulations cosmologiques et a un nouveau modele analytique. Dans le cadre du modele standard de formation hierachique des grandes structures, les petites fluctuations primordiales de densite observees sur le fond diffus cosmologique sont amplifiees par la gravite pour donner des halos de matiere noire de plus en plus gros. C'est au sein de ces halos que le gaz s'effondre et se refroidit pour former des disques de gaz froid a support centrifuge. Ces disques sont ensuite convertis en disques stellaires : les galaxies. Le probleme dans ce scenario est celui du sur-refroidissement : une trop grande part du gaz finit sous forme d'etoiles comparativement aux observations. J'ai donc realise une etude de l'evolution des baryons (un gaz d'hydrogene et d'helium) dans l'Univers grace a des simulations numeriques hydrodynamiques haute-resolution. Cependant, ces simulations sont affectees par des effets de resolution finie. J'ai ainsi developpe un modele analytique simple qui possede l'avantage de ne pas etre affecte par de tels effets. Celui-ci predit la quantite de baryons dans chacune des 4 phases suivantes : etoiles, gaz froid dans les disques galactiques, gaz chaud dans les amas et gaz diffus dans le milieu intergalactique. La comparaison des resultats aux observations a montre que la cosmologie controle le taux de formation d'etoiles dans l'Univers. Ce modele a aussi mis en lumiere le role essentiel des vents galactiques qui, ejectant le gaz froid des disques jusque dans les halos de gaz chaud, permettent d'eviter le probleme du sur-refroidissement. Enfin, en une ouverture vers l'astroparticule, j'ai etudie les implications de la physique du gaz sur le fond diffus gamma produit dans l'hypothese de matiere noire legere.
5

From Spitzer Mid-InfraRed Observations and Measurements of Peculiar Velocities to Constrained Simulations of the Local Universe / Des observations mi-InfraRouges du Télescope Spitzer et des mesures de vitesses particulières aux simulations contraintes de l'univers local

Sorce, Jenny 12 June 2014 (has links)
Les galaxies sont des sondes observationnelles pour l'étude des structures de l'Univers. Leur mouvement gravitationnel permet de tracer la densité totale de matière. Par ailleurs, l'étude de la formation des structures et galaxies s'appuie sur les simulations numériques cosmologiques. Cependant, un seul univers observable à partir d'une position donnée, en temps et espace, est disponible pour comparaison avec les simulations. La variance cosmique associée affecte notre capacité à interpréter les résultats. Les simulations contraintes par les données observationnelles constituent une solution optimale au problème. Réaliser de telles simulations requiert les projets Cosmicflows et CLUES. Cosmicflows construits des catalogues de mesures de distances précises afin d'obtenir les déviations de l'expansion. Ces mesures sont principalement obtenues avec la corrélation entre la luminosité des galaxies et la vitesse de rotation de leur gaz. La calibration de cette relation est présentée dans le mi-infrarouge avec les observations du télescope spatial Spitzer. Les estimations de distances résultantes seront intégrées au troisième catalogue de données du projet. En attendant, deux catalogues de mesures atteignant 30 et 150 h−1 Mpc ont été publiés. Les améliorations et applications de la méthode du projet CLUES sur les deux catalogues sont présentées. La technique est basée sur l'algorithme de réalisation contrainte. L'approximation de Zel'dovich permet de calculer le champ de déplacement cosmique. Son inversion repositionne les contraintes tridimensionnelles reconstruites à l'emplacement de leur précurseur dans le champ initial. La taille inégalée, 8000 galaxies jusqu'`a une distance de 150 h−1 Mpc, du second catalogue a mis en évidence l'importance de minimiser les biais observationnels. En réalisant des tests sur des catalogues de similis, issus des simulations cosmologiques, une méthode de minimisation des biais peut être dérivée. Finalement, pour la première fois, des simulations cosmologiques sont contraintes uniquement par des vitesses particulières de galaxies. Le procédé est une réussite car les simulations obtenues ressemblent à l'Univers Local. Les principaux attracteurs et vides sont simulés à des positions approchant de quelques mégaparsecs les positions observationnelles, atteignant ainsi la limite fixée par la théorie linéaire / Galaxies are observational probes to study the Large Scale Structure. Their gravitational motions are tracers of the total matter density and therefore of the Large Scale Structure. Besides, studies of structure formation and galaxy evolution rely on numerical cosmological simulations. Still, only one universe observable from a given position, in time and space, is available for comparisons with simulations. The related cosmic variance affects our ability to interpret the results. Simulations constrained by observational data are a perfect remedy to this problem. Achieving such simulations requires the projects Cosmicflows and CLUES. Cosmicflows builds catalogs of accurate distance measurements to map deviations from the expansion. These measures are mainly obtained with the galaxy luminosity-rotation rate correlation. We present the calibration of that relation in the mid-infrared with observational data from Spitzer Space Telescope. Resulting accurate distance estimates will be included in the third catalog of the project. In the meantime, two catalogs up to 30 and 150 h−1 Mpc have been released. We report improvements and applications of the CLUES’ method on these two catalogs. The technique is based on the constrained realization algorithm. The cosmic displacement field is computed with the Zel’dovich approximation. This latter is then reversed to relocate reconstructed three-dimensional constraints to their precursors’ positions in the initial field. The size of the second catalog (8000 galaxies within 150 h−1 Mpc) highlighted the importance of minimizing the observational biases. By carrying out tests on mock catalogs, built from cosmological simulations, a method to minimize observational bias can be derived. Finally, for the first time, cosmological simulations are constrained solely by peculiar velocities. The process is successful as resulting simulations resemble the Local Universe. The major attractors and voids are simulated at positions approaching observational positions by a few megaparsecs, thus reaching the limit imposed by the linear theory / Die Verteilung der Galaxien liefert wertvolle Erkenntnisse über die großräumigen Strukturen im Universum. Ihre durch Gravitation verursachte Bewegung ist ein direkter Tracer für die Dichteverteilung der gesamten Materie. Die Strukturentstehung und die Entwicklung von Galaxien wird mithilfe von numerischen Simulationen untersucht. Es gibt jedoch nur ein einziges beobachtbares Universum, welches mit der Theorie und den Ergebnissen unterschiedlicher Simulationen verglichen werden muß. Die kosmische Varianz erschwert es, das lokale Universum mit Simulationen zu reproduzieren. Simulationen, deren Anfangsbedingungen durch Beobachtungsdaten eingegrenzt sind (“Constrained Simulations”) stellen eine geeignete Lösung dieses Problems dar. Die Durchführung solcher Simulationen ist das Ziel der Projekte Cosmicflows und CLUES. Im Cosmicflows-Projekt werden genaue Entfernungsmessungen von Galaxien erstellt, welche die Abweichung von der allgemeinen Hubble- Expansion abbilden. Diese Messungen werden hauptsächlich aus der Korrelation zwischen Leuchtkraft und Rotationsgeschwindigkeit von Spiralgalaxien gewonnen. In dieser Arbeit wird die Kalibrierung dieser Beziehung im mittleren Infrarot mithilfe von Daten vom Spitzer Space Telescope vorgestellt. Diese neuen Entfernungsbestimmungen werden im dritten Katalog des Cosmicflows Projekts enthalten sein. Bisher wurden zwei Kataloge veröffentlicht, mit Entfernungen bis zu 30 beziehungsweise 150 h−1 Mpc. In dieser Arbeit wird die CLUESMethode auf diese zwei Kataloge angewendet und Verbesserungen warden vorgestellt und diskutiert. Zunächst wird das kosmische Verschiebungsfeld mithilfe der Zeldovich-Näherung bestimmt. In umgekehrter Richtung kann man damit die aus heutigen Beobachtungsdaten rekonstruierten dreidimensionalen Constraints an ihren Ursprungsort im frühen Universum zurückzuversetzen. Durch den großen Datenumfang des cosmicflows-2 Katalogs (8000 Galaxien bis zu einer Entfernung von 150 h−1 Mpc) ist es besonders wichtig, den Einfluss verschiedener Beobachtungsfehler zu minimieren. Eine für das lokale Universum angepasste Korrekturmethode lässt sich durch die Untersuchung von Mock-Katalogen finden, welche aus kosmologischen Simulationen gewonnen werden. Schließlich stellt diese Arbeit erstmals kosmologische Simulationen vor, die ausschließlich durch Pekuliargeschwindigkeiten eingegrenzt sind. Der Erfolg dieser Methode wird dadurch bestätigt, dass die dadurch erzeugten Simulationen dem beobachteten lokalen Universum sehr ähnlich sind. Die relevanten Attraktoren und Voids liegen in den Simulationen an Positionen, welche bis auf wenige Megaparsec mit den beobachteten Positionen übereinstimmen. Die Simulationen erreichen damit die durch die lineare Theorie gegebene Genauigkeitsgrenze

Page generated in 0.1025 seconds