• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 64
  • 6
  • 5
  • 4
  • 4
  • 2
  • 1
  • 1
  • Tagged with
  • 107
  • 107
  • 41
  • 33
  • 26
  • 26
  • 25
  • 24
  • 24
  • 23
  • 23
  • 21
  • 17
  • 17
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Extragalactic and cosmological tests of gravity theories with additional scalar or vector fields

Feix, Martin January 2011 (has links)
Despite the many successes of the current standard model of cosmology on the largest physical scales, it relies on two phenomenologically motivated constituents, cold dark matter and dark energy, which account for approximately 95% of the energy-matter content of the universe. From a more fundamental point of view, however, the introduction of a dark energy (DE) component is theoretically challenging and extremely fine-tuned, despite the many proposals for its dynamics. On the other hand, the concept of cold dark matter (CDM) also suffers from several issues such as the lack of direct experimental detection, the question of its cosmological abundance and problems related to the formation of structure on small scales. A perhaps more natural solution might be that the gravitational interaction genuinely differs from that of general relativity, which expresses itself as either one or even both of the above dark components. Here we consider different possibilities on how to constrain hypothetical modifications to the gravitational sector, focusing on the subset of tensor-vector-scalar (TeVeS) theory as an alternative to CDM on galactic scales and a particular class of chameleon models which aim at explaining the coincidences of DE. Developing an analytic model for nonspherical lenses, we begin our analysis with testing TeVeS against observations of multiple-image systems. We then approach the role of low-density objects such as cosmic filaments in this framework and discuss potentially observable signatures. Along these lines, we also consider the possibility of massive neutrinos in TeVeS theory and outline a general approach for constraining this hypothesis with the help of cluster lenses. This approach is then demonstrated using the cluster lens A2390 with its remarkable straight arc. Presenting a general framework to explore the nonlinear clustering of density perturbations in coupled scalar field models, we then consider a particular chameleon model and highlight the possibility of measurable effects on intermediate scales, i.e. those relevant for galaxy clusters. Finally, we discuss the prospects of applying similar methods in the context of TeVeS and present an ansatz which allows to cast the linear perturbation equations into a more convenient form.
102

Combinaisons de sondes cosmologiques : deux applications avec les données de Planck et SDSS-III/BOSS / Combinations of cosmic microwave background and large-scale structure cosmological probes

Doux, Cyrille 14 November 2017 (has links)
Cette thèse s’intéresse aux combinaisons d’observables cosmologiques provenant des mesures du fond diffus cosmologique et des relevés de galaxies, et est basée sur l’exploitation des données du satellite Planck et du Baryon Oscillation Spectroscopic Survey (BOSS) du Sloan Digital Sky Survey. On explore l’utilisation de corrélations croisées entre les jeux de données afin de mettre en évidence de nouveaux effets et d’améliorer les contraintes statistiques sur les paramètres cosmologiques. Dans un premier temps, on mesure pour la première fois une corrélation entre le lentillage gravitationnel du fond diffus cosmologique et le spectre de puissance des fluctuations de la forêt Lyman-α des quasars. Cet effet, d’origine purement non-linéaire, est interprété comme la réponse du spectre de puissance à des grandes échelles. Il montre comment les fluctuations dans la densité en hydrogène neutre dans le milieu intergalactique sont influencées par des fluctuations à grande échelle dans la densité de matière noire. Le signal mesuré est compatible avec l’approche théorique et des simulations menées par d’autres groupes. Dans un deuxième temps, on développe un formalisme permettant une analyse conjointe de la densité de galaxies et de quasars de BOSS avec le lentillage gravitationnel du fond diffus cosmologique. La prise en compte des corrélations croisées entre ces sondes permet de diminuer les barres d’erreurs de certains paramètres cosmologiques de 20%, ce qui équivaut à augmenter la surface couverte par les relevés de presque 50%. Cette analyse est complétée par la mesure des anisotropies de température du fond diffus cosmologique afin de contraindre tous les paramètres du modèle standard ΛCDM, ainsi que les biais des galaxies. Puis on étend le modèle afin d’explorer les contraintes sur l’équation d’état de l’énergie noire et la somme des masses des neutrinos / This thesis addresses the combinations of cosmological probes from the measurements of the cosmic microwave background (CMB) and galaxy redshift surveys, and exploits data from the Planck satellite and the Baryon Oscillation Spectroscopic Survey (BOSS) of the Sloan Digital Sky Survey. It explores how cross-correlations between different data sets can be used to detect new signals and improve contraints on cosmological parameters. First, we measure, for the first time, the cross-correlation between gravitational lensing of the CMB and the power spectrum of the Lyman-α forest in the spectra of quasars. This effect, which emerges from purely non-linear evolution, is interpreted as the response of the power spectrum to large-scale modes. It shows how fluctuations in the density of neutral hydrogen in the intergalactic medium are affected by large-scale fluctuations in the density of dark matter. The measured signal is compatible with the theoretical approach and simulations run by another group. In a second time, we develop a formalism enabling the joint analysis of the galaxy/quasar density contrast and CMB lensing. Taking cross-correlations between these probes into account reduces error bars on some cosmological parameters by up to 20%, equivalent to an increase in the size of the survey of about 50%. This analysis is completed by CMB temperature anisotropies information in order to constrain all the parameters of the ΛCDM standard model and galaxy biases at once. Finally, it is extended to obtain contraints on the dark energy equation of state as well as the sum of the masses of neutrinos
103

Cosmological constraints : from the cosmic infrared background measurement to the gravitational lensing in massive galaxy clusters / Contraintes cosmologiques : de la mesure du fond diffus infrarouge au lentillage gravitationnel dans les amas de galaxies massifs

Jauzac, Mathilde 17 November 2011 (has links)
La thématique principale de mon travail de thèse est l’é;volution et la formation structures en fonction du décalage vers le rouge (redshift par la suite).Mon travail de thèse se divise en deux parties distinctes, qui finalement se regroupent au cours de mes derniers travaux. Dans un premier temps, j’ai étudié l’évolution du Fond Diffus Infrarouge (Cosmic Infrared Background, CIB par la suite) en fonction du redshift à 70 et 160 µm en utilisant des données provenant du satellite Spitzer. J’ai effectué ce travail dans les champs GOODS & COSMOS en appliquant la méthode d’empilement (stacking, par la suite). Dans un second temps, j’ai étudié la distribution de masse dans des amas de galaxies situé à grand redshift en utilisant le lentillage gravitationnel faible. Pour ce faire, j’ai utilisé des données optiques provenant du satellite spatial Hubble (Hubble Space Telescope, HST par la suite). Ces données proviennent du relevé d’amas MACS (MAssive Cluster Survey). Les amas de galaxies étudiés ici font partis d’un sous-échantillon MACS, l’échantillon "grand-z" (high-z subsample). Comprendre l’état d’évolution des amas de galaxies à grand redshift permettrait de mettre des contraintes sur les modèles de formation et d’évolution des structures. La compréhension du cycle d’évolution des amas de galaxies est l’un des enjeux majeurs de la Cosmologie observationnelle actuelle. / The principal thematic of my thesis work is the evolution and the formation of structures as a function of the redshift.My thesis analysis can be separated un two distinct parts, which can finally be merged in a third part with my last works.Firstly, I studied the evolution of the Cosmic Infrared Background (CIB) as a function of redshift at 70 and 160 µm using data from the Spitzer Space Telescope. This analysis was performed in the GOODS & COSMOS fields by applying a stacking method.Secondly, I studied the mass distribtuion in massive galaxy clusters at high redshifts by using the gravitational lensign effect.I used optical data coming from the Hubble Space Telescope. The sample of galaxy clusters I used comes from a subsample of the MAssive Cluster Survey (MACS, PI:E. Ebeling) named the "high-z" sample, and which comprises 12 clusters.Understanding the state of evolution of galaxy clusters at high redshift wil allow us to put constraints on formation and evolution models of structures. The understanding of the evolution cycle of galaxy clusters is mandatory in terms of Observational Cosmology.
104

Estimateur neuronal de ratio pour l'inférence de la constante de Hubble à partir de lentilles gravitationnelles fortes

Campeau-Poirier, Ève 12 1900 (has links)
Les deux méthodes principales pour mesurer la constante de Hubble, soit le taux d’expansion actuel de l’Univers, trouvent des valeurs différentes. L’une d’elle s’appuie lourdement sur le modèle cosmologique aujourd’hui accepté pour décrire le cosmos et l’autre, sur une mesure directe. Le désaccord éveille donc des soupçons sur l’existence d’une nouvelle physique en dehors de ce modèle. Si une autre méthode, indépendante des deux en conflit, soutenait une des deux valeurs, cela orienterait les efforts des cosmologistes pour résoudre la tension. Les lentilles gravitationnelles fortes comptent parmi les méthodes candidates. Ce phénomène se produit lorsqu’une source lumineuse s’aligne avec un objet massif le long de la ligne de visée d’un télescope. La lumière dévie de sa trajectoire sur plusieurs chemins en traversant l’espace-temps déformé dans le voisinage de la masse, résultant en une image déformée, gros- sie et amplifiée. Dans le cas d’une source lumineuse ponctuelle, deux ou quatre images se distinguent nettement. Si cette source est aussi variable, une de ses fluctuations apparaît à différents moments sur chaque image, puisque chaque chemin a une longueur différente. Le délai entre les signaux des images dépend intimement de la constante de Hubble. Or, cette approche fait face à de nombreux défis. D’abord, elle requiert plusieurs jours à des spécialistes pour exécuter la méthode de Monte-Carlo par chaînes de Markov (MCMC) qui évalue les paramètres d’un seul système de lentille à la fois. Avec les détections de milliers de systèmes prévues par l’observatoire Rubin dans les prochaines années, cette approche est inconcevable. Elle introduit aussi des simplifications qui risquent de biaiser l’inférence, ce qui contrevient à l’objectif de jeter la lumière sur le désaccord entre les mesures de la constante de Hubble. Ce mémoire présente une stratégie basée sur l’inférence par simulations pour remédier à ces problèmes. Plusieurs travaux antérieurs accélèrent la modélisation de la lentille grâce à l’ap- prentissage automatique. Notre approche complète leurs efforts en entraînant un estimateur neuronal de ratio à déterminer la distribution de la constante de Hubble, et ce, à partir des produits de la modélisation et des mesures de délais. L’estimateur neuronal de ratio s’exécute rapidement et obtient des résultats qui concordent avec ceux de l’analyse traditionnelle sur des simulations simples, qui ont une cohérence statistique acceptable et qui sont non-biaisés. / The two main methods to measure the Hubble constant, the current expansion rate of the Universe, find different values. One of them relies heavily on today’s accepted cosmological model describing the cosmos and the other, on a direct measurement. The disagreement thus arouses suspicions about the existence of new physics outside this model. If another method, independent of the two in conflict, supported one of the two values, it would guide cosmologists’ efforts to resolve the tension. Strong gravitational lensing is among the candidate methods. This phenomenon occurs when a light source aligns with a massive object along a telescope line of sight. When crossing the curved space-time in the vicinity of the mass, the light deviates from its trajectory on several paths, resulting in a distorted and magnified image. In the case of a point light source, two or four images stand out clearly. If this source is also variable, the luminosity fluctuations will appear at different moments on each image because each path has a different length. The time delays between the image signals depend intimately on the Hubble constant. This approach faces many challenges. First, it requires several days for specialists to perform the Markov Chain Monte-Carlo (MCMC) which evaluates the parameters of a single lensing system at a time. With the detection of thousands of lensing systems forecasted by the Rubin Observatory in the coming years, this method is inconceivable. It also introduces simplifications that risk biasing the inference, which contravenes the objective of shedding light on the discrepancy between the Hubble constant measurements. This thesis presents a simulation-based inference strategy to address these issues. Several previous studies have accelerated the lens modeling through machine learning. Our approach complements their efforts by training a neural ratio estimator to determine the distribution of the Hubble constant from lens modeling products and time delay measurements. The neural ratio estimator results agree with those of the traditional analysis on simple simulations, have an acceptable statistical consistency, are unbiased, and are obtained significantly faster.
105

Mesurer la masse de trous noirs supermassifs à l’aide de l’apprentissage automatique

Chemaly, David 07 1900 (has links)
Des percées récentes ont été faites dans l’étude des trous noirs supermassifs (SMBH), grâce en grande partie à l’équipe du télescope de l’horizon des évènements (EHT). Cependant, déterminer la masse de ces entités colossales à des décalages vers le rouge élevés reste un défi de taille pour les astronomes. Il existe diverses méthodes directes et indirectes pour mesurer la masse de SMBHs. La méthode directe la plus précise consiste à résoudre la cinématique du gaz moléculaire, un traceur froid, dans la sphère d’influence (SOI) du SMBH. La SOI est définie comme la région où le potentiel gravitationnel du SMBH domine sur celui de la galaxie hôte. Par contre, puisque la masse d’un SMBH est négligeable face à la masse d’une galaxie, la SOI est, d’un point de vue astronomique, très petite, typiquement de quelques dizaines de parsecs. Par conséquent, il faut une très haute résolution spatiale pour étudier la SOI d’un SMBH et pouvoir adéquatement mesurer sa masse. C’est cette nécessité d’une haute résolution spatiale qui limite la mesure de masse de SMBHs à de plus grandes distances. Pour briser cette barrière, il nous faut donc trouver une manière d’améliorer la résolution spatiale d’objets observés à un plus au décalage vers le rouge. Le phénomène des lentilles gravitationnelles fortes survient lorsqu’une source lumineuse en arrière-plan se trouve alignée avec un objet massif en avant-plan, le long de la ligne de visée d’un observateur. Cette disposition a pour conséquence de distordre l’image observée de la source en arrière-plan. Puisque cette distorsion est inconnue et non-linéaire, l’analyse de la source devient nettement plus complexe. Cependant, ce phénomène a également pour effet d’étirer, d’agrandir et d’amplifier l’image de la source, permettant ainsi de reconstituer la source avec une résolution spatiale considérablement améliorée, compte tenu de sa distance initiale par rapport à l’observateur. L’objectif de ce projet consiste à développer une chaîne de simulations visant à étudier la faisabilité de la mesure de la masse d’un trou noir supermassif (SMBH) par cinéma- tique du gaz moléculaire à un décalage vers le rouge plus élevé, en utilisant l’apprentissage automatique pour tirer parti du grossissement généré par la distorsion d’une forte lentille gravitationnelle. Pour ce faire, nous générons de manière réaliste des observations du gaz moléculaire obtenues par le Grand Réseau d’Antennes Millimétrique/Submillimétrique de l’Atacama (ALMA). Ces données sont produites à partir de la suite de simulations hydrody- namiques Rétroaction dans des Environnements Réalistes (FIRE). Dans chaque simulation, l’effet cinématique du SMBH est intégré, en supposant le gaz moléculaire virialisé. Ensuite, le flux d’émission du gaz moléculaire est calculé en fonction de sa vitesse, température, densité, fraction de H2, décalage vers le rouge et taille dans le ciel. Le cube ALMA est généré en tenant compte de la résolution spatiale et spectrale, qui dépendent du nombre d’antennes, de leur configuration et du temps d’exposition. Finalement, l’effet de la forte lentille gravi- tationnelle est introduit par la rétro-propagation du faisceau lumineux en fonction du profil de masse de l’ellipsoïde isotherme singulière (SIE). L’exploitation de ces données ALMA simulées est testée dans le cadre d’un problème de régression directe. Nous entraînons un réseau de neurones à convolution (CNN) à apprendre à prédire la masse d’un SMBH à partir des données simulées, sans prendre en compte l’effet de la lentille. Le réseau prédit la masse du SMBH ainsi que son incertitude, en supposant une distribution a posteriori gaussienne. Les résultats sont convaincants : plus la masse du SMBH est grande, plus la prédiction du réseau est précise et exacte. Tout comme avec les méthodes conventionnelles, le réseau est uniquement capable de prédire la masse du SMBH tant que la résolution spatiale des données permet de résoudre la SOI. De plus, les cartes de saillance du réseau confirment que celui-ci utilise l’information contenue dans la SOI pour prédire la masse du SMBH. Dans les travaux à venir, l’effet des lentilles gravitationnelles fortes sera introduit dans les données pour évaluer s’il devient possible de mesurer la masse de ces mêmes SMBHs, mais à un décalage vers le rouge plus élevé. / Recent breakthroughs have been made in the study of supermassive black holes (SMBHs), thanks largely to the Event Horizon Telescope (EHT) team. However, determining the mass of these colossal entities at high redshifts remains a major challenge for astronomers. There are various direct and indirect methods for measuring the mass of SMBHs. The most accurate direct method involves resolving the kinematics of the molecular gas, a cold tracer, in the SMBH’s sphere of influence (SOI). The SOI is defined as the region where the gravitational potential of the SMBH dominates that of the host galaxy. However, since the mass of a SMBH is negligible compared to the mass of a galaxy, the SOI is, from an astronomical point of view, very small, typically a few tens of parsecs. As a result, very high spatial resolution is required to study the SOI of a SMBH and adequately measure its mass. It is this need for high spatial resolution that limits mass measurements of SMBHs at larger distances. To break this barrier, we need to find a way to improve the spatial resolution of objects observed at higher redshifts. The phenomenon of strong gravitational lensing occurs when a light source in the back- ground is aligned with a massive object in the foreground, along an observer’s line of sight. This arrangement distorts the observed image of the background source. Since this distor- tion is unknown and non-linear, analysis of the source becomes considerably more complex. However, this phenomenon also has the effect of stretching, enlarging and amplifying the image of the source, enabling the source to be reconstructed with considerably improved spatial resolution, given its initial distance from the observer. The aim of this project is to develop a chain of simulations to study the feasibility of measuring the mass of a supermassive black hole (SMBH) by kinematics of molecular gas at higher redshift, using machine learning to take advantage of the magnification generated by the distortion of a strong gravitational lens. To this end, we realistically generate observations of molecular gas obtained by the Atacama Large Millimeter/Submillimeter Antenna Array (ALMA). These data are generated from the Feedback in Realistic Environments (FIRE) suite of hydrodynamic simulations. In each simulation, the kinematic effect of the SMBH is integrated, assuming virialized molecular gas. Next, the emission flux of the molecular gas is calculated as a function of its velocity, temperature, density, H2 fraction, redshift and sky size. The ALMA cube is generated taking into account spatial and spectral resolution, which depend on the number of antennas, their configuration and exposure time. Finally, the effect of strong gravitational lensing is introduced by back-propagating the light beam according to the mass profile of the singular isothermal ellipsoid (SIE). The exploitation of these simulated ALMA data is tested in a direct regression problem. We train a convolution neural network (CNN) to learn to predict the mass of an SMBH from the simulated data, without taking into account the effect of the lens. The network predicts the mass of the SMBH as well as its uncertainty, assuming a Gaussian a posteriori distribution. The results are convincing: the greater the mass of the SMBH, the more precise and accurate the network’s prediction. As with conventional methods, the network is only able to predict the mass of the SMBH as long as the spatial resolution of the data allows the SOI to be resolved. Furthermore, the network’s saliency maps confirm that it uses the information contained in the SOI to predict the mass of the SMBH. In future work, the effect of strong gravitational lensing will be introduced into the data to assess whether it becomes possible to measure the mass of these same SMBHs, but at a higher redshift.
106

Horseshoe regularization for wavelet-based lensing inversion

Nafisi, Hasti 03 1900 (has links)
Gravitational lensing, a phenomenon in astronomy, occurs when the gravitational field of a massive object, such as a galaxy or a black hole, bends the path of light from a distant object behind it. This bending results in a distortion or magnification of the distant object's image, often seen as arcs or rings surrounding the foreground object. The Starlet wavelet transform offers a robust approach to representing galaxy images sparsely. This technique breaks down an image into wavelet coefficients at various scales and orientations, effectively capturing both large-scale structures and fine details. The Starlet wavelet transform offers a robust approach to representing galaxy images sparsely. This technique breaks down an image into wavelet coefficients at various scales and orientations, effectively capturing both large-scale structures and fine details. The horseshoe prior has emerged as a highly effective Bayesian technique for promoting sparsity and regularization in statistical modeling. It aggressively shrinks negligible values while preserving important features, making it particularly useful in situations where the reconstruction of an original image from limited noisy observations is inherently challenging. The main objective of this thesis is to apply sparse regularization techniques, particularly the horseshoe prior, to reconstruct the background source galaxy from gravitationally lensed images. By demonstrating the effectiveness of the horseshoe prior in this context, this thesis tackles the challenging inverse problem of reconstructing lensed galaxy images. Our proposed methodology involves applying the horseshoe prior to the wavelet coefficients of lensed galaxy images. By exploiting the sparsity of the wavelet representation and the noise-suppressing behavior of the horseshoe prior, we achieve well-regularized reconstructions that reduce noise and artifacts while preserving structural details. Experiments conducted on simulated lensed galaxy images demonstrate lower mean squared error and higher structural similarity with the horseshoe prior compared to alternative methods, validating its efficacy as an efficient sparse modeling technique. / Les lentilles gravitationnelles se produisent lorsque le champ gravitationnel d'un objet massif dévie la trajectoire de la lumière provenant d'un objet lointain, entraînant une distorsion ou une amplification de l'image de l'objet lointain. La transformation Starlet fournit une méthode robuste pour obtenir une représentation éparse des images de galaxies, capturant efficacement leurs caractéristiques essentielles avec un minimum de données. Cette représentation réduit les besoins de stockage et de calcul, et facilite des tâches telles que le débruitage, la compression et l'extraction de caractéristiques. La distribution a priori de fer à cheval est une technique bayésienne efficace pour promouvoir la sparsité et la régularisation dans la modélisation statistique. Elle réduit de manière agressive les valeurs négligeables tout en préservant les caractéristiques importantes, ce qui la rend particulièrement utile dans les situations où la reconstruction d'une image originale à partir d'observations bruitées est difficile. Étant donné la nature mal posée de la reconstruction des images de galaxies à partir de données bruitées, l'utilisation de la distribution a priori devient cruciale pour résoudre les ambiguïtés. Les techniques utilisant une distribution a priori favorisant la sparsité ont été efficaces pour relever des défis similaires dans divers domaines. L'objectif principal de cette thèse est d'appliquer des techniques de régularisation favorisant la sparsité, en particulier la distribution a priori de fer à cheval, pour reconstruire les galaxies d'arrière-plan à partir d'images de lentilles gravitationnelles. Notre méthodologie proposée consiste à appliquer la distribution a priori de fer à cheval aux coefficients d'ondelettes des images de galaxies lentillées. En exploitant la sparsité de la représentation en ondelettes et le comportement de suppression du bruit de la distribution a priori de fer à cheval, nous obtenons des reconstructions bien régularisées qui réduisent le bruit et les artefacts tout en préservant les détails structurels. Des expériences menées sur des images simulées de galaxies lentillées montrent une erreur quadratique moyenne inférieure et une similarité structurelle plus élevée avec la distribution a priori de fer à cheval par rapport à d'autres méthodes, validant son efficacité.
107

Effets de lentille gravitationnelle sur le rayonnement de fond cosmique

Benabed, Karim 12 November 2001 (has links) (PDF)
On s'intéressera, dans ce mémoire, à certains aspects phénoménologiques de l'évolution des grandes structures de l'univers, dans le cadre des modèles inflationnaires. La relativité générale prédit que le trajet des rayons lumineux est perturbé par les puits de potentiels gravitationnels ; on appelle ce phénomène, effet de lentille gravitationnelle. On donnera une description très précise de cet effet sur la lumière du rayonnement de fond micro-onde, les anisotropies de sa température et sa polarisation. Pour ce faire, après avoir exposé les grandes lignes du modèle, on rappellera comment se calculent les anisotropies de température et la polarisation ainsi que les propriétés de l'évolution des grandes structures. Le calcul de l'effet de lentille gravitationnelle sera aussi rappelé en détail. On sera ainsi en mesure d'étudier l'effet de lentille gravitationnelle sur le rayonnement de fond dans deux régimes : celui fort, dans le cas d'un effet induit par une corde cosmique, et celui faible où les sources sont les grandes structures de l'univers. On montrera, dans ce dernier cas, que température et polarisation du rayonnement de fond portent des informations sur l'histoire des grandes structures entre aujourd'hui et son époque d'émission. On exposera et l'on caractérisera une technique particulièrement prometteuse visant à extraire cette information, et qui consiste à comparer rayonnement de fond et relevés de forme des champs galactiques d'arrière plan. On étudiera aussi les enseignement que peuvent apporter ce genre d'observables sur le modèle cosmologique. Enfin, on s'attardera sur une classe de modèles exotiques dans laquelle la constante cosmique est remplacée par une composante nouvelle, la quintessence. On étudiera l'évolution des grandes structures dans ces modèles et on en tirera les conséquences phénoménologiques sur l'effet de lentille gravitationnelle.

Page generated in 0.1457 seconds