• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 39
  • 17
  • 9
  • Tagged with
  • 64
  • 20
  • 16
  • 15
  • 15
  • 15
  • 13
  • 12
  • 11
  • 9
  • 9
  • 9
  • 8
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Piezoelectric Mirrors for Adaptive Optics in Space Telescopes

Alaluf, David 02 December 2016 (has links)
Future generations of space-based telescopes will require increasingly large primary reflectors, with very tight optical-quality tolerances. However, as their size grow, it becomes more and more difficult to meet the requirements, due to the manufacturing complexity and the associated costs. Chapters 2 and 3 propose two concepts of Adaptive Optics deformable mirrors, intended to be used as secondary corrector to compensate for manufacturing errors, gravity release and thermal distortion of large lightweight primary mirrors of space telescopes: (i) A scalable segmented bimorph mirror, based on independent PZT patches glued on Silicon wafers, providing a large number of degrees of freedom, a low mass while overcoming the problem of a low resonance mode; and (ii) A monolithic bimorph mirror, controlled by an array of independent electrodes, done by laser ablation on a single PZT patch. The modelling, the control strategy and the technological aspects are described. The performances of the manufactured prototypes are demonstrated experimentally. These prototypes have been developed in the framework of the ESA project, Bimorph Adaptive Large Optical Mirror Demonstrator (BIALOM). Chapter 4 introduces alternative designs, allowing to face the thermal distortion inherent to the bimorph architecture. They are compared in terms of stroke, voltage budget and first resonance frequency. These designs are required to be controlled in both directions using only positive voltages. Finally, the last chapter explores the feasibility of the shape control of a small size active thin shell reflector (with double curvature). The prototype is intended to be a technology demonstrator of a future large and very light active primary reflector. The behavior of the shell is studied through numerical simulations, and a preliminary design is proposed. This investigation is carried out in the framework of the ESA project: Multilayer Adaptive Thin Shell Reflectors (MATS). / Doctorat en Sciences de l'ingénieur et technologie / info:eu-repo/semantics/nonPublished
62

Estimateur neuronal de ratio pour l'inférence de la constante de Hubble à partir de lentilles gravitationnelles fortes

Campeau-Poirier, Ève 12 1900 (has links)
Les deux méthodes principales pour mesurer la constante de Hubble, soit le taux d’expansion actuel de l’Univers, trouvent des valeurs différentes. L’une d’elle s’appuie lourdement sur le modèle cosmologique aujourd’hui accepté pour décrire le cosmos et l’autre, sur une mesure directe. Le désaccord éveille donc des soupçons sur l’existence d’une nouvelle physique en dehors de ce modèle. Si une autre méthode, indépendante des deux en conflit, soutenait une des deux valeurs, cela orienterait les efforts des cosmologistes pour résoudre la tension. Les lentilles gravitationnelles fortes comptent parmi les méthodes candidates. Ce phénomène se produit lorsqu’une source lumineuse s’aligne avec un objet massif le long de la ligne de visée d’un télescope. La lumière dévie de sa trajectoire sur plusieurs chemins en traversant l’espace-temps déformé dans le voisinage de la masse, résultant en une image déformée, gros- sie et amplifiée. Dans le cas d’une source lumineuse ponctuelle, deux ou quatre images se distinguent nettement. Si cette source est aussi variable, une de ses fluctuations apparaît à différents moments sur chaque image, puisque chaque chemin a une longueur différente. Le délai entre les signaux des images dépend intimement de la constante de Hubble. Or, cette approche fait face à de nombreux défis. D’abord, elle requiert plusieurs jours à des spécialistes pour exécuter la méthode de Monte-Carlo par chaînes de Markov (MCMC) qui évalue les paramètres d’un seul système de lentille à la fois. Avec les détections de milliers de systèmes prévues par l’observatoire Rubin dans les prochaines années, cette approche est inconcevable. Elle introduit aussi des simplifications qui risquent de biaiser l’inférence, ce qui contrevient à l’objectif de jeter la lumière sur le désaccord entre les mesures de la constante de Hubble. Ce mémoire présente une stratégie basée sur l’inférence par simulations pour remédier à ces problèmes. Plusieurs travaux antérieurs accélèrent la modélisation de la lentille grâce à l’ap- prentissage automatique. Notre approche complète leurs efforts en entraînant un estimateur neuronal de ratio à déterminer la distribution de la constante de Hubble, et ce, à partir des produits de la modélisation et des mesures de délais. L’estimateur neuronal de ratio s’exécute rapidement et obtient des résultats qui concordent avec ceux de l’analyse traditionnelle sur des simulations simples, qui ont une cohérence statistique acceptable et qui sont non-biaisés. / The two main methods to measure the Hubble constant, the current expansion rate of the Universe, find different values. One of them relies heavily on today’s accepted cosmological model describing the cosmos and the other, on a direct measurement. The disagreement thus arouses suspicions about the existence of new physics outside this model. If another method, independent of the two in conflict, supported one of the two values, it would guide cosmologists’ efforts to resolve the tension. Strong gravitational lensing is among the candidate methods. This phenomenon occurs when a light source aligns with a massive object along a telescope line of sight. When crossing the curved space-time in the vicinity of the mass, the light deviates from its trajectory on several paths, resulting in a distorted and magnified image. In the case of a point light source, two or four images stand out clearly. If this source is also variable, the luminosity fluctuations will appear at different moments on each image because each path has a different length. The time delays between the image signals depend intimately on the Hubble constant. This approach faces many challenges. First, it requires several days for specialists to perform the Markov Chain Monte-Carlo (MCMC) which evaluates the parameters of a single lensing system at a time. With the detection of thousands of lensing systems forecasted by the Rubin Observatory in the coming years, this method is inconceivable. It also introduces simplifications that risk biasing the inference, which contravenes the objective of shedding light on the discrepancy between the Hubble constant measurements. This thesis presents a simulation-based inference strategy to address these issues. Several previous studies have accelerated the lens modeling through machine learning. Our approach complements their efforts by training a neural ratio estimator to determine the distribution of the Hubble constant from lens modeling products and time delay measurements. The neural ratio estimator results agree with those of the traditional analysis on simple simulations, have an acceptable statistical consistency, are unbiased, and are obtained significantly faster.
63

Mesurer la masse de trous noirs supermassifs à l’aide de l’apprentissage automatique

Chemaly, David 07 1900 (has links)
Des percées récentes ont été faites dans l’étude des trous noirs supermassifs (SMBH), grâce en grande partie à l’équipe du télescope de l’horizon des évènements (EHT). Cependant, déterminer la masse de ces entités colossales à des décalages vers le rouge élevés reste un défi de taille pour les astronomes. Il existe diverses méthodes directes et indirectes pour mesurer la masse de SMBHs. La méthode directe la plus précise consiste à résoudre la cinématique du gaz moléculaire, un traceur froid, dans la sphère d’influence (SOI) du SMBH. La SOI est définie comme la région où le potentiel gravitationnel du SMBH domine sur celui de la galaxie hôte. Par contre, puisque la masse d’un SMBH est négligeable face à la masse d’une galaxie, la SOI est, d’un point de vue astronomique, très petite, typiquement de quelques dizaines de parsecs. Par conséquent, il faut une très haute résolution spatiale pour étudier la SOI d’un SMBH et pouvoir adéquatement mesurer sa masse. C’est cette nécessité d’une haute résolution spatiale qui limite la mesure de masse de SMBHs à de plus grandes distances. Pour briser cette barrière, il nous faut donc trouver une manière d’améliorer la résolution spatiale d’objets observés à un plus au décalage vers le rouge. Le phénomène des lentilles gravitationnelles fortes survient lorsqu’une source lumineuse en arrière-plan se trouve alignée avec un objet massif en avant-plan, le long de la ligne de visée d’un observateur. Cette disposition a pour conséquence de distordre l’image observée de la source en arrière-plan. Puisque cette distorsion est inconnue et non-linéaire, l’analyse de la source devient nettement plus complexe. Cependant, ce phénomène a également pour effet d’étirer, d’agrandir et d’amplifier l’image de la source, permettant ainsi de reconstituer la source avec une résolution spatiale considérablement améliorée, compte tenu de sa distance initiale par rapport à l’observateur. L’objectif de ce projet consiste à développer une chaîne de simulations visant à étudier la faisabilité de la mesure de la masse d’un trou noir supermassif (SMBH) par cinéma- tique du gaz moléculaire à un décalage vers le rouge plus élevé, en utilisant l’apprentissage automatique pour tirer parti du grossissement généré par la distorsion d’une forte lentille gravitationnelle. Pour ce faire, nous générons de manière réaliste des observations du gaz moléculaire obtenues par le Grand Réseau d’Antennes Millimétrique/Submillimétrique de l’Atacama (ALMA). Ces données sont produites à partir de la suite de simulations hydrody- namiques Rétroaction dans des Environnements Réalistes (FIRE). Dans chaque simulation, l’effet cinématique du SMBH est intégré, en supposant le gaz moléculaire virialisé. Ensuite, le flux d’émission du gaz moléculaire est calculé en fonction de sa vitesse, température, densité, fraction de H2, décalage vers le rouge et taille dans le ciel. Le cube ALMA est généré en tenant compte de la résolution spatiale et spectrale, qui dépendent du nombre d’antennes, de leur configuration et du temps d’exposition. Finalement, l’effet de la forte lentille gravi- tationnelle est introduit par la rétro-propagation du faisceau lumineux en fonction du profil de masse de l’ellipsoïde isotherme singulière (SIE). L’exploitation de ces données ALMA simulées est testée dans le cadre d’un problème de régression directe. Nous entraînons un réseau de neurones à convolution (CNN) à apprendre à prédire la masse d’un SMBH à partir des données simulées, sans prendre en compte l’effet de la lentille. Le réseau prédit la masse du SMBH ainsi que son incertitude, en supposant une distribution a posteriori gaussienne. Les résultats sont convaincants : plus la masse du SMBH est grande, plus la prédiction du réseau est précise et exacte. Tout comme avec les méthodes conventionnelles, le réseau est uniquement capable de prédire la masse du SMBH tant que la résolution spatiale des données permet de résoudre la SOI. De plus, les cartes de saillance du réseau confirment que celui-ci utilise l’information contenue dans la SOI pour prédire la masse du SMBH. Dans les travaux à venir, l’effet des lentilles gravitationnelles fortes sera introduit dans les données pour évaluer s’il devient possible de mesurer la masse de ces mêmes SMBHs, mais à un décalage vers le rouge plus élevé. / Recent breakthroughs have been made in the study of supermassive black holes (SMBHs), thanks largely to the Event Horizon Telescope (EHT) team. However, determining the mass of these colossal entities at high redshifts remains a major challenge for astronomers. There are various direct and indirect methods for measuring the mass of SMBHs. The most accurate direct method involves resolving the kinematics of the molecular gas, a cold tracer, in the SMBH’s sphere of influence (SOI). The SOI is defined as the region where the gravitational potential of the SMBH dominates that of the host galaxy. However, since the mass of a SMBH is negligible compared to the mass of a galaxy, the SOI is, from an astronomical point of view, very small, typically a few tens of parsecs. As a result, very high spatial resolution is required to study the SOI of a SMBH and adequately measure its mass. It is this need for high spatial resolution that limits mass measurements of SMBHs at larger distances. To break this barrier, we need to find a way to improve the spatial resolution of objects observed at higher redshifts. The phenomenon of strong gravitational lensing occurs when a light source in the back- ground is aligned with a massive object in the foreground, along an observer’s line of sight. This arrangement distorts the observed image of the background source. Since this distor- tion is unknown and non-linear, analysis of the source becomes considerably more complex. However, this phenomenon also has the effect of stretching, enlarging and amplifying the image of the source, enabling the source to be reconstructed with considerably improved spatial resolution, given its initial distance from the observer. The aim of this project is to develop a chain of simulations to study the feasibility of measuring the mass of a supermassive black hole (SMBH) by kinematics of molecular gas at higher redshift, using machine learning to take advantage of the magnification generated by the distortion of a strong gravitational lens. To this end, we realistically generate observations of molecular gas obtained by the Atacama Large Millimeter/Submillimeter Antenna Array (ALMA). These data are generated from the Feedback in Realistic Environments (FIRE) suite of hydrodynamic simulations. In each simulation, the kinematic effect of the SMBH is integrated, assuming virialized molecular gas. Next, the emission flux of the molecular gas is calculated as a function of its velocity, temperature, density, H2 fraction, redshift and sky size. The ALMA cube is generated taking into account spatial and spectral resolution, which depend on the number of antennas, their configuration and exposure time. Finally, the effect of strong gravitational lensing is introduced by back-propagating the light beam according to the mass profile of the singular isothermal ellipsoid (SIE). The exploitation of these simulated ALMA data is tested in a direct regression problem. We train a convolution neural network (CNN) to learn to predict the mass of an SMBH from the simulated data, without taking into account the effect of the lens. The network predicts the mass of the SMBH as well as its uncertainty, assuming a Gaussian a posteriori distribution. The results are convincing: the greater the mass of the SMBH, the more precise and accurate the network’s prediction. As with conventional methods, the network is only able to predict the mass of the SMBH as long as the spatial resolution of the data allows the SOI to be resolved. Furthermore, the network’s saliency maps confirm that it uses the information contained in the SOI to predict the mass of the SMBH. In future work, the effect of strong gravitational lensing will be introduced into the data to assess whether it becomes possible to measure the mass of these same SMBHs, but at a higher redshift.
64

Détection d'exoplanètes par effet de microlentille gravitationnelle : des observations à la caractérisation.

Bachelet, Etienne 24 October 2013 (has links) (PDF)
L'utilisation des microlentilles gravitationnelles dans la recherche d'exoplanètes a débuté en 1995. Les premiers résultats furent rapides, puisque la première exoplanète fut détectée en 2003 par les collaborations MOA et OGLE. Aujourd'hui, plus de vingt exoplanètes ont été publiées et ce nombre va considérablement augmenter dans les prochaines années avec le lancement des télescopes de surveillance KMTNet et les observatoires spatiaux EUCLID et WFIRST. Lorsqu'une étoile "proche", la microlentille, croise la ligne de visée entre la Terre et une étoile plus distante, la source, le flux de cette dernière est alors amplifié. Si par chance, une planète orbite autour de cette lentille, elle va également produire une amplification de faible amplitude. La courbe de lumière de l'évènement présente alors une signature typique : la déviation planétaire. Dans ce manuscript, nous présentons tous les outils théoriques et observationnels nécessaires à la détection d'exoplanète par la méthode des microlentilles gravitationnelles. Nous présentons ensuite l'étude de deux cas spécifiques : MOA- 2010-BLG-411Lb, une binaire composée d'une naine brune autour d'une naine M, et MOA-2010-BLG-477Lb, un super-Jupiter orbitant une étoile M. Une uniformisation des résultats sur les planètes détectées par effet de mircolentille gravitationnelle est également présentée. Deux problèmes majeurs compliquent la détection de planètes par la méthode des microlentielles gravitationnelles. Premièrement, le phénomène de microlentille gravitationnelle est peu probable pour une étoile donnée (une chance sur un million). Il faut donc observer des champs très riche en étoiles, tel que le Bulbe Galactique. Chaque nuit, les collaborations OGLE et MOA observe le Bulbe Galactique afin de repérer les évènements de microlentilles. Le second problème est que les déviations planétaires sont très courtes, d'une durée d'une heure à quelques jours pour les planètes les plus massives. Il faut donc observer les évènements de microlentilles en continu. C'est pour cela qu'une batterie de télescopes est répartie sur tout l'Hémisphère Sud. Le nombre d'évènements détectés chaque saison a considérablement augmenté durant les dernières années, obligeant les télescopes de suivi à faire des choix quand aux cible à observer. Nous avons décidé de développer un nouveau logiciel automatique permettant de faire ce choix à notre place. Il a été testé sur quatre années d'observations et l'analyse statistique des résultats est présentée. Nous espérons utiliser ces nouveaux résultats pour mieux contraindre un modèle de notre Galaxie.

Page generated in 0.0636 seconds