Spelling suggestions: "subject:"astronomiques"" "subject:"astronomie""
11 |
Qualification de IONIC, instrument de recombinaison interferometrique base sur des composants d'optique planaire dedie a l'astronomieHaguenauer, Pierre 19 October 2001 (has links) (PDF)
L'interferometrie astronomique est une technique instrumentale en plein essor actuellement, developpee dans le but d'accroitre significativement la resolution angulaire pour les observations astrophysiques. Cependant, la mise en place de cette technique presente encore quelques points durs, notamment la recombinaison d'un grand nombre de telescopes dans le cas des grands reseaux developpes actuellement. Le travail presente dans cette these concerne une nouvelle methode instrumentale de recombinaison des faisceaux, basee sur l'optique integree. Je montre que cette technologie, developpee a l'origine dans le domaine des telecommunications, est egalement adaptee aux besoins instrumentaux astronomiques, notamment en matiere de fonctionnement sur de large bandes de longueurs d'onde. En particulier, l'optique integree donne acces facilement au filtrage spatial et a la calibration photometrique dont l'usage pour ameliorer la qualite des mesures est maintenant reconnu. Apres une presentation de la technique d'interferometrie astronomique et de ses besoins instrumentaux specifiques, je decris les principes generaux de l'optique integree planaire et les possibilites qu'elle offre. Les resultats des etudes en laboratoire de differents composants de recombinaison ont permis de comprendre les points cles sur lesquels l'attention doit etre portee lors de la realisation d'un instrument base sur cette technologie. Les premiers resultats obtenus sur le ciel avec deux telescopes sur l'interferometre IOTA (Arizona, USA) sont egalement presentes, donnant des mesures astrophysiques tout a fait en accords avec des resultats publies. Grace a l'experience acquise, un second instrument permettant cette fois la recombinaison simultanee de trois faisceaux a ete developpe, et est en cours de tests. Il permettra ainsi d'avoir acces a la phase de l'objet et non plus uniquement au contraste des franges, ouvrant de ce fait la voie a l'imagerie sur les objets observes. La maturite acquise pour l'utilisation de cette technologie en astronomie a permis de demarrer des projets instrumentaux complexes. Ainsi, l'optique integree est utilisee dans des etudes de validation technologique pour le futur interferometre spatial IRSI-DARWIN.
|
12 |
Recherche de signatures spectrales d’objets astronomiques variant ultra rapidement dans les relevés spectroscopiquesTrottier, Éric 19 April 2018 (has links)
Le domaine temporel est celui le moins exploré en astronomie [4]. À ce jour, les objets astronomiques connus variant avec les périodes les plus courtes sont les pulsars qui varient avec des périodes de quelques millisecondes. C'est pourquoi, une technique basée sur la théorie de Fourier est proposée pour détecter des objets qui varient avec des périodes extrêmement courtes (10* s et moins). Remarquez qu'il existe des indications que ces objets pourraient exister [10]. La distribution spectrale d'une source lumineuse variant avec une période très brève est donnée par la transformée de Fourier de la variation temporelle. Il en résulte que la distribution spectrale est modulée par une variation périodique fréquentielle. Durant la dernière décennie, des relevés {surveys) spectroscopiques ont été faits par le SDSS. La banque de données spectrales du SDSS-IIDR7 contient environ 2.5 millions de spectres, dont 700 000 étoiles, 1.4 million de galaxies et 200 000 quasars (et près de 100 000 spectres du ciel), lesquels sont accessibles au public. Pour analyser ces spectres, des techniques utilisant les transformées de Fourier et un logiciel de détection {Matlab) ont été développés. Comme le logiciel peut faire des fausses identifications, l'inspection visuelle des spectres extraits est requise. Les résultats obtenus (voir chapitre 4) montrent que pour certaines étoiles ordinaires, des modulations spectrales statistiquement significatives ont été découvertes. Pour les étoiles et les galaxies, les distributions statistiques obtenues sont compatibles avec celle de Rayleigh, mais pour les 23 quasars sortis les statistiques de petits nombres semblent biaiser cette compatibilité. Finalement, bien que la justification originale pour cette recherche consiste à découvrir des pulsateurs ultra-rapides, il n'en demeure pas moins qu'on peut également découvri
|
13 |
Développement d'un spectromètre imageur à transformée de Fourier pour l'astronomieGrandmont, Frédéric 11 April 2018 (has links)
Un spectromètre imageur pour l'astronomie conçu spécifiquement pour être utilisé au télescope de 1.6 m de l'observatoire du mont Mégantic a été réalisé sur la base d'un interféromètre de Michelson. Un spectre pour chacun des quelques 1.4 millions de pixels que contient l'image peut être obtenu par le calcul de la transformée de Fourier des interférogrammes. Ceux-ci sont recueillis sous la forme d'une série d'images panchromatiques de la scène prises à différentes valeurs équidistantes de différences de parcours optiques dans l'interféromètre. Cette façon de faire confère à l'instrument un caractère distinctif dans l'ensemble des concepts de spectromètres imageurs existants puisque, pour la totalité de la mesure, toute la lumière de la scène dans le champ de vue alloué au détecteur est captée et ce pour la pleine étendue spectrale de celui-ci. Ce pouvoir de collection de lumière inégalé présente à la fois des avantages et des inconvénients qui sont discutés dans le présent document. L'instrument, baptisé SpIOMM, qui résulte de ces travaux est au moment de sa mise en service le premier du genre au monde à produire des résultats scientifiques dans la bande du visible (350 - 900 nm).
|
14 |
Apport de la haute resolution angulaire sur l'etude des galaxies lointaines : imagerie, optique adaptative et spectroscopie 3DFrancois, Assemat 16 December 2004 (has links) (PDF)
Cette thèse se place dans le contexte de l'étude des galaxies lointaines, études nécessaires à la compréhension des mécanismes de formation des galaxies. La mise en service du télescope spatial Hubble a permis d'obtenir des images à haute résolution spatiale de ces galaxies, donnant ainsi des premiers indices sur leur morphologie. En complément, l'installation de télescopes au sol de la classe des 8-10 mètres tels que le Very Large Telescope (VLT) européen a permis d'effectuer la spectroscopie de ces objets. Toutes ces données montrent que l'univers a connu un pic de formation stellaire il y a environ 8-10 milliards d'années, formation qui a chuté depuis. La première partie de ce manuscrit est consacrée à l'étude de la morphologie des galaxies lointaines, à l'aide d'images obtenues avec le télescope spatial Hubble. Le travail présenté porte en particulier sur deux populations de galaxies responsables du déclin de la formation stellaire évoqué plus haut : les galaxies compactes lumineuses (LCG) et les galaxies lumineuses dans l'infrarouge (LIRG). Ces études ont notamment permis d'établir une séquence pouvant servir de base à un scénario de formation d'une partie des galaxies de l'univers local. Des études complémentaires ont aussi montré le besoin d'une haute résolution spectrale pour déterminer avec précision le taux de formation stellaire des galaxies lointaines. La deuxième partie est consacrée à l'étude de FALCON, un projet de spectrographe de nouvelle génération pour le VLT alliant haute résolution spatiale et spectrale. L'objectif de FALCON est de fournir l'information dynamique sur les galaxies lointaines avec une résolution spatiale de 0.25 arcsec et un rapport signal-sur-bruit suffisant. Ceci nécessite d'utiliser l'Optique Adaptative pour compenser en temps-réel la dégradation des images due à la turbulence. Afin de s'affranchir de l'anisoplanétisme propre à cette technique, FALCON utilisera des techniques de tomographie consistant à corriger le front d'onde issu de la galaxie dont on souhaite déterminer la dynamique en combinant les mesures de front d'onde sur des étoiles hors-axe qui l'entourent. Le système d'Optique Adaptative a d'abord été intensivement étudié de manière théorique. Puis le développement d'un code de simulation numérique a alors permis d'établir des premières performances d'un tel système sur le ciel.
|
15 |
Optimisation des observations et des données cinématiques H[alpha] de l'échantillon de galaxies proches SINGSDaigle, Olivier January 2005 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
|
16 |
Cophasage de télescopes multi-pupilles sur point source : application à l'interféromètre en frange noire PerséeHouairi, Kamel 16 October 2009 (has links) (PDF)
Moins de 20 ans après la découverte de HD114762b, l'exoplanétologie est déjà très riche en découvertes et elle le sera encore très certainement dans les années à venir. L'interférométrie en frange noire, ou nulling, est une des rares méthodes permettant l'observation directe des planètes extrasolaires en s'affranchissant du très fort contraste existant entre la planète et son étoile hôte. Cette méthode exige cependant une égalisation des chemins optiques, ou cophasage, avec une précision nanométrique. Mon manuscrit traite principalement de PERSEE, un banc ayant pour objectif de valider les problématiques de l'interférométrie en frange noire et du cophasage en présence de perturbations réalistes. Ma contribution au dimensionnement de PERSEE a permis de positionner au mieux la pupille et d'optimiser le choix des deux bandes spectrales. Les estimateurs de cophasage s'appuient sur une modulation spatiale codant l'interférogramme sur 4 points. Les algorithmes de démodulation exploitant la quasi-quadrature présentent deux retombées majeures : l'estimation photométrique de chaque bras et le contrôle des dérives internes. En outre, j'ai développé un estimateur de la différence de marche conjuguant grande dynamique et précision basé sur les mesures de la différence de marche dans deux bandes spectrales. Enfin, je présente les performances expérimentales du système de cophasage que j'ai intégré puis mis en œuvre. Les premiers résultats de PERSEE ont montré une précision sur la stabilisation des faisceaux égale à 0.8 nm rms, ce qui a permis d'obtenir une profondeur de l'extinction en lumière monochromatique égale à N=6.2x10−5±6.3x10−6. Ceci démontre ainsi que l'utilisation des 4 sorties d'un interféromètre de Mach-Zehnder modifié, commun au nuller et au système de cophasage, est une solution prometteuse pour les futurs instruments puisqu'elle permet de minimiser les aberrations différentielles entre ces deux systèmes. Enfin, ma contribution à la définition du système de cophasage de GRAVITY, un instrument de seconde génération du Very Large Telescope Interferometer, a permis de choisir la recombinaison interférométrique la plus performante pour le système de cophasage de GRAVITY.
|
17 |
Approches multivaluées et supervisées en morphologie mathématique et applications en analyse d'imageLefèvre, Sébastien 09 December 2009 (has links) (PDF)
Ce mémoire présente une synthèse des activités de recherche en morphologie mathématique menées au LSIIT (UMR 7005 CNRS–UDS) depuis 2003. La morphologie mathématique est une théorie introduite il y a quarante ans par les chercheurs français Georges Matheron et Jean Serra. Elle connaît depuis un vif succès dans la communauté de l'analyse et du traitement des images, puisqu'elle permet l'analyse des structures spatiales (le plus souvent au travers d'un voisinage défini par le terme d'élément structurant) dans un cadre non-linéaire. Son application aux images binaires et aux images en niveaux de gris s'effectue très simplement en s'appuyant sur la théorie des ensembles ou mieux, celle des treillis. Cependant, son extension au cas des images multivaluées (où chaque pixel est représenté par un vecteur et non plus par un scalaire) n'est pas triviale et reste un problème ouvert. Ainsi, nous nous sommes intéressés aux approches morphologiques vectorielles basées sur des ordres totaux (aux fondements théoriques les plus valides), en cherchant à atténuer, à l'aide de différentes méthodes de quantification, leur caractère fortement asymétrique afin de mieux exploiter l'ensemble des données disponibles. Nous avons également étudié une autre stratégie consistant à éviter l'appel explicite à un ordre vectoriel, et à décomposer l'image en un ensemble de composantes binaires ou à niveaux de gris, traitées indépendemment ou conjointement. Indépendamment de la nature des images considérées, la création des systèmes d'analyse d'image par morphologie mathématique nécessite le plus souvent une expertise du domaine et une connaissance très fine du problème pour pouvoir choisir, combiner, et paramétrer les opérateurs morphologiques à bon escient. De ce fait, les méthodes morphologiques ne peuvent généralement pas être réutilisées dans un contexte différent de celui pour lequel elles ont été élaborées, et ne respectent que très peu la contrainte de généricité souhaitée en analyse d'image. Ce problème n'est bien sûr pas spécifique à la morphologie mathématique et est récurrent en traitement d'image, et nous l'avons abordé selon deux axes principaux. D'une part, nous avons étudié les connaissances pouvant être formalisées au sein des éléments structurants dans le contexte de la détection d'objet. D'autre part, nous avons exploité des procédures de classification supervisée (où des ensembles d'apprentissage sont fournis par l'expert) ou non-supervisée (où seul le nombre d'objets ou de classes d'intérêt est connu) au sein du processus de segmentation d'image en régions. L'objectif sous-jacent à ces travaux fondamentaux est d'aboutir à terme à des approches morphologiques multivaluées et guidées par les connaissances, aptes à traiter tout type d'information, dans tout contexte. Nous avons donc cherché à appliquer ces développements théoriques et méthodologiques dans différents domaines, en particulier l'analyse d'images couleur (dans un but d'annotation et de recherche par le contenu), ainsi que la télédétection (à très haute résolution spatiale) et l'imagerie astronomique (où les données peuvent être particulièrement bruitées). Ces domaines d'application, où les images sont de nature multivaluée et où l'intégration de connaissances pour guider les traitements est nécessaire, sont particulièrement pertinents puisque l'information spatiale y est cruciale, la morphologie mathématique prenant alors tout son sens. Les problèmes récurrents rencontrés dans ces différents domaines sont la détection, la segmentation, et la description des images. En complément à ces travaux relatifs à la morphologie mathématique, nous présentons le projet PELICAN, une plate-forme générique et extensible pour le traitement d'image. Ce mémoire se termine par une présentation de quelques perspectives de recherche envisagées dans le cadre de différentes collaborations. Ainsi, l'apport des propriétés d'invariance et d'imprécision dans le contexte de la morphologie mathématique aurait des répercussions en imagerie du vivant. L'analyse morphologique de séquences vidéo, et l'élaboration de descripteurs morphologiques locaux offriraient des solutions alternatives en indexation multimédia. Enfin, la morphologie mathématique n'étant par définition pas limitée à des données de type image, son application à des données de différentes natures mérite d'être étudiée avec une attention particulière.
|
18 |
Etude de la commande optimale en Optique Adaptative et Optique Adaptative Multi-Conjuguée, validation numérique et<br />expérimentale.Petit, Cyril 18 December 2006 (has links) (PDF)
La turbulence atmosphérique limite sévèrement la formation d'images par les<br />télescopes astronomiques au sol. L'Optique Adaptative (OA) est une technique<br />de correction en temps réel des effets de la turbulence permettant d'améliorer<br />la résolution angulaire des télescopes. Aujourd'hui mûre, cette technique se<br />heurte toutefois à certaines limitations technologiques et fondamentales ayant<br />amené au développement de nouveaux concepts d'OA, à très haute dynamique ou à<br />grand champ (OA Multi-Conjuguée ou OAMC). Les lois de commande classiquement<br />utilisées dans les systèmes d'OA sont toutefois peu adaptées à ces nouveaux<br />concepts plus complexes. <br /><br />L'objectif de cette thèse est d'étudier une commande optimale au sens de la<br />variance minimale, à la fois sur le plan théorique et expérimental, dans un<br />contexte d'OA et d'OAMC. La loi de commande obtenue, de type Linéaire<br />Quadratique Gaussienne (LQG), est analysée et les contraintes d'implantation,<br />du point de vue algorithmique et modélisation, sont évaluées. Nous proposons<br />également de gérer des perturbations additionnelles généralement rencontrées<br />sur les systèmes (vibrations...). Enfin, nous présentons les premières<br />validations expérimentales d'une commande de ce type en OA et dans un cadre<br />d'OAMC simplifiée. Le gain en performance, par rapport à des lois de commande<br />classiques, est très important et corrobore les résultats de simulation<br />numérique. Nous évaluons enfin les performances de la commande LQG sur des<br />systèmes d'OAMC pour le VLT par le biais d'une simulation numérique réaliste.<br />L'ensemble des résultats obtenus confirment l'apport très significatif de<br />cette approche et sa souplesse pour gérer à la fois des géométries d'analyse<br />complexes et l'optimisation de la correction dans des champs d'intérêt<br />spécifiques.
|
19 |
Exploring S stars: stellar parameters, abundances and constraints on the s-process from a new grid of model atmospheresNeyskens, Pieter 08 January 2014 (has links)
More than 80% of the stars in the Universe are expected to have initial masses below eight to ten times the mass of our sun. These low mass stars, including our sun, become cool red giants during one of the final evolutionary stages of their life: the Asymptotic Giant Branch (or AGB) phase. AGB stars are among the main producers of carbon and heavy (s-process) elements in the Universe. These elements are synthesized inside the star and mixed to the stellar atmosphere where stellar winds are responsible for the loss of more than 50% of the stellar mass, hence, AGB stars are strong polluters of the interstellar medium. The ejected material can clump together into dusty particles which may serve as ingredients for the birth of new stars and planets. When most of the AGB stellar envelope is lost, the AGB star stops releasing nuclear energy from interior processes and swaps its giant face for a planetary nebulae look, whereafter it fades away as a white dwarf.<p><p>The dredge-up of carbon and s-process elements into the AGB atmosphere causes an important chemical anomaly among them: initial oxygen-rich stars (M stars) are transformed into carbon-rich stars (C stars). As a consequence, a group of oxygen-rich AGB stars exists which makes the transition between M and C stars. These transition stars are classified as S.<p><p>Although AGB stars are identified as producers of heavy elements, their nucleosynthesis and mixing processes are weakly constrained due to large uncertainties on their estimated temperature, gravity and chemical composition. Stronger constraints on the atmospheric parameter space, hence interior processes, of AGB stars can be obtained by investigating the atmosphere of S stars. Since they are transition objects on the AGB, they trace the rise of the s-process. S stars are less numerous than C stars, but their optical spectra are brighter making it easier to identify atomic and molecular lines. Therefore, S stars belong to the most interesting objects along the AGB to perform this task.<p><p><p><p>From a practical point of view, the spectra of S stars are extremely difficult to study since they are dominated by different, overlapping molecular bands, and the spectral shape may vary strongly from star to star due to their transition status. Therefore, tailored model atmospheres for S stars are of utmost importance to understand the spectroscopic, and even photometric, changes in terms of variations in the atmospheric parameters. A comparison between the models and observations aims not only at constraining the atmospheric parameter space of S stars, it will also test the reliability of 1D state-of-the-art model atmospheres for such complex stars.<p><p><p><p>From an evolutionary point of view, the S-star family is contaminated with stars who gained their atmospheric enrichment in heavy elements from a companion star. Evidences were found that these binary S stars are not at all located on the AGB, hence, they are labelled as extrinsic S stars while S stars on the AGB are labelled as intrinsic. The difference in evolutionary stages between intrinsic and extrinsic S stars was already found 20 years ago, however, a separation in terms of surface temperature, gravity and chemical composition is not well-established due to the lack of S-star model atmospheres. Such a distinction in atmospheric parameters will facilitate the discovery of these intruders and even help to calibrate stellar evolutionary models of single and binary stars.<p>To achieve these goals, the first step consists in the construction of a grid of model atmospheres for S stars. The grid will be used to quantify the influence of atmospheric parameters on the model structure and emergent flux. These results will be analyzed to derive precise atmospheric parameters of observed S stars, using a set of well-defined photometric and spectroscopic indices. Once the best model atmosphere has been selected for all observed S stars, their atmospheric parameters will be discussed in view of their evolutionary stage. The best-fitting model atmosphere will also be used to derive abundances from spectral syntheses. The abundance profiles are compared with stellar evolution model prediction to constrain nucleosynthesis and mixing processes inside S stars. Derived abundances of unstable elements will be used to estimate, for the first time, the age of AGB stars. Finally, their abundance profile will be discussed as a function of their time spent on the AGB. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
|
20 |
Mesures optiques de profils de turbulence pour les futurs systèmes d'optique adaptative et d'observation / Optical measurements of turbulence profiles for future adaptive optics and observation systemsNguyen, Khanh Linh 18 December 2018 (has links)
La connaissance de la turbulence atmosphérique en visée horizontale permet de mieux appréhender la physique des flux de chaleur à l’interface sol-atmosphère. Elle permet également, en visée verticale, d’améliorer les performances des futurs systèmes d’optique adaptative grand-champ pour l’observation astronomique. Le profil de Cn² caractérise localement la force de la turbulence. La méthode CO-SLIDAR, développée par l’ONERA, permet de réaliser des profils de Cn² le long de la ligne de visée du télescope à partir des pentes et de scintillations mesurées par un Analyseur de Shack-Hartmann sur source double. Cette méthode a été validée en visée verticale mais n’avait pas encore montré son efficacité en visée horizontale. Les deux expériences à Lannemezan et à Châtillon-Meudon ont vu la mise en place d'un nouveau profilomètre Shack-Hartmann Infrarouge : le SCINDAR. Elles ont été réalisées sur des surfaces respectivement hétérogène et homogène par morceaux, et elles participent à la validation de la méthode pour des applications agronomiques et écologiques. Mon étude consiste à améliorer le traitement du signal du profilomètre SCINDAR et à valider la méthode CO-SLIDAR pour des mesures de la turbulence atmosphérique proche du sol. Cette méthode a été adaptée en utilisant un formalisme de propagation en onde sphérique. L'étude a permis d'identifier et prendre en compte des sources d'erreur dans le traitement : à savoir la vibration de la machine à froid de l'analyseur de front d'onde cryogénique du SCINDAR et l'étendue des sources dans les fonctions de poids du modèle direct posé pour le traitement des données. Mon étude se consacre à l’amélioration du traitement des données du SCINDAR et à la validation expérimentale des profils de Cn² obtenus avec des mesures de Cn² acquises par des scintillomètres. J'ai construit tout d'abord une base de données de pentes et scintillations de qualité vérifiée. Pour l'inversion des données, j'ai choisi la régularisation L1L2 qui est adaptée pour des mesures de Cn² proches du sol. La méthode de réglage des hyperparamètres de cette régularisation est non-supervisée. Elle permet d’augmenter la fiabilité et la précision de l’estimation du profil de Cn² de façon pragmatique à l'aide des erreurs relatives sur les paramètres turbulents macroscopiques. Le profilomètre SCINDAR avec la méthode CO-SLIDAR ainsi améliorée produit finalement des profils de Cn² d'excellente qualité. Ces profils sont comparés avec succès aux mesures des scintillomètres. L’ensemble de ces travaux constitue l'adaptation de la méthode CO-SLIDAR pour des mesures de la turbulence proche du sol. / The knowledge of atmospheric turbulence in horizontal aim allows to better understand the physics of the heat fluxes at the ground-atmosphere interface. It also allows, in vertical aim, to improve the performance of future wide-field adaptive optics systems for astronomical observation. The profile of Cn²locally characterizes the force of turbulence. The CO-SLIDAR method, developed by ONERA, allows profiles of Cn² along the line of sight of the telescope, from the slopes and scintillations of a double source measured by Shack-Hartmann analyzer. This method was validated in vertical aim but had not yet shown its effectiveness in horizontal aim. The two experiments in Lannemezan and Châtillon-Meudon introduced a new Shack-Hartmann Infrared profilometer: the SCINDAR. They were carried out on heterogeneous and piecewise homogeneous surfaces respectively, and they participate in the validation of the method for agronomic and ecological applications. My study consists of improving SCINDAR profilometer signal processing and validating the CO-SLIDAR method for near-ground atmospheric turbulence measurements. This method has been adapted using a spherical wave propagation formalism. The study identified and took into account sources of error in processing: the cold machine vibration of the SCINDAR cryogenic wavefront analyzer and the extent of the sources in the weight functions of the direct model set for data processing. My study focuses on improvement of the SCINDAR data processing and experimental validation profiles Cn² obtained with Cn² measurements acquired by scintillometers. I first built a database of slopes and scintillations of verified quality. For the inversion of the data, I chose the L1L2 regularization which is suitable for near-ground Cn² measurements. The method of setting the hyperparameters of this regularization is unsupervised. It makes it possible to increase the reliability and the accuracy of the Cn² profile estimation in a pragmatic way using the relative errors of the macroscopic turbulent parameters. The SCINDAR profilometer with the improved CO-SLIDAR method finally produces Cn² profiles of excellent quality. These profiles are successfully compared to scintillometer measurements. All of this work constitues the adaptation of the CO-SLIDAR method for measurements of near-ground turbulence.
|
Page generated in 0.0771 seconds