• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2
  • 2
  • 1
  • Tagged with
  • 4
  • 4
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Gaia : de la validation des données aux paramètres du Red Clump / Gaia : from the data validation to the Red Clump parameters

Ruiz-Dern, Laura 08 November 2016 (has links)
La mission Gaia de l'Agence Spatiale Européenne (ESA) a pour objectif de cartographier notre galaxie avec une précision astrométrique jamais atteinte auparavant. Il est donc particulièrement important que les données qui seront publiées soient rigoureusement validées afin d'assurer une qualité optimum au Catalogue. Ces validations sont faites par l'une des équipes de l'unité de coordination CU9 du Consortium Gaia DPAC (Data Processing and Analys Consortium) chargé par l'ESA de la production du Catalogue Gaia. Dans le cadre de cette thèse, nous avons mis en place toute l’infrastructure nécessaire à la validation du catalogue Gaia par comparaison avec des catalogues externes. Celle-ci gère toutes les interactions avec l'environnement global des validations et avec la base de données Gaia. Ensuite nous avons développé un ensemble de tests statistiques pour valider les données du premier catalogue Gaia (DR1). Ces tests concernent notamment l’homogénéité des données sur le ciel, la qualité des positions et de la photométrie de l'ensemble des étoiles de DR1 (plus d'un milliard d'étoiles, $V<20$) ainsi que celle des parallaxes et mouvements propres des étoiles de textit{Tycho-Gaia} Astrometric Solution (TGAS), environ deux millions d'étoiles communes aux catalogues Gaia et Tycho-2 ($V<12$). Ces tests statistiques sur la DR1 sont opérationnels et ont déjà été appliqués très récemment sur des données préliminaires. Cela a déjà permis d'améliorer ces données (donc la qualité du catalogue), et d'en caractériser les propriétés statistiques. Cette caractérisation est essentielle à une exploitation scientifique correcte des données. Le premier catalogue Gaia sera publié à la fin de l’été 2016. Parmi les objets observés par Gaia, il y a une population d'étoiles particulièrement intéressantes, les étoiles du Red Clump (RC), très utilisées comme étalons de distance. Nous avons développé et testé deux méthodes pour modéliser les relations couleur-couleur (CC) et température effective - couleur dans toutes les bandes photométriques, de l'ultraviolet au proche-infrarouge. Elles permettront de caractériser le RC dans la bande G de Gaia dès la publication du catalogue: 1. en utilisant des modèles théoriques, et 2. empiriquement, en se basant sur une méthode Monte Carlo Markov Chain (MCMC). Pour cela nous avons très rigoureusement sélectionné des échantillons d'étoiles avec une bonne qualité photométrique, une bonne métallicité, déterminée par spectroscopie, une température effective homogène et une faible extinction interstellaire. À partir de ces calibrations CC et température-couleur, nous avons ensuite développé une méthode par Maximum de Vraisemblance qui permet de déterminer les magnitudes absolues, les températures et les extinctions des étoiles du RC. Les couleurs et extinctions ainsi obtenues ont été testées sur des étoiles avec des températures effectives mesurées spectroscopiquement et une extinction déterminée par la mesure des Bandes Diffuses Interstellaires (DIB). Ces propriétés intrinsèques des étoiles du RC vont permettre de caractériser le Red Clump Gaia et de calibrer, dans la bande Gaia, la magnitude absolue de cet étalon de distance, premier échelon essentiel de la détermination des distances dans l'Univers. / The Gaia mission of the European Space Agency (ESA) aims to map our galaxy with an unprecedented astrometric precision. It is therefore very important that the data that will be published be rigorously validated to ensure an optimal quality in the Catalogue. These validations are done by one of the teams of the coordination unit CU9 of the Gaia DPAC Consortium (Data Processing and Analysis Consortium) commissioned by ESA of the Gaia catalogue production. As part of this thesis, we implemented all the necessary infrastructure to validate the Gaia catalogue by comparison with external catalogues. This last manages all the interactions with the global environment of validations and with the Gaia database. Then we developed a set of statistical tests to validate the data from the first Gaia catalogue (DR1). These tests relate in particular to the homogeneity of data on the sky, the quality of the positions and of photometry of all the stars of DR1 (more than a billion stars, $V <20$) as well as that of the parallaxes and proper motions for textit{Tycho-Gaia} Astrometric Solution (TGAS) stars, around two million stars in common in Gaia and Tycho-2 catalogues ($V <12$).These DR1 statistical tests are operational and were already applied very recently on preliminary data. This has improved the data (thus the quality of the catalog) as well as allowed to characterize the statistical properties. This characterisation is essential for a correct scientific exploitation of the data. The first Gaia catalogue will be released in late summer 2016.Among the objects that Gaia observes, there is a population of stars particularly interesting, the Red Clump (RC) stars, widely used for distance indicators. We developed and tested two methods to model the colour-colour (CC) and effective temperature - colour relations in all photometric bands, from the ultraviolet to the near infrared. They will allow us to characterize the RC in the Gaia G band upon publication of the catalogue: 1. using theoretical models, and 2. empirically, based on a Monte Carlo Markov Chain (MCMC) method. For this we have very carefully selected samples of stars with a good photometric quality, good metallicity determined by spectroscopy, an homogeneous effective temperature and a low interstellar extinction.From these CC and temperature-colour calibrations, we then developed a Maximum Likelihood method that allows to derive absolute magnitudes, temperatures and extinctions of the RC stars. Estimates of colours and extinctions are tested on stars with spectroscopically measured effective temperatures and an extinction determined by the measurement of Diffuse Interstellar Bands (DIB). These intrinsic properties of RC stars will allow to characterize the Gaia RC and calibrate, within the Gaia G band, the absolute magnitude of this standard candle, first essential step of determining distances in the Univers.
2

Calibration photométrique de l'imageur MegaCam : analyse des données SNDice

Villa, Francesca 21 September 2012 (has links) (PDF)
L'étalonnage photométrique des imageurs grand champ est à ce jour la principale limitation pour plusieurs mesures de cosmologie, parmi lesquelles celle des paramètres cosmologiques à l'aide des supernovae de type Ia. Afin d'obtenir l'exactitude de l'ordre de 0.1% nécessaire pour les relevés futurs, les collaborations actives dans ce domaine explorent la possibilité de nouvelles techniques de calibration à l'aide d'instruments dédié comme alternative à celle traditionnelle à l'aide d'étoiles standard spectrophotométriques. Le groupe du LPNHE a conçu SNDice, un système d'illumination innovant et très stable qui a été installé dans la dôme du télescope Canada-France-Hawaii pour calibrer l'imageur MegaCam et en suivre les performances. Le but est de démontrer la faisabilité d'une calibration instrumentale absolue exacte à 0.1% ou mieux. Dans la première partie de la thèse, un bref aperçu du modèle standard de la cosmologie et des principales sondes étudiées pour en contraindre les paramètres est suivi par la description de MegaCam et SNDice. La seconde partie s'attache à présenter la construction d'un modèle optique de MegaCam et d'une modélisation géométrique permettant de connaître les attitudes de MegaCam et SNDice dans le dôme. Ces deux modèles ont été implémentés dans un logiciel traceur de rayons, créé à l'aide des librairies ROOT, de façon à simuler l'éclairement du plan focal. Cette simulation permet de distinguer l'illumination directe des contributions dues aux réflexions issues des surfaces du correcteur grand champ. Enfin, est présentée l'application de ces outils pour la première analyse des poses de calibration SNDice: la détermination de la bande passante rM de MegaCam.
3

Calibration photométrique de l'imageur MegaCam. Analyse des données SnDICE.

Villa, Francesca 21 September 2012 (has links) (PDF)
L'étalonnage photométrique des imageurs grand champ est à ce jour la principale limitation pour plusieurs mesures de cosmologie, parmi lesquelles celle des paramètres cosmologiques à l'aide des supernovæ de type Ia. Afin d'obtenir l'exactitude de l'ordre de 0.1% nécessaire pour les relevés futurs, les collaborations actives dans ce domaine explorent la possibilité de nouvelles techniques de calibration à l'aide d'instruments dédiés comme alternative à celle traditionnelle à l'aide d'étoiles standard spectrophotométriques. Le groupe du LPNHE a conçu SnDICE, un système d'illumination innovant et très stable qui a été installé dans la dôme du télescope Canada-France-Hawaii pour calibrer l'imageur MegaCam et en suivre les performances. Le but est de démontrer la faisabilité d'une calibration instrumentale absolue exacte à 0.1% ou mieux. Dans la première partie de la thèse, un bref aperçu du modèle standard de la cosmologie et des principales sondes étudiées pour en contraindre les paramètres est suivi par la description de MegaCam et SnDICE. La seconde partie s'attache à présenter la construction d'un modèle optique de MegaCam et d'une modélisation géométrique permettant de connaître les attitudes de MegaCam et SnDICE dans le dôme. Ces deux modèles ont été implémentés dans un logiciel traceur de rayons, créé à l'aide des librairies ROOT, de façon à simuler l'éclairement du plan focal. Cette simulation permet de distin- guer l'illumination directe des contributions dues aux réflexions issues des surfaces du correcteur grand champ. Enfin, est présentée l'application de ces outils pour la première analyse des poses de calibration SnDICE : la détermination de la bande passante rM de MegaCam.
4

Contributions to Monocular Deformable 3D Reconstruction : Curvilinear Objects and Multiple Visual Cues / Contributions à la reconstruction 3D déformable monoculaire : objets curvilinéaires et indices visuels multiples

Gallardo, Mathias 20 September 2018 (has links)
La reconstruction 3D monoculaire déformable est le problème général d'estimation de forme 3D d'un objet déformable à partir d'images 2D. Plusieurs scénarios ont émergé : le Shape-from-Template (SfT) et le Non-Rigid Structure-from-Motion (NRSfM) sont deux approches qui ont été grandement étudiées pour leur applicabilité. La première utilise une seule image qui montre un objet se déformant et un patron (une forme 3D texturée de l'objet dans une pose de référence). La seconde n'utilise pas de patron, mais utilise plusieurs images et estime la forme 3D dans chaque image. Les deux approches s'appuient sur le mouvement de points de correspondances entre les images et sur des a priori de déformations, restreignant ainsi leur utilisation à des surfaces texturées qui se déforment de manière lisse. Cette thèse fait avancer l'état de l'art du SfT et du NRSfM dans deux directions. La première est l'étude du SfT dans le cas de patrons 1D (c’est-à-dire des courbes comme des cordes et des câbles). La seconde direction est le développement d'algorithmes de SfT et de NRSfM qui exploitent plusieurs indices visuels et qui résolvent des cas réels et complexes non-résolus précédemment. Nous considérons des déformations isométriques et reconstruisons la partie extérieure de l'objet. Les contributions techniques et scientifiques de cette thèse sont divisées en quatre parties.La première partie de cette thèse étudie le SfT curvilinéaire, qui est le cas du patron curvilinéaire plongé dans un espace 2D ou 3D. Nous proposons une analyse théorique approfondie et des solutions pratiques pour le SfT curvilinéaire. Malgré son apparente simplicité, le SfT curvilinéaire s'est avéré être un problème complexe : il ne peut pas être résolu à l'aide de solutions locales non-holonomes d'une équation différentielle ordinaire et ne possède pas de solution unique, mais un nombre fini de solutions ambiguës. Une contribution technique majeure est un algorithme basé sur notre théorie, qui génère toutes les solutions ambiguës. La deuxième partie de cette thèse traite d'une limitation des méthodes de SfT : la reconstruction de plis. Cette limitation vient de la parcimonie de la contrainte de mouvement et de la régularisation. Nous proposons deux contributions qui s'appuient sur un cadre de minimisation d'énergie non-convexe. Tout d'abord, nous complétons la contrainte de mouvement avec une contrainte robuste de bord. Ensuite, nous modélisons implicitement les plis à l'aide d'une représentation dense de la surface basée maillage et d'une contrainte robuste de lissage qui désactive automatiquement le lissage de la courbure sans connaître a priori la position des plis.La troisième partie de cette thèse est dédiée à une autre limitation du SfT : la reconstruction de surfaces peu texturées. Cette limitation vient de la difficulté d'obtenir des correspondances (parcimonieuses ou denses) sur des surfaces peu texturées. Comme l'ombrage révèle les détails sur des surfaces peu texturées, nous proposons de combiner l'ombrage avec le SfT. Nous présentons deux contributions. La première est une initialisation en cascade qui estime séquentiellement la déformation de la surface, l'illumination de la scène, la réponse de la caméra et enfin les albédos de la surface à partir d'images monoculaires où la surface se déforme. La seconde est l'intégration de l'ombrage à notre précédent cadre de minimisation d'énergie afin de raffiner simultanément les paramètres photométriques et de déformation.La dernière partie de cette thèse relâche la connaissance du patron et aborde deux limitations du NRSfM : la reconstruction de surfaces peu texturées avec des plis. Une contribution majeure est l'extension du second cadre d'optimisation pour la reconstruction conjointe de la forme 3D de la surface sur toutes les images d'entrée et des albédos de la surface sans en connaître un patron. / Monocular deformable 3D reconstruction is the general problem of recovering the 3D shape of a deformable object from monocular 2D images. Several scenarios have emerged: the Shape-from-Template (SfT) and the Non-Rigid Structure-from-Motion (NRSfM) are two approaches intensively studied for their practicability. The former uses a single image depicting the deforming object and a template (a textured 3D shape of this object in a reference pose). The latter does not use a template, but uses several images and recovers the 3D shape in each image. Both approaches rely on the motion of correspondences between the images and deformation priors, which restrict their use to well-textured surfaces which deform smoothly. This thesis advances the state-of-the-art in SfT and NRSfM in two main directions. The first direction is to study SfT for the case of 1D templates (i.e. curved, thin structures such as ropes and cables). The second direction is to develop algorithms in SfT and NRSfM that exploit multiple visual cues and can solve complex, real-world cases which were previously unsolved. We focus on isometric deformations and reconstruct the outer part of the object. The technical and scientific contributions of this thesis are divided into four parts. The first part of this thesis studies the case of a curvilinear template embedded in 2D or 3D space, referred to Curve SfT. We propose a thorough theoretical analysis and practical solutions for Curve SfT. Despite its apparent simplicity, Curve SfT appears to be a complex problem: it cannot be solved locally using exact non-holonomic partial differential equation and is only solvable up to a finite number of ambiguous solutions. A major technical contribution is a computational solution based on our theory, which generates all the ambiguous solutions.The second part of this thesis deals with a limitation of SfT methods: reconstructing creases. This is due to the sparsity of the motion constraint and regularization. We propose two contributions which rely on a non-convex energy minimization framework. First, we complement the motion constraint with a robust boundary contour constraint. Second, we implicitly model creases with a dense mesh-based surface representation and an associated robust smoothing constraint, which deactivates curvature smoothing automatically where needed, without knowing a priori the crease location. The third part of this thesis is dedicated to another limitation of SfT: reconstructing poorly-textured surfaces. This is due to correspondences which cannot be obtained so easily on poorly-textured surfaces (either sparse or dense). As shading reveals details on poorly-textured surfaces, we propose to combine shading and SfT. We have two contributions. The first is a cascaded initialization which estimates sequentially the surface's deformation, the scene illumination, the camera response and then the surface albedos from deformed monocular images. The second is to integrate shading to our previous energy minimization framework for simultaneously refining deformation and photometric parameters.The last part of this thesis relaxes the knowledge of the template and addresses two limitations of NRSfM: reconstructing poorly-textured surfaces with creases. Our major contribution is an extension of the second framework to recover jointly the 3D shapes of all input images and the surface albedos without any template.

Page generated in 0.1267 seconds