• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 84
  • 21
  • 7
  • Tagged with
  • 107
  • 107
  • 47
  • 43
  • 43
  • 43
  • 33
  • 29
  • 27
  • 25
  • 23
  • 22
  • 19
  • 18
  • 17
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Etude de la commande optimale en Optique Adaptative et Optique Adaptative Multi-Conjuguée, validation numérique et<br />expérimentale.

Petit, Cyril 18 December 2006 (has links) (PDF)
La turbulence atmosphérique limite sévèrement la formation d'images par les<br />télescopes astronomiques au sol. L'Optique Adaptative (OA) est une technique<br />de correction en temps réel des effets de la turbulence permettant d'améliorer<br />la résolution angulaire des télescopes. Aujourd'hui mûre, cette technique se<br />heurte toutefois à certaines limitations technologiques et fondamentales ayant<br />amené au développement de nouveaux concepts d'OA, à très haute dynamique ou à<br />grand champ (OA Multi-Conjuguée ou OAMC). Les lois de commande classiquement<br />utilisées dans les systèmes d'OA sont toutefois peu adaptées à ces nouveaux<br />concepts plus complexes. <br /><br />L'objectif de cette thèse est d'étudier une commande optimale au sens de la<br />variance minimale, à la fois sur le plan théorique et expérimental, dans un<br />contexte d'OA et d'OAMC. La loi de commande obtenue, de type Linéaire<br />Quadratique Gaussienne (LQG), est analysée et les contraintes d'implantation,<br />du point de vue algorithmique et modélisation, sont évaluées. Nous proposons<br />également de gérer des perturbations additionnelles généralement rencontrées<br />sur les systèmes (vibrations...). Enfin, nous présentons les premières<br />validations expérimentales d'une commande de ce type en OA et dans un cadre<br />d'OAMC simplifiée. Le gain en performance, par rapport à des lois de commande<br />classiques, est très important et corrobore les résultats de simulation<br />numérique. Nous évaluons enfin les performances de la commande LQG sur des<br />systèmes d'OAMC pour le VLT par le biais d'une simulation numérique réaliste.<br />L'ensemble des résultats obtenus confirment l'apport très significatif de<br />cette approche et sa souplesse pour gérer à la fois des géométries d'analyse<br />complexes et l'optimisation de la correction dans des champs d'intérêt<br />spécifiques.
72

Mise en forme programmable de faisceau laser femtoseconde pour le micro-usinage et la photoinscription de guides d'ondes

Sanner, Nicolas 02 December 2005 (has links) (PDF)
Ce travail de thèse porte sur la mise en forme spatiale de faisceau laser à impulsions ultra-brèves pour l'optimisation des interactions laser-matière.<br />La première partie de ce mémoire expose la conception et la réalisation d'un système d'optique adaptative permettant la mise en forme spatiale de faisceau au point focal d'une lentille. Ce dispositif original est basé sur un modulateur de front d'onde à cristaux liquides, utilisé comme lame de phase programmable de haute résolution. Une correction fine des aberrations du faisceau est démontrée, de manière à obtenir une surface d'onde quasi-plane en temps réel, et donc un point focal limité par diffraction. Puis, par modulation contrôlée de la phase spatiale, une mise en forme programmable de tache focale est réalisée, suivant une forme de faisceau arbitraire définie par l'utilisateur. Une variété de motifs de grande qualité ont été obtenus au point focal d'une lentille sur des dimensions réduites (70 µm) : top-hat, carré, anneau, triangle, rectangle.<br />Dans la seconde partie, ce dispositif est mis à profit pour l'interaction laser-matière femtoseconde, où le matériau est modifié essentiellement dans la zone irradiée : micro-usinage en surface (métaux) et micro-structuration en volume (diélectriques transparents).<br />La mise en forme de faisceau rend accessible l'usinage direct de formes complexes, tandis que la correction de front d'onde permet la photoinscription contrôlée de guides d'ondes via la modification locale d'indice de réfraction. Un gain appréciable de qualité, de précision et de contrôle est démontré, permettant à la fois l'optimisation et l'extension des procédés applicatifs des lasers en régime femtoseconde.
73

Etoile Laser Polychromatique pour l'Optique Adaptative : modélisation de bout-en-bout, concepts et étude des systèmes optiques

Meilard, Nicolas 18 July 2012 (has links) (PDF)
L'étoile laser polychromatique (ELP) fournit la référence de phase à une optique adaptative (OA)pour corriger les surfaces d'onde turbulentes, y compris leur pente. L'ELP, générée dans la mésosphère parune excitation résonnante à deux photons du sodium, repose sur la déviation chromatique des images. Uneimagerie dans le visible devient possible, et est indispensable pour 80% des programmes astrophysiquesprioritaires de l'E-ELT.L'ELP requiert un écart-type des mesures de position 26 fois inférieur au cas classique. Cela m'a amené àétudier le projecteur laser interférométrique. J'ai mis au point un correcteur de base polychromatique pourégaliser la période des franges et un correcteur de phase pour compenser la réfraction atmosphérique. J'aiétudié l'optique de mesure des franges, et de séparation entre l'ELP et l'objet observé.La précision requise m'a conduit à étudier dans quelles conditions l'algorithme du maximum devraisemblance tend vers la borne de Cramér-Rao.J'ai également développé un modèle numérique de bout en bout pour simuler l'ELP depuis les lasersjusqu'à la mesure du rapport de Strehl. Je montre que pour un VLT, les rapports de Strehl sont supérieurs à40% à 500 nm sans étoile de référence, en prenant une OA qui aurait donné 50% instantané (Strehl depente : 80%). Une approche analytique valide ces résultats.Enfin, j'aborde l'application de l'ELP aux télécommunications interplanétaires et à la destruction des débrisorbitaux.
74

Microscopie à illumination structurée et optique adaptative pour l'imagerie de fluorescence 3D dynamique

Vermeulen, Pierre 20 September 2012 (has links) (PDF)
Les récentes avancées en microscopie de fluorescence (augmentation de résolution spatiale, correction des aberrations induites par l'échantillon...) ouvrent de nombreuses perspectives en imagerie biologique. Mais pour que ces techniques se répandent, il est nécessaire de réduire les contraintes qu'elles imposent sur la préparation des échantillons, sur les sondes fluorescentes, sur la complexité de mise en oeuvre ou la cadence d'acquisition. Pendant ma thèse, j'ai travaillé sur le développement et l'amélioration de quelques-unes de ces techniques. Dans un premier temps, deux systèmes d'illumination structurée ont été réalisés dans le but d'accélérer la cadence de réalisation de coupes optiques pour l'observation d'échantillons épais vivants. Une deuxième partie de mon travail a concerné la mise en place d'une nouvelle approche de reconstruction en illumination structurée afin de dépasser la limite de résolution imposée par le microscope. Cet outil permet de réduire le nombre d'images requises pour la reconstruction d'une image super-résolue, ce qui ouvre la voie à une augmentation de la cadence de réalisation de ces images. Un montage d'optique adaptative a également été développé afin de corriger les aberrations introduites par les échantillons épais, permettant une amélioration des capacités d'imagerie en profondeur. L'accent a été mis sur la protection de l'échantillon, grâce à l'utilisation de billes fluorescentes pour déterminer la correction à appliquer sans illuminer l'échantillon. Enfin, un instrument de mesure du rendement quantique de fluorescence dédié à la caractérisation de fluorophores infrarouges a été mis en oeuvre afin de pallier les limitations des méthodes de mesure classiques dans le proche infrarouge.
75

Formation des planètes géantes autour des étoiles de faibles masses : contraintes observationnelles en imagerie (optique adaptative) / Understanding the formation of giant planets around low mass stars : direct observational constraints with adaptive optic imaging

Lannier, Justine 26 September 2016 (has links)
L'étude des exoplanètes, et en particulier celle des planètes géantes gazeuses, est une branche jeune et florissante de l'astrophysique moderne. Les grandes problématiques qui ont émergé des études sur cette population de planètes consistent à comprendre comment elles se sont formées, comment elles ont spatialement et temporellement évolué, et comment elles influencent d'éventuelles autres planètes au sein des systèmes stellaires. Afin d'apporter des réponses à ces questions, il a été nécessaire de développer des techniques d'observation et des outils d'analyse des données les plus performants possibles. C'est dans ce cadre que j'ai effectué mon travail de thèse, qui s'est articulé autour de trois projets.En premier lieu, je me suis intéressée à étudier le taux d'occurrence des planètes géantes gazeuses en orbite autour des naines M. Pour réaliser cette étude statistique, j'ai utilisé des données de deux relevés NaCo, le premier étant consacré aux naines M, et le second étant constitué d'étoiles AF et ayant été précédemment étudié par des membres de notre équipe. J'ai développé un code Monte Carlo, et me suis servie de la logique de la contraposition pour mener une étude comparative des résultats de ces deux relevés. J'ai également associé des gammes de rapports de masses entre la planète et son étoile à des mécanismes de formation privilégiés. J'en ai conclu que la formation des planètes géantes gazeuses formée par accrétion sur coeur était favorisée si ces planètes se situaient autour d'étoiles AF plutôt que des naines M, pour des séparations allant de 8 à 400 unités astronomiques. La fréquence des planètes géantes gazeuses reste toutefois faible quelque soit la masse de l'étoile considérée (typiquement <20%).Je me suis par la suite intéressée à développer un outil statistique capable de combiner des données de vitesses radiales et d'imagerie directe afin d'apporter des contraintes supplémentaires sur la population de planètes géantes situées à toutes les séparations, pour des systèmes particuliers. Le code que j'ai écrit repose sur une génération Monte Carlo de planètes synthétiques. Je l'ai appliqué sur les données de vitesses radiales et d'imagerie d'étoiles jeunes et proches : AUMic, ßPictoris, HD113337, et HD95086. Les futures applications pourront être nombreuses à la fois parce que les données de vitesses radiales sont de plus en plus abondantes, et parce que les instruments de haut contraste et haute résolution angulaire permettent de sonder des séparations toujours plus courtes.Grâce à ces deux premiers projets de ma thèse, j'ai pris en main les outils de réduction de données développés à l'IPAG, et j'ai développé des outils statistiques me permettant de commencer à mener mon dernier projet. Cet ultime projet consiste en l'observation, la réduction et l'analyse de données de vitesses radiales HARPS et d'imagerie SPHERE obtenues conjointement pour un set de naines K5-M5, proches et jeunes. L'analyse de l'ensemble des données va permettre d'apporter de fortes contraintes sur les populations de planètes géantes gazeuses en orbite autour des étoiles de faible masse, depuis les très courtes jusqu'aux plus longues séparations. / Studying exoplanets, and in particular gaseous giant planets, is a new field of modern astrophysics. Understanding how the giant planets form, dynamically evolve, evolve with time, and have an impact on potential other planets within a stellar system are part of the biggest challenges of this science. The development of the most efficient observational technics and optimal analysis tools have been necessary to bring answers to these problematics. This is the context in which I realized my PhD thesis. I present in this manuscript the three projects that I led during these last three years.First, I studied the occurrence rate of the giant planets that orbit around M dwarfs. To realize this statistical study, I used NaCo data from two surveys. The first survey was composed of M dwarfs, the second was made of AF stars that were already studied by members of our team. I developed a Monte Carlo code, and used the contrapositive logic to lead a comparative analysis of these two surveys. I also associated stellar to planet mass ratios to planetary formation scenarios. My conclusions are that giant planets can more easily be formed by core accretion around AF stars than around M dwarfs, for separations between 8 and 400 astronomical units. Wide-orbit giant planets are rare whatever the stellar mass (basically <20%).Then, I developed a statistical tool that combines radial velocity and direct imaging data of specific stars, to better constrain the giant planet population at all separations. The code that I wrote is based on a Monte Carlo generation of synthetic planet populations. I applied this code on radial velocity and direct imaging data from young and nearby stars: AUMic, ßPictoris, HD113337, and HD95086. The future applications will be numerous thanks to the increase of the time baseline of radial velocity data and thanks to new high contrast and high resolution instruments able to probe shorter regions.These first two projects have allowed me to understand how to reduce and analyse data, and to develop statistical tools useful for my last project. This last project consists of observing, reducing and analyzing radial velocity and direct imaging data of a sample of K5-M5 young and nearby dwarfs. This project will bring strong constraints on the gaseous giant planet population that orbits around low mass stars, from short to wider separations.
76

Détection et caractérisation d'exoplanètes dans des images à grand contraste par la résolution de problème inverse / Detection and characterization of exoplanets in high contrast images by the inverse problem approach

Cantalloube, Faustine 30 September 2016 (has links)
L’imagerie d’exoplanètes permet d’obtenir de nombreuses informations sur la lumière qu’elles émettent, l’interaction avec leur environnement et sur leur nature. Afin d’extraire l’information des images, il est indispensable d’appliquer des méthodes de traitement d’images adaptées aux instruments. En particulier, il faut séparer les signaux planétaires des tavelures présentes dans les images qui sont dues aux aberrations instrumentales quasi-statiques. Dans mon travail de thèse je me suis intéressée à deux méthodes innovantes de traitement d’images qui sont fondés sur la résolution de problèmes inverses.La première méthode, ANDROMEDA, est un algorithme dédié à la détection et à la caractérisation de point sources dans des images haut contraste via une approche maximum de vraisemblance. ANDROMEDA exploite la diversité temporelle apportée par la rotation de champ de l’image (où se trouvent les objets astrophysiques) alors que la pupille (où les aberrations prennent naissance) est gardée fixe. A partir de l’application sur données réelles de l’algorithme dans sa version originale, j’ai proposé et qualifié des améliorations afin de prendre en compte les résidus non modélisés par la méthode tels que les structures bas ordres variant lentement et le niveau résiduel de bruit correlé dans les données. Une fois l’algorithme ANDROMEDA opérationnel, j’ai analysé ses performances et sa sensibilité aux paramètres utilisateurs, montrant la robustesse de la méthode. Une comparaison détaillée avec les algorithmes les plus utilisés dans la communauté a prouvé que cet algorithme est compétitif avec des performances très intéressantes dans le contexte actuel. En particulier, il s’agit de la seule méthode qui permet une détection entièrement non-supervisée. De plus, l’application à de nombreuses données ciel venant d’instruments différents a prouvé la fiabilité de la méthode et l’efficacité à extraire rapidement et systématiquement (avec un seul paramètre utilisateur à ajuster) les informations contenues dans les images. Ces applications ont aussi permis d’ouvrir des perspectives pour adapter cet outil aux grands enjeux actuels de l’imagerie d’exoplanètes.La seconde méthode, MEDUSAE, consiste à estimer conjointement les aberrations et les objets d’intérêt scientifique, en s’appuyant sur un modèle de formation d’images coronographiques. MEDUSAE exploite la redondance d’informations apportée par des images multi-spectrales. Afin de raffiner la stratégie d’inversion de la méthode et d’identifier les paramètres les plus critiques, j’ai appliqué l’algorithme sur des données générées avec le modèle utilisé dans l’inversion. J’ai ensuite appliqué cette méthode à des données simulées plus réalistes afin d’étudier l’impact de la différence entre le modèle utilisé dans l’inversion et les données réelles. Enfin, j’ai appliqué la méthode à des données réelles et les résultats préliminaires que j’ai obtenus ont permis d’identifier les informations importantes dont la méthode a besoin et ainsi de proposer plusieurs pistes de travail qui permettraient de rendre cet algorithme opérationnel sur données réelles. / Direct imaging of exoplanets provides valuable information about the light they emit, their interactions with their host star environment and their nature. In order to image such objects, advanced data processing tools adapted to the instrument are needed. In particular, the presence of quasi-static speckles in the images, due to optical aberrations distorting the light from the observed star, prevents planetary signals from being distinguished. In this thesis, I present two innovative image processing methods, both based on an inverse problem approach, enabling the disentanglement of the quasi-static speckles from the planetary signals. My work consisted of improving these two algorithms in order to be able to process on-sky images.The first one, called ANDROMEDA, is an algorithm dedicated to point source detection and characterization via a maximum likelihood approach. ANDROMEDA makes use of the temporal diversity provided by the image field rotation during the observation, to recognize the deterministic signature of a rotating companion over the stellar halo. From application of the original version on real data, I have proposed and qualified improvements in order to deal with the non-stable large scale structures due to the adaptative optics residuals and with the remaining level of correlated noise in the data. Once ANDROMEDA became operational on real data, I analyzed its performance and its sensitivity to the user-parameters proving the robustness of the algorithm. I also conducted a detailed comparison to the other algorithms widely used by the exoplanet imaging community today showing that ANDROMEDA is a competitive method with practical advantages. In particular, it is the only method that allows a fully unsupervised detection. By the numerous tests performed on different data set, ANDROMEDA proved its reliability and efficiency to extract companions in a rapid and systematic way (with only one user parameter to be tuned). From these applications, I identified several perspectives whose implementation could significantly improve the performance of the pipeline.The second algorithm, called MEDUSAE, consists in jointly estimating the aberrations (responsible for the speckle field) and the circumstellar objects by relying on a coronagraphic image formation model. MEDUSAE exploits the spectral diversity provided by multispectral data. In order to In order to refine the inversion strategy and probe the most critical parameters, I applied MEDUSAE on a simulated data set generated with the model used in the inversion. To investigate further the impact of the discrepancy between the image model used and the real images, I applied the method on realistic simulated images. At last, I applied MEDUSAE on real data and from the preliminary results obtained, I identified the important input required by the method and proposed leads that could be followed to make this algorithm operational to process on-sky data.
77

Simulation fine d'optique adaptative à très grand champ pour des grands et futurs très grands télescopes

Chebbo, Manal 24 September 2012 (has links)
La simulation fine de systèmes d'OA à grand champ de type MOAO ou LTAO pour l'ELT se heurte à deux problématiques: l'augmentation du nombre de degrés de liberté du système. Cette augmentation rend les codes de simulation classiques peu utilisables, en particulier en ce qui concerne les processus d'inversion et de calcul matriciel. La complexité des systèmes, combinant EGL et EGN, grands miroirs déformables couvrant tout le champs et des miroirs dédiés dans les instruments eux mêmes, des rotations différentielles de pupille et ou de champs. Cette complexité conduit aux développements de procédures nouvelles d'étalonnage, de filtrage et fusion de données, de commande distribuée ou globale. Ces procédures doivent être simulées finement, comparées et quantifiées en termes de performances, avant d'être implantées dans de futurs systèmes. Pour répondre à ces deux besoins, le LAM développe en collaboration avec l'ONERA un code de simulation complet, basé sur une approche de résolution itérative de systèmes linéaires à grand nombre de paramètres (matrices creuses). Sur cette base, il incorpore de nouveaux concepts de filtrage et de fusion de données pour gérer efficacement les modes de tip/tilt/defocus dans le processus complet de reconstruction tomographique. Il permettra aussi, de développer et tester des lois de commandes complexes ayant à gérer un la combinaison du télescope adaptatif et d'instrument post-focaux comportant eux aussi des miroirs déformables dédiés.La première application de cet outil se fait naturellement dans le cadre du projet EAGLE, un des instruments phares du futur E-ELT, qui, du point de vue de l'OA combinera l'ensemble de ces problématiques. / Refined simulation tools for wide field AO systems on ELTs present new challenges. Increasing the number of degrees of freedom makes the standard simulation's codes useless due to the huge number of operations to be performed at each step of the AO loop process. The classical matrix inversion and the VMM have to be replaced by a cleverer iterative resolution of the Least Square or Minimum Mean Square Error criterion. For this new generation of AO systems, concepts themselves will become more complex: data fusion coming from multiple LGS and NGS will have to be optimized, mirrors covering all the field of view associated to dedicated mirrors inside the scientific instrument itself will have to be coupled using split or integrated tomography schemes, differential pupil or/and field rotations will have to be considered.All these new entries should be carefully simulated, analysed and quantified in terms of performance before any implementation in AO systems. For those reasons i developed, in collaboration with the ONERA, a full simulation code, based on iterative solution of linear systems with many parameters (sparse matrices). On this basis, I introduced new concepts of filtering and data fusion to effectively manage modes such as tip, tilt and defoc in the entire process of tomographic reconstruction. The code will also eventually help to develop and test complex control laws who have to manage a combination of adaptive telescope and post-focal instrument including dedicated DM.
78

Mesure de front d'onde post-coronographique à haute précision pour l'imagerie à haut contraste : appplication sol et espace / Post-coronographique wave-front sensing for high contrast imaging : ground and space based applications.

Paul, Baptiste 29 September 2014 (has links)
L'observation directe des exoplanètes est rendue difficile par l'énorme contraste entre la planète et l'étoile autour de laquelle elle gravite, ainsi que la faible séparation angulaire entre ces deux corps. Un tel niveau de contraste aussi proche de l'étoile être atteint en couplant l'imagerie à haute résolution angulaire et la coronographie, qui atténue le flux en provenance de l'étoile ; les performances ultimes d'un instrument d'imagerie à haut contraste sont alors limitées par ses aberrations quasi-statique. Au cours de cette thèse a été conçu un ASO plan focal dédié à la calibration des aberrations quasi-statiques dans les systèmes d'imagerie à haut contraste. Cet ASO, baptisé COFFEE, permet d'estimer les aberrations en amont et en aval du coronographe à partir d'images coronographiques acquises en plan focal différant d'une phase de diversité connue introduite en amont du coronographe. Au cours de cette thèse, COFFEE a été conçu et validé par simulations numérique et démontré expérimentalement sur banc. L'identification de plusieurs facteurs limitant la précision de l'estimation des aberrations a ensuite induit une modification du formalisme sur lequel repose COFFEE pour l'adapter à l'estimation d'aberrations de hautes fréquences spatiales avec une précision nanométrique. Cette version hauts ordres de COFFEE a été utilisée avec succès sur l'instrument SPHERE, où la compensation des aberrations estimées par COFFEE a permis d'optimiser le contraste. Enfin, une nouvelle méthode de compensation a été développée pour permettre d'atteindre de très hauts niveaux de contraste sur le détecteur scientifique. / Performing an exoplanet direct detection means being able to image an object as faint as an extra-solar planet very close to its parent star. After compensation of the turbulence by the XAO loop and most of the star light removed by a coronagraph, the ultimate limitation of high contrast imaging systems lies in its quasi-static aberrations that creates a residual signal which limit the achievable contrast on the scientific detector. To increase the achievable contrast on the detector, these aberrations must be compensated for, ideally using focal plane data recorded from the scientific detector to avoid differential aberrations. The aim of this thesis was to develop a focal-plane wavefront sensor (WFS) dedicated to the estimation of quasi-static aberrations in high contrast imaging systems. This WFS, called COFFEE, estimates the aberrations both upstream and downstream of the coronagraph using coronagraphic focal plane images that differ from a known diversity aberrations introduced upstream of the coronagraph. During this research work, COFFEE has been developed, tested using numerical simulations and demonstrated on an in-house bench. Considering the limitations of the estimation accuracy, COFFEE's formalism has then been modified to allow it to estimate high frequencies aberrations with nanometric precision. This extended version of COFFEE has been successfully used on SPHERE to optimize the contrast on the scientific detector of the instrument using COFFEE in a dedicated compensation process. Lastly, a new compensation method has been developed in order to reach very high contrast levels on the scientific detector.
79

Caractérisation de la population de planètes géantes à grandes séparations. Imagerie différentielle avec NaCo et SPHERE au VLT / Characterization of the population of wide-orbit giant planets. Differential imaging with NaCo and SPHERE at the VLT

Rameau, Julien 02 October 2014 (has links)
La formation, l’évolution et la structure des planètes géantes font parties des grandesproblématiques de l’astrophysique moderne. Les planète géantes ont un rôle majeur carelles possèdent la plupart de la masse des systèmes planétaires et donc influencent leursévolutions dynamiques. Mon travail de thèse s’inscrit dans une démarche observationnellequi est essentielle pour apporter des contraintes sur la diversité des systèmes exoplanétaires.Mes premiers résultats de thèse sont issus d’une campagne d’observations sur trois ansréalisées avec l’instrument NaCo au VLT. Mes observations de HD142527 excluent laprésence d’une planète géante dans le disque et favoriseraient plutôt un système multiplede faible masse pour expliquer les structures de ce disque de transition. J’ai égalementdétecté une planète géante autour de HD95086. Cette planète possède des propriétés atmosphériquesparticulières. Sa présence fait de HD95086 un rare exemple de systèmesimagés possédant un disque de débris et une planète géante. Enfin, j’ai réalisé une étudestatistique sur l’ensemble du relevé et montré que les planètes géantes sur des orbiteséloignées sont rares (10 − 20 %) et ne peuvent pas s’être formées majoritairement pareffondrement direct du gaz dans un disque instable.La dernière partie de mon travail de thèse a été consacrée à l’étude du mode d’imageriedifférentielle simultanée spectrale. J’ai identifié les biais particuliers liés à la réductionde ce type de données et ai montré que leurs analyses nécessitent l’utilisation de modèlesd’évolution. Cette étude permettra d’exploiter les données de l’instrument IRDISde SPHERE installé au VLT. / How giant exoplanet form, evolve and are made of is one of the biggest challenge of modernastronomy. They play an important role as they carry most of the planetary systemmasses. Therefore, they strongly impact their dynamics and the fate of these systems tohost life. My PhD thesis falls within an observational approach that is mandatory to bringconstraints on the diversity of planetary systems.I got my first results from a three-year survey, with NaCo at VLT. My observations ofHD142527 excluded the presence of massive giants planets to explain the structures of thistransitional disk and might favor a light multiple system. I also detected a giant planetaround HD95086 and I showed that it has particular atmospheric properties. Finally, Icarried out a statistical analysis of the whole survey to show that giant planets on wideorbitsare rare (10 − 20 %) and could not be formed via direct collapse of unstable disks.I dedicated the last part of my work to investigate the spectral simultaneous differentialimaging mode. I pointed out the biases associated to the reduction of these data andshowed that evolutionary models have to be used to analyze them. This study might helpto exploit the full potential of SPHERE/IRDIS data.
80

Optimisation des analyseurs de front d'onde à filtrage optique de Fourier / Optimization of Fourier based wavefont sensors

Fauvarque, Olivier 11 September 2017 (has links)
L'Europe prépare actuellement le plus grand télescope du monde : l'European Extremely Large Telescope (E-ELT). Prévu vers 2026, ce télescope géant permettra de répondre à des questions fondamentales de l'astrophysique contemporaine. L'imagerie d'objets astrophysiques depuis des télescopes au sol est cependant perturbée par l'atmosphère qui réduit la capacité des instruments au sol à distinguer les objets proches. L'Optique Adaptative (OA) permet de restaurer cette résolution angulaire en corrigeant en temps réel (via un miroir déformable) le front d'onde perturbé par l'atmosphère (mesuré par l'Analyseur de Surface d'Onde (ASO)). Jusqu'à récemment, la majorité des systèmes d'OA utilisaient des ASO Shack-Hartmann (SH). Des concepts concurrents basés sur le filtrage optique de Fourier (le senseur Pyramide ou l'analyseur Zernike) viennent cependant d'être mis en fonctionnement et leurs résultats semblent surpasser les performances du SH. En vue de leur potentielle utilisation sur les ELTs, cette thèse vise à consolider leur compréhension théorique ainsi qu'à optimiser ces ASO basés sur le filtrage de Fourier. Cette thèse développe un cadre mathématique qui décrit sous un unique formalisme ces ASO. Il permet de généraliser les designs préexistants -passant ainsi d'ASO uniques à des "classes d'ASO"- en transformant leurs grandeurs caractéristiques à l'origine fixées en degrés de liberté. Les classes Pyramide et Zernike sont donc explorées dans le but d'optimiser ces ASO au regard des attentes expérimentales. Des configurations inédites de la classe Pyramide -ASO que l'on appelle Pyramides aplaties- s'avèrent notamment prometteuses et font l'objet d'une étude plus poussée. / Europe is currently preparing the largest telescope of the world: the European Extremely Large Telescope (E-ELT). Planned by 2026, this huge telescope will allow to answer fundamental questions of contemporary astrophysics. However, images of astrophysical objects done by ground based telescopes suffer from the atmospheric turbulence which reduces the capacity of instruments to distinguish objects too close to each other. The Adaptive Optics (AO) allows to restore this loss of angular resolution by correcting (thanks to a deformable mirror) in real time the perturbed wave front (measured by the WaveFront Sensor (WFS)).Until very recently, the majority of AO systems had used the Shack-Hartmann (SH) WFS. New concepts based on Fourier filtering (the Pyramid or the Zernike WFSs) have however just been put in operation in several professional observatories and their results seem to outperform the SH. Since they would potentially be chosen for the AO systems of the future ELTs, this thesis aims to consolidate their theoretical understanding and to optimize these Fourier based WFSs.We firstly develop a mathematical framework which describes all these WFSs under an unique formalism. It allows to generalize the pre-existent designs -a WFS thus becomes a "WFS class"- by considering their optical parameters as flexible quantities. We then explored the two Pyramid and Zernike classes to identify the influence of class' parameters on performance criteria in order to optimize optical designs with regard to the instrumental requirements. New configurations of the Pyramid class -that we called Flattened pyramids- show promising behaviors and are studied in details.

Page generated in 0.0607 seconds