Spelling suggestions: "subject:"enfonction d'expérimentalement dde point"" "subject:"enfonction d'expérimentalement dee point""
1 |
Budget d’erreur en optique adaptative : Simulation numérique haute performance et modélisation dans la perspective des ELT / Adaptive optics error breakdown : high performance numerical simulation and modeling for future ELTMoura Ferreira, Florian 11 October 2018 (has links)
D'ici quelques années, une nouvelle classe de télescopes verra le jour : celle des télescopes géants. Ceux-ci se caractériseront par un diamètre supérieur à 20m, et jusqu'à 39m pour le représentant européen, l'Extremely Large Telescope (ELT). Seulement, l'atmosphère terrestre vient dégrader sévèrement les images obtenues lors d'observations au sol : la résolution de ces télescopes est alors réduite à celle d'un télescope amateur de quelques dizaines de centimètres de diamètre.L'optique adaptative (OA) devient alors essentielle. Cette dernière permet de corriger en temps-réel les perturbations induites par l'atmosphère et de retrouver la résolution théorique du télescope. Néanmoins, les systèmes d'OA ne sont pas exempt de tout défaut, et une erreur résiduelle persiste sur le front d'onde (FO) et impacte la qualité des images obtenues. Cette dernière est dépendante de la Fonction d'Étalement de Point (FEP) de l'instrument utilisé, et la FEP d'un système d'OA dépend elle-même de l'erreur résiduelle de FO. L'identification et la compréhension des sources d'erreurs est alors primordiale. Dans la perspective de ces télescopes géants, le dimensionnement des systèmes d'OA nécessaires devient tel que ces derniers représentent un challenge technologique et technique. L'un des aspects à considérer est la complexité numérique de ces systèmes. Dès lors, les techniques de calcul de haute performance deviennent nécessaires, comme la parallélisation massive. Le General Purpose Graphical Processing Unit (GPGPU) permet d'utiliser un processeur graphique à cette fin, celui-ci possédant plusieurs milliers de coeurs de calcul utilisables, contre quelques dizaines pour un processeur classique.Dans ce contexte, cette thèse s'articule autour de trois parties. La première présente le développement de COMPASS, un outil de simulation haute performance bout-en-bout dédié à l'OA, notamment à l'échelle des ELT. Tirant pleinement parti des capacités de calcul des GPU, COMPASS permet alors de simuler une OA ELT en quelques minutes. La seconde partie fait état du développement de ROKET : un estimateur complet du budget d'erreur d'un système d'OA intégré à COMPASS, permettant ainsi d'étudier statistiquement les différentes sources d'erreurs et leurs éventuels liens. Enfin, des modèles analytiques des différentes sources d'erreur sont dérivés et permettent de proposer un algorithme d'estimation de la FEP. Les possibilités d'applications sur le ciel de cet algorithme sont également discutées. / In a few years, a new class of giants telescopes will appear. The diameter of those telescope will be larger than 20m, up to 39m for the european Extremely Large Telescope (ELT). However, images obtained from ground-based observations are severely impacted by the atmosphere. Then, the resolution of those giants telescopes is equivalent to the one obtained with an amateur telescope of a few tens of centimeters of diameter.Therefore, adaptive optics (AO) becomes essential as it aims to correct in real-time the disturbance due to the atmospherical turbulence and to retrieve the theoretical resolution of the telescope. Nevertheless, AO systems are not perfect: a wavefront residual error remains and still impacts the image quality. The latter is measured by the point spread function (PSF) of the system, and this PSF depends on the wavefront residual error. Hence, identifying and understanding the various contributors of the AO residual error is primordial.For those extremely large telescopes, the dimensioning of their AO systems is challenging. In particular, the numerical complexity impacts the numerical simulation tools useful for the AO design. High performance computing techniques are needed, as such relying on massive parallelization.General Purpose Graphical Processing Unit (GPGPU) enables the use of GPU for this purpose. This architecture is suitable for massive parallelization as it leverages GPU's several thousand of cores, instead of a few tens for classical CPU.In this context, this PhD thesis is composed of three parts. In the first one, it presents the development of COMPASS : a GPU-based high performance end-to-end simulation tool for AO systems that is suitable for ELT scale. The performance of the latter allows simulating AO systems for the ELT in a few minutes. In a second part, an error breakdown estimation tool, ROKET, is added to the end-to-end simulation in order to study the various contributors of the AO residual error. Finally, an analytical model is proposed for those error contributors, leading to a new way to estimate the PSF. Possible on-sky applications are also discussed.
|
2 |
L'imageur Interférométrique de Fresnel: un instrument spatial pour l'observation à haute résolution angulaireSerre, Denis 04 October 2007 (has links) (PDF)
L'Imageur Interférométrique de Fresnel est un concept de télescope spatial dont l'objectif est d'améliorer significativement les capacités d'imagerie à haute résolution angulaire et haute dynamique, et ce dans les domaines spectraux ultraviolet, visible et infrarouge.<br /><br />Dans un télescope classique, la focalisation s'obtient par l'utilisation d'un miroir; dans le cas de l'Imageur Interférométrique de Fresnel, elle s'obtient par l'utilisation d'un masque diffractant comportant des dizaines ou des centaines de milliers d'ouvertures individuelles, réparties sur un support plan selon une loi se rapprochant de la disposition des anneaux d'une lentille zonée de Soret. Les contraintes de masse et de précision de fabrication de l'optique focalisatrice sont ainsi considérablement relâchées, ouvrant une voie pour concevoir un observatoire possédant une pupille d'entrée de très grande dimension. En revanche, de par la nature dispersive de cette optique, un module focal placé à grande distance est nécessaire pour achromatiser et mettre en forme l'image.<br /><br />La première partie de cette thèse est consacrée à la détermination des caractéristiques des éléments constitutifs de ce type d'imageur, et à l'étude des performances et limitations associées. La deuxième partie est elle dévolue à la description et à la présentation des performances d'un prototype sol montrant expérimentalement la validité du concept. Enfin, la troisième partie étudie les objectifs astrophysiques possibles d'un Imageur de Fresnel opérationnel.
|
3 |
Contribution to fluorescence microscopy, 3D thick samples deconvolution and depth-variant PSF / Contribution à la microscopie de fluorescence, Deconvolution des échantillons épais avec PSF variables en profondeurMaalouf, Elie 20 December 2010 (has links)
La reconstruction 3D par coupes sériées en microscopie optique est un moyen efficace pour étudier des spécimens biologiques fluorescents. Dans un tel système, la formation d'une image peut être représentée comme une convolution linéaire d'un objet avec une réponse impulsionnelle optique de l'instrument (PSF). Pour une étude quantitative, une estimation de l'objet doit être calculée en utilisant la déconvolution qui est le phénomène inverse de la convolution. Plusieurs algorithmes de déconvolution ont été développés en se basant sur des modèles statistiques ou par inversion directe, mais ces algorithmes se basent sur la supposition de l'invariance spatiale de la PSF pour simplifier et accélérer le processus. Dans certaines configurations optiques la PSF 3D change significativement en profondeur et ignorer ces changements implique des erreurs quantitatives dans l'estimation. Nous proposons un algorithme (EMMA) qui se base sur une hypothèse où l'erreur minimale sur l'estimation par un algorithme ne tenant pas compte de la non-invariance, se situe aux alentours de la position (profondeur) de la PSF utilisée. EMMA utilise des PSF à différentes positions et fusionne les différentes estimations en utilisant des masques d'interpolation linéaires adaptatifs aux positions des PSF utilisées. Pour obtenir des PSF à différentes profondeurs, un algorithme d'interpolation de PSF a également été développé. La méthode consiste à décomposer les PSF mesurées en utilisant les moments de Zernike pseudo-3D, puis les variations de chaque moment sont approximés par une fonction polynomiale. Ces fonctions polynomiales sont utilisées pour interpoler des PSF aux profondeurs voulues. / The 3-D fluorescence microscope has become the method of choice in biological sciences for living cells study. However, the data acquired with conventional3-D fluorescence microscopy are not quantitatively significant because of distortions induced by the optical acquisition process. Reliable measurements need the correction of theses distortions. Knowing the instrument impulse response, also known as the PSF, one can consider the backward process of convolution induced by the microscope, known as "deconvolution". However, when the system response is not invariant in the observation field, the classical algorithms can introduce large errors in the results. In this thesis we propose a new approach, which can be easily adapted to any classical deconvolution algorithm, direct or iterative, for bypassing the non-invariance PSF problem, without any modification to the later. Based on the hypothesis that the minimal error in a restored image using non-invariance assumption is located near the used PSF position, the EMMA (Evolutive Merging Masks Algorithm) blends multiple deconvolutions in the invariance assumption using a specific merging mask set. In order to obtain sufficient number of measured PSF at various depths for a better restoration using EMMA (or any other depth-variant deconvolution algorithm) we propose a 3D PSF interpolation algorithm based on the image moments theory using Zernike polynomials as decomposition base. The known PSF are decomposed into Zernike moments set and each moment's variation is fitted into a polynomial function, the resulting functions are then used to interpolate the needed PSF's Zernike moments set to reconstruct the interpolated PSF.
|
4 |
Étude théorique et expérimentale du suivi de particules uniques en conditions extrêmes : imagerie aux photons uniquesCajgfinger, Thomas 19 October 2012 (has links) (PDF)
Ce manuscrit présente mon travail de thèse portant sur le détecteur de photons uniques electron-bombarded CMOS (ebCMOS) à haute cadence de lecture (500 images/seconde). La première partie compare trois détecteurs ultra-sensibles et et leurs méthodes d'amélioration de la sensibilité au photon : le CMOS bas bruit (sCMOS), l'electron-multiplying CCD (emCCD) à multiplication du signal par pixel et l'ebCMOS à amplification par application d'un champ électrique. La méthode de mesure de l'impact intra-pixel des photons sur le détecteur ebCMOS est présentée. La seconde partie compare la précision de localisation de ces trois détecteurs dans des conditions extrêmes de très bas flux de photons (<10 photons/image). La limite théorique est tout d'abord calculée à l'aide de la limite inférieure de Cramér-Rao pour des jeux de paramètres significatifs. Une comparaison expérimentale des trois détecteurs est ensuite décrite. Le montage permet la création d'un ou plusieurs points sources contrôlés en position, nombre de photons et bruit de fond. Les résultats obtenus permettent une comparaison de l'efficacité, de la pureté et de la précision de localisation des sources. La dernière partie décrit deux expériences réalisées avec la caméra ebCMOS. La première consiste au suivi de nano-cristaux libres (D>10 μm²/s ) au centre Nanoptec avec l'équipe de Christophe Dujardin. La seconde s'intéresse à la nage de bactéries en surface à l'institut Joliot Curie avec l'équipe de Laurence Lemelle. L'algorithme de suivi de sources ponctuelles au photon unique avec l'implémentation d'un filtre de Kalman est aussi décrit.
|
5 |
Étalonnage spectro-photométrique du SuperNova Integral Field Spectrograph dans le cadre du projet the Nearby Supernova FactoryButon, Clément 08 December 2009 (has links) (PDF)
Il y a près d'une décennie, l'utilisation des supernovae de type Ia comme indicateurs de distances a permis de découvrir l'expansion accélérée de l'univers. Les expériences de seconde génération ont augmenté de manière significative la taille et la qualité des échantillons à grand décalage vers le rouge. Cependant, l'échantillon de référence des supernovae à faible décalage vers le rouge, nécessaire à la cosmologie restait très restreint. The Nearby Supernova Factory a mesuré, à l'aide d'un instrument spectro-photométrique dédié (the Supernova Integral Field Sepctrograph), près de 200 nouvelles supernovae de type Ia. Ma thèse de doctorat a été effectuée à l'Institut de Physique Nucléaire de Lyon et au Lawrence Berkeley National Laboratory dans le cadre du projet international the Nearby Supernova Factory et a pour but l'étalonnage spectro-photométrique du spectrographe à champ intégral. Afin d'atteindre la précision souhaitée, une attention particulière a été apportée à plusieurs aspects majeurs de la procédure d'étalonnage, incluant: la détermination de la réponse impulsionnelle de l'instrument en vue de l'extraction 3D de sources ponctuelles, l'estimation de la qualité photométrique d'une nuit, l'obtention de l'extinction atmosphérique par nuit sur un domaine de longueur d'onde étendu, sa modélisation en terme de composantes physiques et sa variabilité au cours d'une nuit donnée. Une chaîne d'étalonnage multi-standard a été mis en \oe{}uvre utilisant approximativement 4000 observations spectro-photométriques d'étoiles standards. J'exposerai également à la fin de ce manuscrit les résultats scientifiques préliminaires de la collaboration SNfactory.
|
6 |
Méthodes et algorithmes avancés pour l'imagerie astronomique de haute précision / Advanced methods and algorithm for high precision astronomical imagingNgolè Mboula, Fred Maurice 18 October 2016 (has links)
L'un des challenges majeurs de la cosmologie moderne réside en la nature même de la matière et de l'énergie noire. La matière noire peut être directement tracée à travers son effet gravitationnel sur les formes des galaxies. La mission Euclid de l'Agence Spatiale Européenne fournira précisément des données à cette fin. L'exploitation de telles données requiert une modélisation précise de la Fonction d'Étalement du Point (FEP) de l'instrument d'observation, ce qui constitue l'objectif de cette thèse.Nous avons développé des méthodes non-paramétriques permettant d'estimer de manière fiable la FEP sur l'ensemble du champ de vue d'un instrument, à partir d'images non résolues d'étoiles, ceci en tenant compte du bruit, d'un possible sous-échantillonnage des observations et de la variabilité spatiale de la FEP. Ce travail tire avantage d'outils et concepts mathématiques modernes parmi lesquelles la parcimonie. Une extension importante de ce travail serait de prendre en compte la dépendance en longueur d'onde de la FEP. / One of the biggest challenges of modern cosmology is to gain a more precise knowledge of the dark energy and the dark matter nature. Fortunately, the dark matter can be traced directly through its gravitational effect on galaxies shapes. The European Spatial Agency Euclid mission will precisely provide data for such a purpose. A critical step is analyzing these data will be to accurately model the instrument Point Spread Function (PSF), which the focus of this thesis.We developed non parametric methods to reliably estimate the PSFs across an instrument field-of-view, based on unresolved stars images and accounting for noise, undersampling and PSFs spatial variability. At the core of these contributions, modern mathematical tools and concepts such as sparsity. An important extension of this work will be to account for the PSFs wavelength dependency.
|
Page generated in 0.1473 seconds