• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2
  • Tagged with
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Reconstruction parcimonieuse de la carte de masse de matière noire par effet de lentille gravitationnelle / Sparse reconstruction of the dark matter mass map from weak gravitational lensing

Lanusse, Francois 20 November 2015 (has links)
L'effet de lentille gravitationnelle, qui se traduit par une deformation des images nous parvenant de galaxies lointaines, constitue l'une des techniques les plus prometteuse pour répondre aux nombreuses questions portant sur la nature de l'énergie sombre et de la matière noire. Cet effet de lentille étant sensible à la masse totale, il permet de sonder directement la distribution de matière noire, qui resterait autrement invisible. En mesurant la forme d'un grand nombre de galaxies lointaines, il est possible d'estimer statistiquement les déformations causées par l'effet de lentille gravitationnelles puis d'en inférer la distribution de masse à l'origine de ces deformations. La reconstruction de ces cartes de masses constitue un problème inverse qui se trouve être mal posé dans un certain nombre de situations d'interêt, en particulier lors de la reconstruction de la carte de masse aux petites échelles ou en trois dimensions. Dans ces situations, il devient impossible de reconstruire une carte sans l'ajout d'information a priori.Une classe particulière de méthodes, basées sur un a priori de parcimonie, s'est révélé remarquablement efficace pour résoudre des problèmes inverses similaires pour un large champ d'applications tels que la géophysique et l'imagerie médicale. Le but principal de cette these est donc d'adapter ces techniques de régularisation parcimonieuses au problème de la cartographie de la matière noire afin de developper une nouvelle generation de méthodes. Nous développons en particulier de nouveaux algorithmes permettant la reconstruction de carte masses bi-dimensionnelles de haute resolution ainsi que de cartes de masses tri-dimensionnelles. Nous appliquons de plus les mêmes méthodes de régularisation parcimonieuse au problème de la reconstruction du spectre de puissance des fluctuations primordiales de densités à partir de mesures du fond diffus cosmologique, ce qui constitue un problème inverse particulièrement difficile a résoudre. Nous développons un nouvel algorithme pour résoudre ce problème, que nous appliquons aux données du satellite Planck.Enfin, nous investiguons de nouvelles méthodes pour l'analyse de relevés cosmologiques exprimés en coordonnées sphériques. Nous développons une nouvelle transformée en ondelettes pour champs scalaires exprimés sur la boulle 3D et nous comparons différentes méthodes pour l'analyse cosmologique de relevés de galaxies spectroscopiques. / Gravitational lensing, that is the distortion of the images of distant galaxies by intervening massive objects, has been identified as one of the most promising probes to help answer questions relative to the nature of dark matter and dark energy. As the lensing effect is caused by the total matter content, it can directly probe the distribution of the otherwise invisible dark matter. By measuring the shapes of distant galaxies and statistically estimating the deformations caused by gravitational lensing, it is possible to reconstruct the distribution of the intervening mass. This mass-mapping process can be seen as an instance of a linear inverse problem, which can be ill-posed in many situations of interest, especially when mapping the dark matter on small angular scales or in three dimensions. As a result, recovering a meaningful mass-map in these situations is not possible without prior information. In recent years, a class of methods based on a so-called sparse prior has proven remarkably successful at solving similar linear inverse problems in a wide range of fields such as medical imaging or geophysics. The primary goal of this thesis is to apply these sparse regularisation techniques to the gravitational lensing problem in order to build next-generation dark matter mass-mapping tools. We propose in particular new algorithms for the reconstruction of high-resolution 2D mass-maps and 3D mass-maps and demonstrate in both cases the effectiveness of the sparse prior. We also apply the same sparse methodologies to the reconstruction the primordial density fluctuation power spectrum from measurements of the Cosmic Microwave Background which constitutes another notoriously difficult inverse problem. We apply the resulting algorithm to reconstruct the primordial power spectrum using data from the Planck satellite. Finally, we investigate new methodologies for the analysis of cosmological surveys in spherical coordinates. We develop a new wavelet transform for the analysis of scalar fields on the 3D ball. We also conduct a comparison of methods for the 3D analysis of spectroscopic galaxy survey.
2

Analyse de données fonctionnelles en télédétection hyperspectrale : application à l'étude des paysages agri-forestiers / Functional data analysis in hyperspectral remote sensing : application to the study of agri-forest landscape

Zullo, Anthony 19 September 2016 (has links)
En imagerie hyperspectrale, chaque pixel est associé à un spectre provenant de la réflectance observée en d points de mesure (i.e., longueurs d'onde). On se retrouve souvent dans une situation où la taille d'échantillon n est relativement faible devant le nombre d de variables. Ce phénomène appelé "fléau de la dimension" est bien connu en statistique multivariée. Plus d augmente devant n, plus les performances des méthodologies statistiques standard se dégradent. Les spectres de réflectance intègrent dans leur dimension spectrale un continuum qui leur confère une nature fonctionnelle. Un hyperspectre peut être modélisé par une fonction univariée de la longueur d'onde, sa représentation produisant une courbe. L'utilisation de méthodes fonctionnelles sur de telles données permet de prendre en compte des aspects fonctionnels tels que la continuité, l'ordre des bandes spectrales, et de s'affranchir des fortes corrélations liées à la finesse de la grille de discrétisation. L'objectif principal de cette thèse est d'évaluer la pertinence de l'approche fonctionnelle dans le domaine de la télédétection hyperspectrale lors de l'analyse statistique. Nous nous sommes focalisés sur le modèle non-paramétrique de régression fonctionnelle, couvrant la classification supervisée. Dans un premier temps, l'approche fonctionnelle a été comparée avec des méthodes multivariées usuellement employées en télédétection. L'approche fonctionnelle surpasse les méthodes multivariées dans des situations délicates où l'on dispose d'une petite taille d'échantillon d'apprentissage combinée à des classes relativement homogènes (c'est-à-dire difficiles à discriminer). Dans un second temps, une alternative à l'approche fonctionnelle pour s'affranchir du fléau de la dimension a été développée à l'aide d'un modèle parcimonieux. Ce dernier permet, à travers la sélection d'un petit nombre de points de mesure, de réduire la dimensionnalité du problème tout en augmentant l'interprétabilité des résultats. Dans un troisième temps, nous nous sommes intéressés à la situation pratique quasi-systématique où l'on dispose de données fonctionnelles contaminées. Nous avons démontré que pour une taille d'échantillon fixée, plus la discrétisation est fine, meilleure sera la prédiction. Autrement dit, plus d est grand devant n, plus la méthode statistique fonctionnelle développée est performante. / In hyperspectral imaging, each pixel is associated with a spectrum derived from observed reflectance in d measurement points (i.e., wavelengths). We are often facing a situation where the sample size n is relatively low compared to the number d of variables. This phenomenon called "curse of dimensionality" is well known in multivariate statistics. The mored increases with respect to n, the more standard statistical methodologies performances are degraded. Reflectance spectra incorporate in their spectral dimension a continuum that gives them a functional nature. A hyperspectrum can be modelised by an univariate function of wavelength and his representation produces a curve. The use of functional methods allows to take into account functional aspects such as continuity, spectral bands order, and to overcome strong correlations coming from the discretization grid fineness. The main aim of this thesis is to assess the relevance of the functional approach in the field of hyperspectral remote sensing for statistical analysis. We focused on the nonparametric fonctional regression model, including supervised classification. Firstly, the functional approach has been compared with multivariate methods usually involved in remote sensing. The functional approach outperforms multivariate methods in critical situations where one has a small training sample size combined with relatively homogeneous classes (that is to say, hard to discriminate). Secondly, an alternative to the functional approach to overcome the curse of dimensionality has been proposed using parsimonious models. This latter allows, through the selection of few measurement points, to reduce problem dimensionality while increasing results interpretability. Finally, we were interested in the almost systematic situation where one has contaminated functional data. We proved that for a fixed sample size, the finer the discretization, the better the prediction. In other words, the larger dis compared to n, the more effective the functional statistical methodis.

Page generated in 0.0525 seconds