• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 22
  • 13
  • 3
  • Tagged with
  • 38
  • 38
  • 28
  • 23
  • 22
  • 20
  • 18
  • 15
  • 12
  • 11
  • 9
  • 8
  • 8
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Dictionary learning methods for single-channel source separation / Méthodes d'apprentissage de dictionnaire pour la séparation de sources audio avec un seul capteur

Lefèvre, Augustin 03 October 2012 (has links)
Nous proposons dans cette thèse trois contributions principales aux méthodes d'apprentissage de dictionnaire. La première est un critère de parcimonie par groupes adapté à la NMF lorsque la mesure de distorsion choisie est la divergence d'Itakura-Saito. Dans la plupart des signaux de musique on peut trouver de longs intervalles où seulement une source est active (des soli). Le critère de parcimonie par groupe que nous proposons permet de trouver automatiquement de tels segments et d'apprendre un dictionnaire adapté à chaque source. Ces dictionnaires permettent ensuite d'effectuer la tâche de séparation dans les intervalles où les sources sont mélangés. Ces deux tâches d'identification et de séparation sont effectuées simultanément en une seule passe de l'algorithme que nous proposons. Notre deuxième contribution est un algorithme en ligne pour apprendre le dictionnaire à grande échelle, sur des signaux de plusieurs heures. L'espace mémoire requis par une NMF estimée en ligne est constant alors qu'il croit linéairement avec la taille des signaux fournis dans la version standard, ce qui est impraticable pour des signaux de plus d'une heure. Notre troisième contribution touche à l'interaction avec l'utilisateur. Pour des signaux courts, l'apprentissage aveugle est particulièrement dificile, et l'apport d'information spécifique au signal traité est indispensable. Notre contribution est similaire à l'inpainting et permet de prendre en compte des annotations temps-fréquences. Elle repose sur l'observation que la quasi-totalité du spectrogramme peut etre divisé en régions spécifiquement assignées à chaque source. Nous décrivons une extension de NMF pour prendre en compte cette information et discutons la possibilité d'inférer cette information automatiquement avec des outils d'apprentissage statistique simples. / In this thesis we provide three main contributions to blind source separation methods based on NMF. Our first contribution is a group-sparsity inducing penalty specifically tailored for Itakura-Saito NMF. In many music tracks, there are whole intervals where only one source is active at the same time. The group-sparsity penalty we propose allows to blindly indentify these intervals and learn source specific dictionaries. As a consequence, those learned dictionaries can be used to do source separation in other parts of the track were several sources are active. These two tasks of identification and separation are performed simultaneously in one run of group-sparsity Itakura-Saito NMF. Our second contribution is an online algorithm for Itakura-Saito NMF that allows to learn dictionaries on very large audio tracks. Indeed, the memory complexity of a batch implementation NMF grows linearly with the length of the recordings and becomes prohibitive for signals longer than an hour. In contrast, our online algorithm is able to learn NMF on arbitrarily long signals with limited memory usage. Our third contribution deals user informed NMF. In short mixed signals, blind learning becomes very hard and sparsity do not retrieve interpretable dictionaries. Our contribution is very similar in spirit to inpainting. It relies on the empirical fact that, when observing the spectrogram of a mixture signal, an overwhelming proportion of it consists in regions where only one source is active. We describe an extension of NMF to take into account time-frequency localized information on the absence/presence of each source. We also investigate inferring this information with tools from machine learning.
22

Séparation aveugle de source : de l'instantané au convolutif / Blind source separation : from instantaneous to convolutive

Feng, Fangchen 29 September 2017 (has links)
La séparation aveugle de source consiste à estimer les signaux de sources uniquement à partir des mélanges observés. Le problème peut être séparé en deux catégories en fonction du modèle de mélange: mélanges instantanés, où le retard et la réverbération (effet multi-chemin) ne sont pas pris en compte, et des mélanges convolutives qui sont plus généraux mais plus compliqués. De plus, le bruit additif au niveaux des capteurs et le réglage sous-déterminé, où il y a moins de capteurs que les sources, rendent le problème encore plus difficile.Dans cette thèse, tout d'abord, nous avons étudié le lien entre deux méthodes existantes pour les mélanges instantanés: analyse des composants indépendants (ICA) et analyse des composant parcimonieux (SCA). Nous avons ensuite proposé une nouveau formulation qui fonctionne dans les cas déterminés et sous-déterminés, avec et sans bruit. Les évaluations numériques montrent l'avantage des approches proposées.Deuxièmement, la formulation proposés est généralisés pour les mélanges convolutifs avec des signaux de parole. En intégrant un nouveau modèle d'approximation, les algorithmes proposés fonctionnent mieux que les méthodes existantes, en particulier dans des scénarios bruyant et / ou de forte réverbération.Ensuite, on prend en compte la technique de décomposition morphologique et l'utilisation de parcimonie structurée qui conduit à des algorithmes qui peuvent mieux exploiter les structures des signaux audio. De telles approches sont testées pour des mélanges convolutifs sous-déterminés dans un scénario non-aveugle.Enfin, en bénéficiant du modèle NMF (factorisation en matrice non-négative), nous avons combiné l'hypothèse de faible-rang et de parcimonie et proposé de nouvelles approches pour les mélanges convolutifs sous-déterminés. Les expériences illustrent la bonne performance des algorithmes proposés pour les signaux de musique, en particulier dans des scénarios de forte réverbération. / Blind source separation (BSS) consists of estimating the source signals only from the observed mixtures. The problem can be divided into two categories according to the mixing model: instantaneous mixtures, where delay and reverberation (multi-path effect) are not taken into account, and convolutive mixtures which are more general but more complicated. Moreover, the additive noise at the sensor level and the underdetermined setting, where there are fewer sensors than the sources, make the problem even more difficult.In this thesis, we first studied the link between two existing methods for instantaneous mixtures: independent component analysis (ICA) and sparse component analysis (SCA). We then proposed a new formulation that works in both determined and underdetermined cases, with and without noise. Numerical evaluations show the advantage of the proposed approaches.Secondly, the proposed formulation is generalized for convolutive mixtures with speech signals. By integrating a new approximation model, the proposed algorithms work better than existing methods, especially in noisy and/or high reverberation scenarios.Then, we take into account the technique of morphological decomposition and the use of structured sparsity which leads to algorithms that can better exploit the structures of audio signals. Such approaches are tested for underdetermined convolutive mixtures in a non-blind scenario.At last, being benefited from the NMF model, we combined the low-rank and sparsity assumption and proposed new approaches for under-determined convolutive mixtures. The experiments illustrate the good performance of the proposed algorithms for music signals, especially in strong reverberation scenarios.
23

Méthodes et algorithmes avancés pour l'imagerie astronomique de haute précision / Advanced methods and algorithm for high precision astronomical imaging

Ngolè Mboula, Fred Maurice 18 October 2016 (has links)
L'un des challenges majeurs de la cosmologie moderne réside en la nature même de la matière et de l'énergie noire. La matière noire peut être directement tracée à travers son effet gravitationnel sur les formes des galaxies. La mission Euclid de l'Agence Spatiale Européenne fournira précisément des données à cette fin. L'exploitation de telles données requiert une modélisation précise de la Fonction d'Étalement du Point (FEP) de l'instrument d'observation, ce qui constitue l'objectif de cette thèse.Nous avons développé des méthodes non-paramétriques permettant d'estimer de manière fiable la FEP sur l'ensemble du champ de vue d'un instrument, à partir d'images non résolues d'étoiles, ceci en tenant compte du bruit, d'un possible sous-échantillonnage des observations et de la variabilité spatiale de la FEP. Ce travail tire avantage d'outils et concepts mathématiques modernes parmi lesquelles la parcimonie. Une extension importante de ce travail serait de prendre en compte la dépendance en longueur d'onde de la FEP. / One of the biggest challenges of modern cosmology is to gain a more precise knowledge of the dark energy and the dark matter nature. Fortunately, the dark matter can be traced directly through its gravitational effect on galaxies shapes. The European Spatial Agency Euclid mission will precisely provide data for such a purpose. A critical step is analyzing these data will be to accurately model the instrument Point Spread Function (PSF), which the focus of this thesis.We developed non parametric methods to reliably estimate the PSFs across an instrument field-of-view, based on unresolved stars images and accounting for noise, undersampling and PSFs spatial variability. At the core of these contributions, modern mathematical tools and concepts such as sparsity. An important extension of this work will be to account for the PSFs wavelength dependency.
24

Parcimonie, diversité morphologique et séparation robuste de sources / Sparse modeling, morphological diversity and robust source separation

Chenot, Cécile 29 September 2017 (has links)
Cette thèse porte sur le problème de Séparation Aveugle de Sources (SAS) en présence de données aberrantes. La plupart des méthodes de SAS sont faussées par la présence de déviations structurées par rapport au modèle de mélange linéaire classique: des évènements physiques inattendus ou des dysfonctionnements de capteurs en sont des exemples fréquents.Nous proposons un nouveau modèle prenant en compte explicitement les données aberrantes. Le problème de séparation en résultant, mal posé, est adressé grâce à la parcimonie. L'utilisation de cette dernière est particulièrement intéressante en SAS robuste car elle permet simultanément de démélanger les sources et de séparer les différentes contributions. Ces travaux sont étendus pour l'estimation de variabilité spectrale pour l'imagerie hyperspectrale terrestre.Des comparaisons avec des méthodes de l'état-de-l'art montrent la robustesse et la fiabilité des algorithmes associés pour un large éventail de configurations, incluant le cas déterminé. / This manuscript addresses the Blind Source Separation (BSS) problem in the presence of outliers. Most BSS techniques are hampered by the presence of structured deviations from the standard linear mixing model, such as unexpected physical events or malfunctions of sensors. We propose a new data model taking explicitly into account the deviations. The resulting joint estimation of the components is an ill-posed problem, tackled using sparse modeling. The latter is particularly efficient for solving robust BSS since it allows for a robust unmixing of the sources jointly with a precise separation of the components. These works are then extended for the estimation of spectral variability in the framework of terrestrial hyperspectral imaging. Numerical experiments highlight the robustness and reliability of the proposed algorithms in a wide range of settings, including the full-rank regime.
25

Single-pixel imaging : Development and applications of adaptive methods / Imagerie mono-pixel : Développement et applications de méthodes adaptatives

Rousset, Florian 27 October 2017 (has links)
L'imagerie mono-pixel est un concept récent qui permet l'obtention d'images à un coût relativement faible par une compression des données durant l'acquisition. L'architecture d'une caméra mono-pixel comprend seulement deux éléments, un modulateur spatial de la lumière et un détecteur ponctuel. L'idée est de mesurer, au niveau du détecteur, la projection de la scène observée -l'image- avec un certain motif. Le post-traitement d'une séquence de mesures obtenues avec différents motifs permet de restaurer l'image de la scène. L'imagerie mono-pixel possède plusieurs avantages qui sont d'un intérêt pour différentes applications, en particulier dans le domaine biomédical. Par exemple, une caméra mono-pixel résolue en temps bas coût est bénéfique pour l'imagerie de temps de vie de fluorescence. Un tel système peut également être couplé à un spectromètre afin de compléter le temps de vie avec une information spectrale. Cependant, la limite principale de l'imagerie mono-pixel est la vitesse d'acquisition et/ou de l'étape de restauration d'image qui est, à ce jour, non compatible avec des applications temps réel. Le but de cette thèse est de développer des méthodes rapides d'acquisition et de restauration des images à visée d'applications biomédicales. Tout d'abord, une stratégie d'acquisition basée sur les algorithmes de compression dans le domaine ondelettes est proposée. Celle-ci accélère le temps de restauration de l'image par rapport aux schémas d'acquisition classiques basés sur l'acquisition comprimée. Dans un second temps, une nouvelle méthode pour lever une contrainte expérimentale de positivité sur les motifs est détaillée. Comparée aux approches classiques, cette méthode basée sur une factorisation en matrices non-négatives permet de diviser par deux le nombre de motifs envoyés au modulateur spatial de la lumière, entrainant ainsi une division par deux du temps d'acquisition total. Enfin, l'applicabilité de ces techniques est démontrée pour de l'imagerie multispectrale et/ou résolue en temps, modalités courantes dans le domaine biomédical. / Single-pixel imaging is a recent paradigm that allows the acquisition of images at a reasonably low cost by exploiting hardware compression of the data. The architecture of a single-pixel camera consists of only two elements, a spatial light modulator and a single point detector. The key idea is to measure, at the detector, the projection (i.e., inner product) of the scene under view -the image- with some patterns. The post-processing of a measurements sequence obtained with different patterns permits to restore the desired image. Single-pixel imaging has several advantages, which are of interest for different applications, especially in the biomedical field. In particular, a time-resolved single-pixel imaging system benefits to fluorescence lifetime sensing. Such a setup can be coupled to a spectrometer to supplement lifetime with spectral information. However, the main limitation of single-pixel imaging is the speed of the acquisition and/or image restoration that is, as of today, not compatible with real-time applications. This thesis investigates fast acquisition/restoration schemes for single-pixel camera targeting biomedical applications. First, a new acquisition strategy based on wavelet compression algorithms is reported. It is shown that it can significantly accelerate image recovery compared to conventional schemes belonging to the compressive sensing framework. Second, a novel technique is proposed to alleviate an experimental positivity constraint of the modulation patterns. With respect to the classical approaches, the proposed non-negative matrix factorization based technique permits to divide by two the number of patterns sent to the spatial light modulator, hence dividing the overall acquisition time by two. Finally, the applicability of these techniques is demonstrated for multispectral and/or time-resolved imaging, which are common modalities in biomedical imaging.
26

Unsupervised Models for White Matter Fiber-Bundles Analysis in Multiple Sclerosis / Modèles Non Supervisé pour l’Analyse des Fibres de Substance Blanche dans la Sclérose en Plaques

Stamile, Claudio 11 September 2017 (has links)
L’imagerie de résonance magnétique de diffusion (dMRI) est une technique très sensible pour la tractographie des fibres de substance blanche et la caractérisation de l’intégrité et de la connectivité axonale. A travers la mesure des mouvements des molécules d’eau dans les trois dimensions de l’espace, il est possible de reconstruire des cartes paramétriques reflétant l’organisation tissulaire. Parmi ces cartes, la fraction d’anisotropie (FA) et les diffusivités axiale (λa), radiale (λr) et moyenne (MD) ont été largement utilisés pour caractériser les pathologies du système nerveux central. L’emploi de ces cartes paramétriques a permis de mettre en évidence la survenue d’altérations micro structurelles de la substance blanche (SB) et de la substance grise (SG) chez les patients atteints d’une sclérose en plaques (SEP). Cependant, il reste à déterminer l’origine de ces altérations qui peuvent résulter de processus globaux comme la cascade inflammatoire et les mécanismes neurodégénératifs ou de processus plus localisés comme la démyélinisation et l’inflammation. De plus, ces processus pathologiques peuvent survenir le long de faisceaux de SB afférents ou efférents, conduisant à une dégénérescence antero- ou rétrograde. Ainsi, pour une meilleure compréhension des processus pathologiques et de leur progression dans l’espace et dans le temps, une caractérisation fine et précise des faisceaux de SB est nécessaire. En couplant l’information spatiale de la tractographie des fibres aux cartes paramétriques de diffusion, obtenues grâce à un protocole d’acquisitions longitudinal, les profils des faisceaux de SB peuvent être modélisés et analysés. Une telle analyse des faisceaux de SB peut être effectuée grâce à différentes méthodes, partiellement ou totalement non-supervisées. Dans la première partie de ce travail, nous dressons l’état de l’art des études déjà présentes dans la littérature. Cet état de l’art se focalisera sur les études montrant les effets de la SEP sur les faisceaux de SB grâce à l’emploi de l’imagerie de tenseur de diffusion. Dans la seconde partie de ce travail, nous introduisons deux nouvelles méthodes,“string-based”, l’une semi-supervisée et l’autre non-supervisée, pour extraire les faisceaux de SB. Nous montrons comment ces algorithmes permettent d’améliorer l’extraction de faisceaux spécifiques comparé aux approches déjà présentes dans la littérature. De plus, dans un second chapitre, nous montrons une extension de la méthode proposée par le couplage du formalisme “string-based” aux informations spatiales des faisceaux de SB. Dans la troisième et dernière partie de ce travail, nous décrivons trois algorithmes automatiques permettant l’analyse des changements longitudinaux le long des faisceaux de SB chez des patients atteints d’une SEP. Ces méthodes sont basées respectivement sur un modèle de mélange Gaussien, la factorisation de matrices non-négatives et la factorisation de tenseurs non-négatifs. De plus, pour valider nos méthodes, nous introduisons un nouveau modèle pour simuler des changements longitudinaux réels, base sur une fonction de probabilité Gaussienne généralisée. Des hautes performances ont été obtenues avec ces algorithmes dans la détection de changements longitudinaux d’amplitude faible le long des faisceaux de SB chez des patients atteints de SEP. En conclusion, nous avons proposé dans ce travail des nouveaux algorithmes non supervisés pour une analyse précise des faisceaux de SB, permettant une meilleure caractérisation des altérations pathologiques survenant chez les patients atteints de SEP / Diffusion Magnetic Resonance Imaging (dMRI) is a meaningful technique for white matter (WM) fiber-tracking and microstructural characterization of axonal/neuronal integrity and connectivity. By measuring water molecules motion in the three directions of space, numerous parametric maps can be reconstructed. Among these, fractional anisotropy (FA), mean diffusivity (MD), and axial (λa) and radial (λr) diffusivities have extensively been used to investigate brain diseases. Overall, these findings demonstrated that WM and grey matter (GM) tissues are subjected to numerous microstructural alterations in multiple sclerosis (MS). However, it remains unclear whether these tissue alterations result from global processes, such as inflammatory cascades and/or neurodegenerative mechanisms, or local inflammatory and/or demyelinating lesions. Furthermore, these pathological events may occur along afferent or efferent WM fiber pathways, leading to antero- or retrograde degeneration. Thus, for a better understanding of MS pathological processes like its spatial and temporal progression, an accurate and sensitive characterization of WM fibers along their pathways is needed. By merging the spatial information of fiber tracking with the diffusion metrics derived obtained from longitudinal acquisitions, WM fiber-bundles could be modeled and analyzed along their profile. Such signal analysis of WM fibers can be performed by several methods providing either semi- or fully unsupervised solutions. In the first part of this work, we will give an overview of the studies already present in literature and we will focus our analysis on studies showing the interest of dMRI for WM characterization in MS. In the second part, we will introduce two new string-based methods, one semi-supervised and one unsupervised, to extract specific WM fiber-bundles. We will show how these algorithms allow to improve extraction of specific fiber-bundles compared to the approaches already present in literature. Moreover, in the second chapter, we will show an extension of the proposed method by coupling the string-based formalism with the spatial information of the fiber-tracks. In the third, and last part, we will describe, in order of complexity, three different fully automated algorithms to perform analysis of longitudinal changes visible along WM fiber-bundles in MS patients. These methods are based on Gaussian mixture model, nonnegative matrix and tensor factorisation respectively. Moreover, in order to validate our methods, we introduce a new model to simulate real longitudinal changes based on a generalised Gaussian probability density function. For those algorithms high levels of performances were obtained for the detection of small longitudinal changes along the WM fiber-bundles in MS patients. In conclusion, we propose, in this work, a new set of unsupervised algorithms to perform a sensitivity analysis of WM fiber bundle that would be useful for the characterisation of pathological alterations occurring in MS patients
27

Méthodes de séparation aveugle de sources et application à l'imagerie hyperspectrale en astrophysique / Blind source separation methods and applications to astrophysical hyperspectral data

Boulais, Axel 15 December 2017 (has links)
Ces travaux de thèse concernent le développement de nouvelles méthodes de séparation aveugle de mélanges linéaires instantanés pour des applications à des données hyperspectrales en astrophysique. Nous avons proposé trois approches pour effectuer la séparation des données. Une première contribution est fondée sur l'hybridation de deux méthodes existantes de séparation aveugle de source (SAS) : la méthode SpaceCORR nécessitant une hypothèse de parcimonie et une méthode de factorisation en matrices non négatives (NMF). Nous montrons que l'utilisation des résultats de SpaceCORR pour initialiser la NMF permet d'améliorer les performances des méthodes utilisées seules. Nous avons ensuite proposé une première méthode originale permettant de relâcher la contrainte de parcimonie de SpaceCORR. La méthode MASS (pour \textit{Maximum Angle Source Separation}) est une méthode géométrique basée sur l'extraction de pixels mono-sources pour réaliser la séparation des données. Nous avons également étudié l'hybridation de MASS avec la NMF. Enfin, nous avons proposé une seconde approche permettant de relâcher la contrainte de parcimonie de SpaceCORR. La méthode originale SIBIS (pour \textit{Subspace-Intersection Blind Identification and Separation}) est une méthode géométrique basée sur l'identification de l'intersection de sous-espaces engendrés par des régions de l'image hyperspectrale. Ces intersections permettent, sous une hypothèse faible de parcimonie, de réaliser la séparation des données. L'ensemble des approches proposées dans ces travaux ont été validées par des tests sur données simulées puis appliquées sur données réelles. Les résultats obtenus sur ces données sont très encourageants et sont comparés à ceux obtenus par des méthodes de la littérature. / This thesis deals with the development of new blind separation methods for linear instantaneous mixtures applicable to astrophysical hyperspectral data sets. We propose three approaches to perform data separation. A first contribution is based on hybridization of two existing blind source separation (BSS) methods: the SpaceCORR method, requiring a sparsity assumption, and a non-negative matrix factorization (NMF) method. We show that using SpaceCORR results to initialize the NMF improves the performance of the methods used alone. We then proposed a first original method to relax the sparsity constraint of SpaceCORR. The method called MASS (Maximum Angle Source Separation) is a geometric method based on the extraction of single-source pixels to achieve the separation of data. We also studied the hybridization of MASS with the NMF. Finally, we proposed an approach to relax the sparsity constraint of SpaceCORR. The original method called SIBIS (Subspace-Intersection Blind Identification and Separation) is a geometric method based on the identification of intersections of subspaces generated by regions of the hyperspectral image. Under a sparsity assumption, these intersections allow one to achieve the separation of the data. The approaches proposed in this manuscript have been validated by experimentations on simulated data and then applied to real data. The results obtained on our data are very encouraging and are compared with those obtained by methods from the literature.
28

Méthodes de démélange et de fusion des images multispectrales et hyperspectrales de télédétection spatiale / Unmixing and fusion methods for remote sensing multispectral and hypersectral images

Benhalouche, Fatima Zohra 03 May 2018 (has links)
Au cours de cette thèse, nous nous sommes intéressés à deux principales problématiques de la télédétection spatiale de milieux urbains qui sont : le "démélange spectral " et la "fusion". Dans la première partie de la thèse, nous avons étudié le démélange spectral d'images hyperspectrales de scènes de milieux urbains. Les méthodes développées ont pour objectif d'extraire, d'une manière non-supervisée, les spectres des matériaux présents dans la scène imagée. Le plus souvent, les méthodes de démélange spectral (méthodes dites de séparation aveugle de sources) sont basées sur le modèle de mélange linéaire. Cependant, lorsque nous sommes en présence de paysage non-plat, comme c'est le cas en milieu urbain, le modèle de mélange linéaire n'est plus valide et doit être remplacé par un modèle de mélange non-linéaire. Ce modèle non-linéaire peut être réduit à un modèle de mélange linéaire-quadratique/bilinéaire. Les méthodes de démélange spectral proposées sont basées sur la factorisation matricielle avec contrainte de non-négativité, et elles sont conçues pour le cas particulier de scènes urbaines. Les méthodes proposées donnent généralement de meilleures performances que les méthodes testées de la littérature. La seconde partie de cette thèse à été consacrée à la mise en place de méthodes qui permettent la fusion des images multispectrale et hyperspectrale, afin d'améliorer la résolution spatiale de l'image hyperspectrale. Cette fusion consiste à combiner la résolution spatiale élevée des images multispectrales et la haute résolution spectrale des images hyperspectrales. Les méthodes mises en place sont des méthodes conçues pour le cas particulier de fusion de données de télédétection de milieux urbains. Ces méthodes sont basées sur des techniques de démélange spectral linéaire-quadratique et utilisent la factorisation en matrices non-négatives. Les résultats obtenus montrent que les méthodes développées donnent globalement des performances satisfaisantes pour la fusion des données hyperspectrale et multispectrale. Ils prouvent également que ces méthodes surpassent significativement les approches testées de la littérature. / In this thesis, we focused on two main problems of the spatial remote sensing of urban environments which are: "spectral unmixing" and "fusion". In the first part of the thesis, we are interested in the spectral unmixing of hyperspectral images of urban scenes. The developed methods are designed to unsupervisely extract the spectra of materials contained in an imaged scene. Most often, spectral unmixing methods (methods known as blind source separation) are based on the linear mixing model. However, when facing non-flat landscape, as in the case of urban areas, the linear mixing model is not valid any more, and must be replaced by a nonlinear mixing model. This nonlinear model can be reduced to a linear-quadratic/bilinear mixing model. The proposed spectral unmixing methods are based on matrix factorization with non-negativity constraint, and are designed for urban scenes. The proposed methods generally give better performance than the tested literature methods. The second part of this thesis is devoted to the implementation of methods that allow the fusion of multispectral and hyperspectral images, in order to improve the spatial resolution of the hyperspectral image. This fusion consists in combining the high spatial resolution of multispectral images and high spectral resolution of hyperspectral images. The implemented methods are designed for urban remote sensing data. These methods are based on linear-quadratic spectral unmixing techniques and use the non-negative matrix factorization. The obtained results show that the developed methods give good performance for hyperspectral and multispectral data fusion. They also show that these methods significantly outperform the tested literature approaches.
29

Normes Parcimonieuses Structurées : Propriétés Statistiques et Algorithmiques avec Applications à l'Imagerie Cérébrale

Jenatton, Rodolphe 24 November 2011 (has links) (PDF)
De nombreux domaines issus de l'industrie et des sciences appliquées ont été, au cours des dernières années, les témoins d'une révolution numérique. Cette tendance s'est accompagnée d'une croissance continue du volume des données--vidéos, musiques et images, dont le traitement est devenu un véritable défi technique. Par exemple, il est aujourd'hui fréquent de prendre des centaines de photographies de plusieurs millions de pixels, la moindre application de méthodes du traitement de l'image devenant alors une opération difficile. Dans ce contexte, la parcimonie est apparue comme un concept central en apprentissage statistique et traitement du signal. Il est en effet naturel de représenter, analyser et exploiter les données disponibles à travers un nombre réduit de paramètres. Par exemple, on peut imaginer effectuer de la reconnaissance d'objets sur des images de hautes résolutions en n'utilisant qu'un petit sous-ensemble pertinent de pixels. Alors que les approches générales favorisant la parcimonie ont déjà été l'objet de nombreux travaux--débouchant sur d'élégantes fondations théoriques, des outils algorithmiques efficaces et plusieurs succès pratiques--cette thèse se concentre sur une forme particulière et plus récente de parcimonie, nommée parcimonie structurée. Comme son nom l'indique, nous considérerons des situations où nous ne serons pas simplement intéréssés par la parcimonie, mais où nous aurons également à disposition des connaissances a priori nous renseignant sur certaines propriétés structurelles. En continuant d'exploiter l'exemple de la reconnaissance d'objets mentioné ci-dessus, nous savons que des pixels voisins sur une image ont tendance à partager des propriétés similaires, telles que la classe de l'objet à laquelle ils appartiennent. Ainsi, une approche encourageant la parcimonie devrait tirer partie de cette information spatiale. L'objectif de cette thèse est de comprendre et analyser le concept de parcimonie structurée, en se basant sur des considérations statistiques, algorithmiques et appliquées. Nous commencerons par introduire une famille de normes structurées parcimonieuses dont les propriétés sont étudiées en détail. En particulier, nous montrerons à quel type d'information structurelle ces normes correspondent, et nous présenterons sous quelles conditions statistiques elles sont capables de produire une séléction consistente de variables. Nous étudierons ensuite l'apprentissage de dictionnaires parcimonieux et structurés, où nous exploiterons les normes introduites précédemment dans un cadre de factorisation de matrices. L'approche qui en résulte est fléxible et versatile, et nous montrerons que les éléments de dictionnaire appris exhibent une structure parcimonieuse adaptée à la classe de signaux considérée. Concernant l'optimisation, nous proposerons différents outils algorithmiques efficaces et capables de passer à l'échelle, tels que des stratégies à ensemble de variables actives ou encore des méthodes proximales. Grâce à ces outils algorithmiques, nous illustrerons sur de nombreuses applications issues de domaines variés, quand et pourquoi la parcimonie structurée peut être bénéfique. Ces illustrations contiennent par exemple, des tâches de restauration en traitement de l'image, la modélisation de documents textuels sous la forme d'une hiérarchie de thèmes, la prédiction de la taille d'objets à partir de signaux d'imagerie par résonance magnétique fonctionnelle, ou encore des problèmes de segmentation d'images en vision par ordinateur.
30

Méthodes de séparation aveugle de sources et application à la télédétection spatiale

Karoui, Moussa Sofiane 17 December 2012 (has links) (PDF)
Cette thèse concerne la séparation aveugle de sources, qui consiste à estimer un ensemble de signaux sources inconnus à partir d'un ensemble de signaux observés qui sont des mélanges à paramètres inconnus de ces signaux sources. C'est dans ce cadre que le travail de recherche de cette thèse concerne le développement et l'utilisation de méthodes linéaires innovantes de séparation de sources pour des applications en imagerie de télédétection spatiale. Des méthodes de séparation de sources sont utilisées pour prétraiter une image multispectrale en vue d'une classification supervisée de ses pixels. Deux nouvelles méthodes hybrides non-supervisées, baptisées 2D-Corr-NLS et 2D-Corr-NMF, sont proposées pour l'extraction de cartes d'abondances à partir d'une image multispectrale contenant des pixels purs. Ces deux méthodes combinent l'analyse en composantes parcimonieuses, le clustering et les méthodes basées sur les contraintes de non-négativité. Une nouvelle méthode non-supervisée, baptisée 2D-VM, est proposée pour l'extraction de spectres à partir d'une image hyperspectrale contenant des pixels purs. Cette méthode est basée sur l'analyse en composantes parcimonieuses. Enfin, une nouvelle méthode est proposée pour l'extraction de spectres à partir d'une image hyperspectrale ne contenant pas de pixels purs, combinée avec une image multispectrale, de très haute résolution spatiale, contenant des pixels purs. Cette méthode est fondée sur la factorisation en matrices non-négatives couplée avec les moindres carrés non-négatifs. Comparées à des méthodes de la littérature, d'excellents résultats sont obtenus par les approches méthodologiques proposées.

Page generated in 0.1495 seconds