• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 8
  • 5
  • 1
  • Tagged with
  • 15
  • 11
  • 9
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Single-pixel imaging : Development and applications of adaptive methods / Imagerie mono-pixel : Développement et applications de méthodes adaptatives

Rousset, Florian 27 October 2017 (has links)
L'imagerie mono-pixel est un concept récent qui permet l'obtention d'images à un coût relativement faible par une compression des données durant l'acquisition. L'architecture d'une caméra mono-pixel comprend seulement deux éléments, un modulateur spatial de la lumière et un détecteur ponctuel. L'idée est de mesurer, au niveau du détecteur, la projection de la scène observée -l'image- avec un certain motif. Le post-traitement d'une séquence de mesures obtenues avec différents motifs permet de restaurer l'image de la scène. L'imagerie mono-pixel possède plusieurs avantages qui sont d'un intérêt pour différentes applications, en particulier dans le domaine biomédical. Par exemple, une caméra mono-pixel résolue en temps bas coût est bénéfique pour l'imagerie de temps de vie de fluorescence. Un tel système peut également être couplé à un spectromètre afin de compléter le temps de vie avec une information spectrale. Cependant, la limite principale de l'imagerie mono-pixel est la vitesse d'acquisition et/ou de l'étape de restauration d'image qui est, à ce jour, non compatible avec des applications temps réel. Le but de cette thèse est de développer des méthodes rapides d'acquisition et de restauration des images à visée d'applications biomédicales. Tout d'abord, une stratégie d'acquisition basée sur les algorithmes de compression dans le domaine ondelettes est proposée. Celle-ci accélère le temps de restauration de l'image par rapport aux schémas d'acquisition classiques basés sur l'acquisition comprimée. Dans un second temps, une nouvelle méthode pour lever une contrainte expérimentale de positivité sur les motifs est détaillée. Comparée aux approches classiques, cette méthode basée sur une factorisation en matrices non-négatives permet de diviser par deux le nombre de motifs envoyés au modulateur spatial de la lumière, entrainant ainsi une division par deux du temps d'acquisition total. Enfin, l'applicabilité de ces techniques est démontrée pour de l'imagerie multispectrale et/ou résolue en temps, modalités courantes dans le domaine biomédical. / Single-pixel imaging is a recent paradigm that allows the acquisition of images at a reasonably low cost by exploiting hardware compression of the data. The architecture of a single-pixel camera consists of only two elements, a spatial light modulator and a single point detector. The key idea is to measure, at the detector, the projection (i.e., inner product) of the scene under view -the image- with some patterns. The post-processing of a measurements sequence obtained with different patterns permits to restore the desired image. Single-pixel imaging has several advantages, which are of interest for different applications, especially in the biomedical field. In particular, a time-resolved single-pixel imaging system benefits to fluorescence lifetime sensing. Such a setup can be coupled to a spectrometer to supplement lifetime with spectral information. However, the main limitation of single-pixel imaging is the speed of the acquisition and/or image restoration that is, as of today, not compatible with real-time applications. This thesis investigates fast acquisition/restoration schemes for single-pixel camera targeting biomedical applications. First, a new acquisition strategy based on wavelet compression algorithms is reported. It is shown that it can significantly accelerate image recovery compared to conventional schemes belonging to the compressive sensing framework. Second, a novel technique is proposed to alleviate an experimental positivity constraint of the modulation patterns. With respect to the classical approaches, the proposed non-negative matrix factorization based technique permits to divide by two the number of patterns sent to the spatial light modulator, hence dividing the overall acquisition time by two. Finally, the applicability of these techniques is demonstrated for multispectral and/or time-resolved imaging, which are common modalities in biomedical imaging.
12

Fusion de données : prise en compte des caractéristiques liées à l'imageur lors de la synthèse d'images multispectrales à haute résolution spatiale

Massip, Pierre 19 November 2010 (has links) (PDF)
Les satellites d'observation de la Terre (Quickbird, Ikonos, SPOT-5, PLÉIADES) fournissent des images de deux types : soit une image panchromatique à haute résolution spatiale mais basse résolution spectrale, soit une image multispectrale dont la résolution spatiale est inférieure d'un rapport 2 ou 4, mais avec une bonne résolution spectrale. Des méthodes permettant la fusion de ces deux types d'images existent, cependant il est encore possible d'améliorer la qualité des images synthétisées. Nos travaux visent à améliorer la qualité des images synthétisées par une meilleure prise en compte des caractéristiques de l'imageur comme ; la Fonction de Transfert de Modulation (FTM) et l'échantillonnage. Les travaux que nous avons menés sur l'impact du repliement de spectre présent dans les images MS ont mis en évidence que l'absence de repliement permet la suppression des artefacts visuels importants, mais les outils usuels d'évaluation de la qualité des images de fusion ne permettent pas la quantification des performances. La FTM caractérise la capacité de l'instrument à représenter un contraste en fonction de la fréquence spatiale. Celle-ci diffère entre les images PAN et MS. Nous avons proposé à partir de méthodes existantes, deux méthodes de fusion permettant de mieux prendre en compte la FTM et ainsi d'améliorer la qualité et les caractéristiques de l'image synthétisée.
13

Fusion d'images de résolutions spatiales différentes

Thomas, Claire 11 December 2006 (has links) (PDF)
Les satellites de type SPOT, Ikonos ou Quickbird fournissent des images possédant des caractéristiques différentes: d'une part des images de basse résolution spectrale et de haute résolution spatiale, et d'autre part, des images de caractéristiques opposées, c'est-à-dire de haute résolution spectrale combinée à une basse résolution spatiale. De nombreuses applications nécessitent de combiner ces hautes résolutions spatiales et spectrales. Ce travail s'insère dans la synthèse d'images multispectrales à haute résolution au moyen de la fusion d'images. La constatation de lacunes dans la littérature à propos de l'évaluation de la qualité, a mené à l'établissement d'un protocole d'évaluation de la qualité, correspondant à une généralisation de deux travaux précédents. Une étude empirique sur l'évolution de la qualité des produits de fusion dans les échelles complète ce protocole. Une catégorisation des nombreuses distances de la littérature est proposée. Nous ajoutons une nouvelle distance pour caractériser la qualité géométrique des produits de fusion basée sur la fonction de transfert de modulation, que nous avons validée grâce à l'imagerie Ikonos et à son application à quelques méthodes de fusion connues. La sélection d'une série de distances sous forme de bilan de qualité est discutée dans le but d'obtenir une idée de la qualité qui soit la plus complète possible. Puisque nous disposons des outils nécessaires à l'évaluation de la qualité, nous pouvons désormais les exploiter pour le développement de nouvelles méthodes de fusion. Nous avons choisi le concept ARSIS comme cadre de développement car, d'une part, ses différentes implantations donnent généralement de bons bilans de qualité, d'autre part, leur qualité visuelle a été parfois controversée. Une campagne d'évaluation de la qualité visuelle des produits de fusion a permis de répertorier, de classer puis d'expliquer la formation des artefacts de quelques implantations ARSIS. L'étude critique de ces méthodes a mené au développement de trois nouvelles méthodes de fusion qui s'appuient aussi sur des outils extérieurs au concept. Ces nouvelles méthodes sont testées lors d'une seconde campagne d'expérimentation. Une des nouvelles méthodes offre de meilleurs résultats que la méthode de référence choisie. Les expérimentateurs l'ont déclarée acceptable et recommandable pour une utilisation dans le cadre d'une exploitation opérationnelle au sein du ministère de la défense.
14

Estimation de l'occupation des sols à grande échelle pour l'exploitation d'images d'observation de la Terre à hautes résolutions spatiale, spectrale et temporelle / Exploitation of high spatial, spectral and temporal resolution Earth observation imagery for large area land cover estimation

Rodes Arnau, Isabel 10 November 2016 (has links)
Les missions spatiales d'observation de la Terre de nouvelle génération telles que Sentinel-2 (préparé par l'Agence Spatiale Européenne ESA dans le cadre du programme Copernicus, auparavant appelé Global Monitoring for Environment and Security ou GMES) ou Venµs, conjointement développé par l'Agence Spatiale Française (Centre National d 'Études Spatiales CNES) et l'Agence Spatiale Israélienne (ISA), vont révolutionner la surveillance de l'environnement d' aujourd'hui avec le rendement de volumes inédits de données en termes de richesse spectrale, de revisite temporelle et de résolution spatiale. Venµs livrera des images dans 12 bandes spectrales de 412 à 910 nm, une répétitivité de 2 jours et une résolution spatiale de 10 m; les satellites jumeaux Sentinel-2 assureront une couverture dans 13 bandes spectrales de 443 à 2200 nm, avec une répétitivité de 5 jours, et des résolutions spatiales de 10 à 60m. La production efficace de cartes d'occupation des sols basée sur l'exploitation de tels volumes d'information pour grandes surfaces est un défi à la fois en termes de coûts de traitement mais aussi de variabilité des données. En général, les méthodes classiques font soit usage des approches surveillées (trop coûteux en termes de travaux manuels pour les grandes surfaces), ou soit ciblent des modèles locaux spécialisés pour des problématiques précises (ne s'appliquent pas à autres terrains ou applications), ou comprennent des modèles physiques complexes avec coûts de traitement rédhibitoires. Ces approches existantes actuelles sont donc inefficaces pour l'exploitation du nouveau type de données que les nouvelles missions fourniront, et un besoin se fait sentir pour la mise en œuvre de méthodes précises, rapides et peu supervisées qui permettent la généralisation à l'échelle de grandes zones avec des résolutions élevées. Afin de permettre l'exploitation des volumes de données précédemment décrits, l'objectif de ce travail est la conception et validation d'une approche entièrement automatique qui permet l'estimation de la couverture terrestre de grandes surfaces avec imagerie d'observation de la Terre de haute résolution spatiale, spectrale et temporelle, généralisable à des paysages différents, et offrant un temps de calcul opérationnel avec ensembles de données satellitaires simulés, en préparation des prochaines missions. Cette approche est basée sur l'intégration d'algorithmes de traitement de données, tels que les techniques d'apprentissage de modèles et de classification, et des connaissances liées à l'occupation des sols sur des questions écologiques et agricoles, telles que les variables avec un impact sur la croissance de la végétation ou les pratiques de production. Par exemple, la nouvelle introduction de température comme axe temporel pour un apprentissage des modèles ultérieurs intègre un facteur établi de la croissance de la végétation à des techniques d'apprentissage automatiques pour la caractérisation des paysages. Une attention particulière est accordée au traitement de différentes questions, telles que l'automatisation, les informations manquantes (déterminées par des passages satellitaires, des effets de réflexion des nuages, des ombres ou encore la présence de neige), l'apprentissage et les données de validation limitées, les échantillonnages temporels irréguliers (différent nombre d'images disponible pour chaque période et région, données inégalement réparties dans le temps), la variabilité des données, et enfin la possibilité de travailler avec différents ensembles de données et nomenclatures. / The new generation Earth observation missions such as Sentinel-2 (a twin-satellite initiative prepared by the European Space Agency, ESA, in the frame of the Copernicus programme, previously known as Global Monitoring for Environment and Security or GMES) and Venµs, jointly developed by the French Space Agency (Centre National d'Études Spatiales, CNES) and the Israeli Space Agency (ISA), will revolutionize present-day environmental monitoring with the yielding of unseen volumes of data in terms of spectral richness, temporal revisit and spatial resolution. Venµs will deliver images in 12 spectral bands from 412 to 910 nm, a repetitivity of 2 days, and a spatial resolution of 10 m; the twin Sentinel-2 satellites will provide coverage in 13 spectral bands from 443 to 2200 nm, with a repetitivity of 5 days, and spatial resolutions of 10 to 60m. The efficient production of land cover maps based on the exploitation of such volumes of information for large areas is challenging both in terms of processing costs and data variability. In general, conventional methods either make use of supervised approaches (too costly in terms of manual work for large areas), target specialised local models for precise problem areas (not applicable to other terrains or applications), or include complex physical models with inhibitory processing costs. These existent present-day approaches are thus inefficient for the exploitation of the new type of data that the new missions will provide, and a need arises for the implementation of accurate, fast and minimally supervised methods that allow for generalisation to large scale areas with high resolutions. In order to allow for the exploitation of the previously described volumes of data, the objective of this thesis is the conception, design, and validation of a fully automatic approach that allows the estimation of large-area land cover with high spatial, spectral and temporal resolution Earth observation imagery, being generalisable to different landscapes, and offering operational computation times with simulated satellite data sets, in preparation of the coming missions.
15

Algorithmes multidimensionnels et multispectraux en Morphologie Mathématique : approche par méta-programmation.

Enficiaud, Raffi 26 February 2007 (has links) (PDF)
Au cours de ces travaux de thèse, nous nous sommes intéressés d'un point de vue global aux algorithmes en Traitement d'Image et plus particulièrement en Morphologie Mathématique, selon certaines techniques nouvelles de programmation. L'évolution matérielle des moyens informatiques suit les prédictions de la loi de Moore. Cependant, une évolution parallèle, d'ordre logicielle, met à la disposition de la recherche scientifique des moyens de programmation nouveaux, dont la méta-programmation. Les avantages sont considérables, tant en terme scientifique par les possibilités offertes, qu'en termes simplement pratiques (portabilité, capitalisation des développements, réduction des erreurs, etc.). La présentation des travaux est structurée autour de la conception d'une bibliothèque de traitement - morphologique - d'image. Les différents aspects sont illustrés en partie par des exemples pris dans les domaines de la vidéosurveillance et de la sécurité automobile, et issus de projets industriels. Nous présentons dans un premier temps le cadre informatique utilisé pour l'écriture algorithmique. Afin de rendre efficace l'utilisation des nouvelles techniques de programmation, une étude préalable des notions mathématiques en Morphologie Mathématique - images, graphes, relations d'ordre, voisinages, éléments structurant, ... -, ainsi que des outils informatiques associés, est réalisée. La séparation correcte des rôles permet en outre l'écriture des structures indépendamment de la nature des données qu'ils contiennent, l'automatisation de nombreuses opérations par le compilateur, et une écriture algorithmique fidèle à une formulation mathématique. La conjonction de ces développements ouvre un grand champ d'exploration comme celui émanant des images nD et hyperspectrales, dont nous nous proposons d'explorer certains aspects. Le support des images nD associé à la programmation générique a sollicité le développement d'un algorithme de transformée exacte en distance. Les hypothèses sur la fonction distance sont faibles (homogénéité dans l'espace et convexité de la boule unité associée) afin d'utiliser les mêmes développements pour une large classe de fonction. Suite à une étude théorique, nous proposons un algorithme de calcul basé sur des propagations. Le même algorithme est utilisé pour l'ensemble des illustrations (fonctions de distance - L2, L5, orienté, non isométrique, ... - sur des images 4D). Les transformées morphologiques en distance sont d'approche totalement différente et d'usage courant en morphologie mathématique. Elles connaissent actuellement de nouveaux développements grâce à l'extension numérique proposée par Beucher: les « quasi-distances ». Nous proposons un algorithme de calcul rapide de ces distances. La couleur et plus généralement les images multispectrales (données vectorielles) sont d'une manipulation délicate en morphologie mathématique. Nous présentons trois approches complémentaires: l'utilisation de métriques couleurs, des statistiques locales et enfin les relations d'ordre lexicographique. Notre cadre informatique et algorithmique est parfaitement adapté à ces trois types de traitement. Le cadre métrique permet d'étendre la définition du gradient morphologique aux espaces couleurs, et plusieurs métriques dans Lab et HLS sont envisagées. Cette formulation est cependant coûteuse en termes de calcul et devient impraticable lorsque le voisinage utilisé pour le gradient s'agrandit. L'usage de statistiques locales permet de contourner ce problème. Nous nous sommes particulièrement intéressés à des statistiques circulaires dans HLS, ce qui nous a amené à la définition d'un gradient chromatique dans cet espace. Enfin, l'utilisation de relation d'ordre lexicographique étend le cadre algébrique classique à la couleur, sans modification fondamentale des algorithmes. Dans cette optique, nous verrons quels sont les moyens à notre disposition pour étendre la plupart des opérateurs (extrema, reconstruction, granulométries, ...) en maintenant un coût de développement bas. Deux études illustrent ces développements : la caractérisation chromatique de la peau, robuste aux changements d'illumination (contexte automobile), et la détection des zones de mouvement (vidéosurveillance). Le dernier sujet d'intérêt concerne la segmentation, et plus particulièrement l'algorithme de ligne de partage des eaux. L'implémentation de référence à l'aide de files d'attente hiérarchiques conduit à certains biais que nous corrigeons. L'algorithme proposé étant générique, nous l'appliquons sur des images de dimension 4, sur des reliefs en précision flottante ou couleur. Nous modifions ensuite la construction des bassins versants de manière à contourner certaines difficultés rencontrées lors de la segmentation avec un nombre faible de marqueurs. La première modification injecte dans le processus de propagation une information extérieure exprimée sous forme de fonction de coût. Cette fonction concerne aussi bien le contour que l'intérieur de la région en cours de construction. La seconde modification utilise une contrainte locale et rend le fluide visqueux. Des analogies sont établies entre ces nouvelles propagations et les équations d'évolution de courbe à l'aide de dérivées partielles.

Page generated in 0.0894 seconds