• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2
  • 1
  • Tagged with
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Détection de changement par fusion d'images de télédétection de résolutions et modalités différentes

Ferraris, Vinicius 26 October 2018 (has links) (PDF)
La détection de changements dans une scène est l’un des problèmes les plus complexes en télédétection. Il s’agit de détecter des modifications survenues dans une zone géographique donnée par comparaison d’images de cette zone acquises à différents instants. La comparaison est facilitée lorsque les images sont issues du même type de capteur c’est-à-dire correspondent à la même modalité (le plus souvent optique multi-bandes) et possèdent des résolutions spatiales et spectrales identiques. Les techniques de détection de changements non supervisées sont, pour la plupart, conçues spécifiquement pour ce scénario. Il est, dans ce cas, possible de comparer directement les images en calculant la différence de pixels homologues, c’est-à-dire correspondant au même emplacement au sol. Cependant, dans certains cas spécifiques tels que les situations d’urgence, les missions ponctuelles, la défense et la sécurité, il peut s’avérer nécessaire d’exploiter des images de modalités et de résolutions différentes. Cette hétérogénéité dans les images traitées introduit des problèmes supplémentaires pour la mise en œuvre de la détection de changements. Ces problèmes ne sont pas traités par la plupart des méthodes de l’état de l’art. Lorsque la modalité est identique mais les résolutions différentes, il est possible de se ramener au scénario favorable en appliquant des prétraitements tels que des opérations de rééchantillonnage destinées à atteindre les mêmes résolutions spatiales et spectrales. Néanmoins, ces prétraitements peuvent conduire à une perte d’informations pertinentes pour la détection de changements. En particulier, ils sont appliqués indépendamment sur les deux images et donc ne tiennent pas compte des relations fortes existant entre les deux images. L’objectif de cette thèse est de développer des méthodes de détection de changements qui exploitent au mieux l’information contenue dans une paire d’images observées, sans condition sur leur modalité et leurs résolutions spatiale et spectrale. Les restrictions classiquement imposées dans l’état de l’art sont levées grâce à une approche utilisant la fusion des deux images observées. La première stratégie proposée s’applique au cas d’images de modalités identiques mais de résolutions différentes. Elle se décompose en trois étapes. La première étape consiste à fusionner les deux images observées ce qui conduit à une image de la scène à haute résolution portant l’information des changements éventuels. La deuxième étape réalise la prédiction de deux images non observées possédant des résolutions identiques à celles des images observées par dégradation spatiale et spectrale de l’image fusionnée. Enfin, la troisième étape consiste en une détection de changements classique entre images observées et prédites de mêmes résolutions. Une deuxième stratégie modélise les images observées comme des versions dégradées de deux images non observées caractérisées par des résolutions spectrales et spatiales identiques et élevées. Elle met en œuvre une étape de fusion robuste qui exploite un a priori de parcimonie des changements observés. Enfin, le principe de la fusion est étendu à des images de modalités différentes. Dans ce cas où les pixels ne sont pas directement comparables, car correspondant à des grandeurs physiques différentes, la comparaison est réalisée dans un domaine transformé. Les deux images sont représentées par des combinaisons linéaires parcimonieuses des éléments de deux dictionnaires couplés, appris à partir des données. La détection de changements est réalisée à partir de l’estimation d’un code couplé sous condition de parcimonie spatiale de la différence des codes estimés pour chaque image. L’expérimentation de ces différentes méthodes, conduite sur des changements simulés de manière réaliste ou sur des changements réels, démontre les avantages des méthodes développées et plus généralement de l’apport de la fusion pour la détection de changements
2

Détection de changement par fusion d'images de télédétection de résolutions et modalités différentes / Fusion-based change detection for ng images of differemote sensirent resolutions and modalities

Ferraris, Vinicius 26 October 2018 (has links)
La détection de changements dans une scène est l’un des problèmes les plus complexes en télédétection. Il s’agit de détecter des modifications survenues dans une zone géographique donnée par comparaison d’images de cette zone acquises à différents instants. La comparaison est facilitée lorsque les images sont issues du même type de capteur c’est-à-dire correspondent à la même modalité (le plus souvent optique multi-bandes) et possèdent des résolutions spatiales et spectrales identiques. Les techniques de détection de changements non supervisées sont, pour la plupart, conçues spécifiquement pour ce scénario. Il est, dans ce cas, possible de comparer directement les images en calculant la différence de pixels homologues, c’est-à-dire correspondant au même emplacement au sol. Cependant, dans certains cas spécifiques tels que les situations d’urgence, les missions ponctuelles, la défense et la sécurité, il peut s’avérer nécessaire d’exploiter des images de modalités et de résolutions différentes. Cette hétérogénéité dans les images traitées introduit des problèmes supplémentaires pour la mise en œuvre de la détection de changements. Ces problèmes ne sont pas traités par la plupart des méthodes de l’état de l’art. Lorsque la modalité est identique mais les résolutions différentes, il est possible de se ramener au scénario favorable en appliquant des prétraitements tels que des opérations de rééchantillonnage destinées à atteindre les mêmes résolutions spatiales et spectrales. Néanmoins, ces prétraitements peuvent conduire à une perte d’informations pertinentes pour la détection de changements. En particulier, ils sont appliqués indépendamment sur les deux images et donc ne tiennent pas compte des relations fortes existant entre les deux images. L’objectif de cette thèse est de développer des méthodes de détection de changements qui exploitent au mieux l’information contenue dans une paire d’images observées, sans condition sur leur modalité et leurs résolutions spatiale et spectrale. Les restrictions classiquement imposées dans l’état de l’art sont levées grâce à une approche utilisant la fusion des deux images observées. La première stratégie proposée s’applique au cas d’images de modalités identiques mais de résolutions différentes. Elle se décompose en trois étapes. La première étape consiste à fusionner les deux images observées ce qui conduit à une image de la scène à haute résolution portant l’information des changements éventuels. La deuxième étape réalise la prédiction de deux images non observées possédant des résolutions identiques à celles des images observées par dégradation spatiale et spectrale de l’image fusionnée. Enfin, la troisième étape consiste en une détection de changements classique entre images observées et prédites de mêmes résolutions. Une deuxième stratégie modélise les images observées comme des versions dégradées de deux images non observées caractérisées par des résolutions spectrales et spatiales identiques et élevées. Elle met en œuvre une étape de fusion robuste qui exploite un a priori de parcimonie des changements observés. Enfin, le principe de la fusion est étendu à des images de modalités différentes. Dans ce cas où les pixels ne sont pas directement comparables, car correspondant à des grandeurs physiques différentes, la comparaison est réalisée dans un domaine transformé. Les deux images sont représentées par des combinaisons linéaires parcimonieuses des éléments de deux dictionnaires couplés, appris à partir des données. La détection de changements est réalisée à partir de l’estimation d’un code couplé sous condition de parcimonie spatiale de la différence des codes estimés pour chaque image. L’expérimentation de ces différentes méthodes, conduite sur des changements simulés de manière réaliste ou sur des changements réels, démontre les avantages des méthodes développées et plus généralement de l’apport de la fusion pour la détection de changements / Change detection is one of the most challenging issues when analyzing remotely sensed images. It consists in detecting alterations occurred in a given scene from between images acquired at different times. Archetypal scenarios for change detection generally compare two images acquired through the same kind of sensor that means with the same modality and the same spatial/spectral resolutions. In general, unsupervised change detection techniques are constrained to two multiband optical images with the same spatial and spectral resolution. This scenario is suitable for a straight comparison of homologous pixels such as pixel-wise differencing. However, in somespecific cases such as emergency situations, punctual missions, defense and security, the only available images may be of different modalities and of different resolutions. These dissimilarities introduce additional issues in the context of operational change detection that are not addressedby most classical methods. In the case of same modality but different resolutions, state-of-the artmethods come down to conventional change detection methods after preprocessing steps appliedindependently on the two images, e.g. resampling operations intended to reach the same spatialand spectral resolutions. Nevertheless, these preprocessing steps may waste relevant informationsince they do not take into account the strong interplay existing between the two images. The purpose of this thesis is to study how to more effectively use the available information to work with any pair of observed images, in terms of modality and resolution, developing practicalcontributions in a change detection context. The main hypothesis for developing change detectionmethods, overcoming the weakness of classical methods, is through the fusion of observed images. In this work we demonstrated that if one knows how to properly fuse two images, it is also known how to detect changes between them. This strategy is initially addressed through a change detection framework based on a 3-step procedure: fusion, prediction and detection. Then, the change detection task, benefiting from a joint forward model of two observed images as degradedversions of two (unobserved) latent images characterized by the same high spatial and highspectral resolutions, is envisioned through a robust fusion task which enforces the differencesbetween the estimated latent images to be spatially sparse. Finally, the fusion problem isextrapolated to multimodal images. As the fusion product may not be a real quantity, the process is carried out by modelling both images as sparse linear combinations of an overcomplete pair of estimated coupled dictionaries. Thus, the change detection task is envisioned through a dual code estimation which enforces spatial sparsity in the difference between the estimated codes corresponding to each image. Experiments conducted in simulated realistically and real changes illustrate the advantages of the developed method, both qualitatively and quantitatively, proving that the fusion hypothesis is indeed a real and effective way to deal with change detection
3

Fusion d'images optique et radar à haute résolution pour la mise à jour de bases de données cartographiques / Fusion of high resolution optical and SAR images to update cartographic databases

Poulain, Vincent 22 October 2010 (has links)
Cette thèse se situe dans le cadre de l'interprétation d'images satellite à haute résolution, et concerne plus spécifiquement la mise à jour de bases de données cartographiques grâce à des images optique et radar à haute résolution. Cette étude présente une chaîne de traitement générique pour la création ou la mise à jour de bases de données représentant les routes ou les bâtiments en milieu urbain. En fonction des données disponibles, différents scénarios sont envisagés. Le traitement est effectué en deux étapes. D'abord nous cherchons les objets qui doivent être retirés de la base de données. La seconde étape consiste à rechercher dans les images de nouveaux objets à ajouter dans la base de données. Pour réaliser ces deux étapes, des descripteurs sont construits dans le but de caractériser les objets d'intérêt dans les images d'entrée. L'inclusion ou élimination des objets dans la base de données est basée sur un score obtenu après fusion des descripteurs dans le cadre de la théorie de Dempster-Shafer. Les résultats présentés dans cette thèse illustrent l'intérêt d'une fusion multi-capteurs. De plus l'intégration aisée de nouveaux descripteurs permet à la chaîne d'être améliorable et adaptable à d'autres objets. / This work takes place in the framework of high resolution remote sensing image analysis. It focuses on the issue of cartographic database creation or updating with optical and SAR images. The goal of this work is to build a generic processing chain to update or create a cartographic database representing roads and buildings in built-up areas. According to available data, various scenarios are foreseen. The proposed processing chain is composed of two steps. First, if a database is available, the presence of each database object is checked in the images. The second step consist of looking for new objects that should be included in the database. To determine if an object should be present in the updated database, relevant features are extracted from images in the neighborhood of the considered object. Those features are based on caracteristics of roads and buildings in SAR and optical images. The object removal/inclusion in the DB is based on a score obtained by the fusion of features in the framework of the Dempster-Shafer evidence theory. Results highlight the interest of multi sensor fusion. Moreover the chosen framework allows the easy integration of new features in the processing chain.

Page generated in 0.0561 seconds