• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 10
  • 5
  • 1
  • Tagged with
  • 14
  • 6
  • 5
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Détection de changement par fusion d'images de télédétection de résolutions et modalités différentes

Ferraris, Vinicius 26 October 2018 (has links) (PDF)
La détection de changements dans une scène est l’un des problèmes les plus complexes en télédétection. Il s’agit de détecter des modifications survenues dans une zone géographique donnée par comparaison d’images de cette zone acquises à différents instants. La comparaison est facilitée lorsque les images sont issues du même type de capteur c’est-à-dire correspondent à la même modalité (le plus souvent optique multi-bandes) et possèdent des résolutions spatiales et spectrales identiques. Les techniques de détection de changements non supervisées sont, pour la plupart, conçues spécifiquement pour ce scénario. Il est, dans ce cas, possible de comparer directement les images en calculant la différence de pixels homologues, c’est-à-dire correspondant au même emplacement au sol. Cependant, dans certains cas spécifiques tels que les situations d’urgence, les missions ponctuelles, la défense et la sécurité, il peut s’avérer nécessaire d’exploiter des images de modalités et de résolutions différentes. Cette hétérogénéité dans les images traitées introduit des problèmes supplémentaires pour la mise en œuvre de la détection de changements. Ces problèmes ne sont pas traités par la plupart des méthodes de l’état de l’art. Lorsque la modalité est identique mais les résolutions différentes, il est possible de se ramener au scénario favorable en appliquant des prétraitements tels que des opérations de rééchantillonnage destinées à atteindre les mêmes résolutions spatiales et spectrales. Néanmoins, ces prétraitements peuvent conduire à une perte d’informations pertinentes pour la détection de changements. En particulier, ils sont appliqués indépendamment sur les deux images et donc ne tiennent pas compte des relations fortes existant entre les deux images. L’objectif de cette thèse est de développer des méthodes de détection de changements qui exploitent au mieux l’information contenue dans une paire d’images observées, sans condition sur leur modalité et leurs résolutions spatiale et spectrale. Les restrictions classiquement imposées dans l’état de l’art sont levées grâce à une approche utilisant la fusion des deux images observées. La première stratégie proposée s’applique au cas d’images de modalités identiques mais de résolutions différentes. Elle se décompose en trois étapes. La première étape consiste à fusionner les deux images observées ce qui conduit à une image de la scène à haute résolution portant l’information des changements éventuels. La deuxième étape réalise la prédiction de deux images non observées possédant des résolutions identiques à celles des images observées par dégradation spatiale et spectrale de l’image fusionnée. Enfin, la troisième étape consiste en une détection de changements classique entre images observées et prédites de mêmes résolutions. Une deuxième stratégie modélise les images observées comme des versions dégradées de deux images non observées caractérisées par des résolutions spectrales et spatiales identiques et élevées. Elle met en œuvre une étape de fusion robuste qui exploite un a priori de parcimonie des changements observés. Enfin, le principe de la fusion est étendu à des images de modalités différentes. Dans ce cas où les pixels ne sont pas directement comparables, car correspondant à des grandeurs physiques différentes, la comparaison est réalisée dans un domaine transformé. Les deux images sont représentées par des combinaisons linéaires parcimonieuses des éléments de deux dictionnaires couplés, appris à partir des données. La détection de changements est réalisée à partir de l’estimation d’un code couplé sous condition de parcimonie spatiale de la différence des codes estimés pour chaque image. L’expérimentation de ces différentes méthodes, conduite sur des changements simulés de manière réaliste ou sur des changements réels, démontre les avantages des méthodes développées et plus généralement de l’apport de la fusion pour la détection de changements
2

Caractérisation multispectrale imageante du champ de lumière de sources et de matériaux pour la photosimulation

Boulenguez, Pierre 04 January 2010 (has links) (PDF)
Dans l'ouvrage [DBB06], Dutré et al. énumèrent dix problèmes d'Illumination Globale non résolus. Parmi ceux-ci, huit sont liés à la mesure et à l'intégration de données réelles dans les simulations. Cette thèse, en quatre parties et trois annexes, s'intéresse à cette problématique. Tout d'abord, les simulations de la propagation de la lumière dans les domaines du rendu physiquement réaliste, de l'éclairage, de la télédétection, de la conception de systèmes optiques... sont envisagées comme résolutions numériques d'un problème d'optique, fédérées par la notion de " photosimulation ". Dans le cadre de l'équation de rendu, les modèles réalistes de sources et le principe de la mesure goniophotométrique en champ lointain sont alors rappelés. La représentation des interactions lumière-matière est ensuite introduite par une exploration de l'apparence macroscopique, qui amène au rappel de la Fonction de Distribution de la Réflectance Bidirectionnelle et Spectrale (SBRDF), de ses principales propriétés et modèles. Le problème de la mesure pratique de la SBRDF d'une surface dans le visible est ensuite exploré. Id est, une taxonomie des méthodes de la littérature est établie ; qui allègue en faveur du développement de nouvelles approches. Un dispositif innovant, multispectral imageant, est alors présenté. Il se fonde sur la capture de la projection de la SBRDF sur un écran lambertien 3/4-sphérique, par une caméra multispectrale grand angle, assemblage d'un objectif fisheye, d'un filtre dynamique LCTF et d'une caméra CCD 12 bits. L'extraction des images capturées de l'information de la SBRDF repose sur un modéle radiométrique, qui explicite la transformation de la lumière en niveaux des pixels, dans le formalisme physique. Ce modèle soulève des problèmes de reconstruction multispectrale et d'interréflexions, pour lesquels de nouveaux algorithmes de résolution sont implantés. Les mesures de SBRDF produites semblent très prometteuses. Dans la troisième partie, le problème de la reconstruction d'une fonction directionnelle, identifié comme fondamental en photosimulation, est traité dans le cadre de la reconstruction de SBRDF discrètes. Pour cela, les propriétés mathématiques souhaitables des fonctions reconstruites sont envisagées. Puis, à l'aune de ce corpus, les approches de la littérature sont discutées ; justifiant la recherche d'algorithmes plus performants. Une nouvelle méthode est alors proposée, fondée sur une double triangulation sphérique des échantillons, et une généralisation à la surface d'un triangle sphérique de l'interpolant spline cubique de Hermite. La fonction reconstruite est interpolante, dérivable, quasi-déterministe, ne présente pas l'artéfact bidirectionnel, intègre la métrique sphérique non euclidienne, et prend en compte le difficile problème du masquage. Qualitativement comme quantitativement, les résultats obtenus semblent plaider en faveur du surcroît de complexité théorique qu'induit cette approche. Dans la dernière partie, cet algorithme de reconstruction est appliqué au problème de la " photométrie en champ proche ", ou, la caractérisation d'une source réelle par un solide photométrique étendu. La supériorité théorique du modèle étendu est d'abord démontrée. Puis, un état de l'art de la photométrie en champ proche est réalisé ; justifiant la mise en œuvre d'une nouvelle approche. Un nouveau dispositif est alors présenté. Il repose sur le déplacement d'un vidéoluminancemètre, couplage original d'une caméra CCD 12 bits avec un luxmètre, le long d'une trajectoire hémisphérique relative à la source. Les procédures de calibrage de l'instrument - géométrique, radiométrique, et photométrique - sont explicitées. Les sources de lumière caractérisées par cette approche ont été jugées suffisamment probantes pour être intégrées aux photosimulations spectrales du CSTB
3

Supraconductivité Multibande dans les composés à Fermions Lourds PrOs4Sb12 et CeCoIn5

Seyfarth, Gabriel 21 December 2006 (has links) (PDF)
Dans cette thèse, nous présentons des mesures de conductivité thermique (κ) dans les supraconducteurs à fermions lourds PrOs4Sb12 (Tc~1.75K) et<br />CeCoIn5 (Tc~2.35K). Après une courte<br />introduction aux composés, nous décrivons notre technique expérimentale, qui a permis des mesures fiables jusqu'à 10mK et dans un champ magnétique allant jusqu'à 6.5T. Le développement d'une méthode de<br />caractérisation (quantitative) des résistances de contact<br />électriques et thermiques du montage constitue une partie originale de ce travail.<br /><br />Une forte augmentation de κ avec le champ à basse température dans PrOs4Sb12 et CeCoIn5 révèle l'existence d'une échelle de champ caractéristique beaucoup plus faible que Hc2. Cette haute sensibilité au champ de κ ne correspond ni aux prédictions pour un supraconducteur ordinaire de type II ni au cas où le gap présente des nœuds, mais souligne plutôt le caractère multibande de la supraconductivité, comme dans MgB2. En outre, dans Pr PrOs4Sb12, la dépendance en<br />température de κ indique des gaps complètement ouverts sur toute la surface de Fermi, alors que dans CeCoIn5 la suppression de diffusions inélastiques rend impossible une conclusion sur la topologie du gap.
4

Analyse des effets atmosphériques dans les données en télédétection du moyen infrarouge sur la classification des minéraux de surface en milieu aride

Nadeau, Christian. January 2000 (has links)
Thèses (M.Sc.)--Université de Sherbrooke (Canada), 2000. / Titre de l'écran-titre (visionné le 17 juillet 2006). Publié aussi en version papier.
5

Caractérisation multispectrale imageante du champ de lumière de sources et de matériaux pour la photosimulation / Multispectral imaging assesment of sources and materials for photosimulation

Boulenguez, Pierre 04 January 2010 (has links)
Dans l'ouvrage [DBB06], Dutré et al. énumèrent dix problèmes d'Illumination Globale non résolus. Parmi ceux-ci, huit sont liés à la mesure et à l'intégration de données réelles dans les simulations. Cette thèse, en quatre parties et trois annexes, s'intéresse à cette problématique. Tout d'abord, les simulations de la propagation de la lumière dans les domaines du rendu physiquement réaliste, de l'éclairage, de la télédétection, de la conception de systèmes optiques... sont envisagées comme résolutions numériques d'un problème d'optique, fédérées par la notion de « photosimulation ». Dans le cadre de l'équation de rendu, les modèles réalistes de sources et le principe de la mesure goniophotométrique en champ lointain sont alors rappelés. La représentation des interactions lumière-matière est ensuite introduite par une exploration de l'apparence macroscopique, qui amène au rappel de la Fonction de Distribution de la Réflectance Bidirectionnelle et Spectrale (SBRDF), de ses principales propriétés et modèles. Le problème de la mesure pratique de la SBRDF d'une surface dans le visible est ensuite exploré. Id est, une taxonomie des méthodes de la littérature est établie ; qui allègue en faveur du développement de nouvelles approches. Un dispositif innovant, multispectral imageant, est alors présenté. Il se fonde sur la capture de la projection de la SBRDF sur un écran lambertien 3/4-sphérique, par une caméra multispectrale grand angle, assemblage d'un objectif fisheye, d'un filtre dynamique LCTF et d'une caméra CCD 12 bits. L'extraction des images capturées de l'information de la SBRDF repose sur un modéle radiométrique, qui explicite la transformation de la lumière en niveaux des pixels, dans le formalisme physique. Ce modèle soulève des problèmes de reconstruction multispectrale et d'interréflexions, pour lesquels de nouveaux algorithmes de résolution sont implantés. Les mesures de SBRDF produites semblent très prometteuses. Dans la troisième partie, le problème de la reconstruction d'une fonction directionnelle, identifié comme fondamental en photosimulation, est traité dans le cadre de la reconstruction de SBRDF discrètes. Pour cela, les propriétés mathématiques souhaitables des fonctions reconstruites sont envisagées. Puis, à l'aune de ce corpus, les approches de la littérature sont discutées ; justifiant la recherche d'algorithmes plus performants. Une nouvelle méthode est alors proposée, fondée sur une double triangulation sphérique des échantillons, et une généralisation à la surface d'un triangle sphérique de l'interpolant spline cubique de Hermite. La fonction reconstruite est interpolante, dérivable, quasi-déterministe, ne présente pas l'artéfact bidirectionnel, intègre la métrique sphérique non euclidienne, et prend en compte le difficile problème du masquage. Qualitativement comme quantitativement, les résultats obtenus semblent plaider en faveur du surcroît de complexité théorique qu'induit cette approche. Dans la dernière partie, cet algorithme de reconstruction est appliqué au problème de la « photométrie en champ proche », ou, la caractérisation d'une source réelle par un solide photométrique étendu. La supériorité théorique du modèle étendu est d'abord démontrée. Puis, un état de l'art de la photométrie en champ proche est réalisé ; justifiant la mise en œuvre d'une nouvelle approche. Un nouveau dispositif est alors présenté. Il repose sur le déplacement d'un vidéoluminancemètre, couplage original d'une caméra CCD 12 bits avec un luxmètre, le long d'une trajectoire hémisphérique relative à la source. Les procédures de calibrage de l'instrument – géométrique, radiométrique, et photométrique – sont explicitées. Les sources de lumière caractérisées par cette approche ont été jugées suffisamment probantes pour être intégrées aux photosimulations spectrales du CSTB / Pas de résumé en anglais
6

Détection de changement par fusion d'images de télédétection de résolutions et modalités différentes / Fusion-based change detection for ng images of differemote sensirent resolutions and modalities

Ferraris, Vinicius 26 October 2018 (has links)
La détection de changements dans une scène est l’un des problèmes les plus complexes en télédétection. Il s’agit de détecter des modifications survenues dans une zone géographique donnée par comparaison d’images de cette zone acquises à différents instants. La comparaison est facilitée lorsque les images sont issues du même type de capteur c’est-à-dire correspondent à la même modalité (le plus souvent optique multi-bandes) et possèdent des résolutions spatiales et spectrales identiques. Les techniques de détection de changements non supervisées sont, pour la plupart, conçues spécifiquement pour ce scénario. Il est, dans ce cas, possible de comparer directement les images en calculant la différence de pixels homologues, c’est-à-dire correspondant au même emplacement au sol. Cependant, dans certains cas spécifiques tels que les situations d’urgence, les missions ponctuelles, la défense et la sécurité, il peut s’avérer nécessaire d’exploiter des images de modalités et de résolutions différentes. Cette hétérogénéité dans les images traitées introduit des problèmes supplémentaires pour la mise en œuvre de la détection de changements. Ces problèmes ne sont pas traités par la plupart des méthodes de l’état de l’art. Lorsque la modalité est identique mais les résolutions différentes, il est possible de se ramener au scénario favorable en appliquant des prétraitements tels que des opérations de rééchantillonnage destinées à atteindre les mêmes résolutions spatiales et spectrales. Néanmoins, ces prétraitements peuvent conduire à une perte d’informations pertinentes pour la détection de changements. En particulier, ils sont appliqués indépendamment sur les deux images et donc ne tiennent pas compte des relations fortes existant entre les deux images. L’objectif de cette thèse est de développer des méthodes de détection de changements qui exploitent au mieux l’information contenue dans une paire d’images observées, sans condition sur leur modalité et leurs résolutions spatiale et spectrale. Les restrictions classiquement imposées dans l’état de l’art sont levées grâce à une approche utilisant la fusion des deux images observées. La première stratégie proposée s’applique au cas d’images de modalités identiques mais de résolutions différentes. Elle se décompose en trois étapes. La première étape consiste à fusionner les deux images observées ce qui conduit à une image de la scène à haute résolution portant l’information des changements éventuels. La deuxième étape réalise la prédiction de deux images non observées possédant des résolutions identiques à celles des images observées par dégradation spatiale et spectrale de l’image fusionnée. Enfin, la troisième étape consiste en une détection de changements classique entre images observées et prédites de mêmes résolutions. Une deuxième stratégie modélise les images observées comme des versions dégradées de deux images non observées caractérisées par des résolutions spectrales et spatiales identiques et élevées. Elle met en œuvre une étape de fusion robuste qui exploite un a priori de parcimonie des changements observés. Enfin, le principe de la fusion est étendu à des images de modalités différentes. Dans ce cas où les pixels ne sont pas directement comparables, car correspondant à des grandeurs physiques différentes, la comparaison est réalisée dans un domaine transformé. Les deux images sont représentées par des combinaisons linéaires parcimonieuses des éléments de deux dictionnaires couplés, appris à partir des données. La détection de changements est réalisée à partir de l’estimation d’un code couplé sous condition de parcimonie spatiale de la différence des codes estimés pour chaque image. L’expérimentation de ces différentes méthodes, conduite sur des changements simulés de manière réaliste ou sur des changements réels, démontre les avantages des méthodes développées et plus généralement de l’apport de la fusion pour la détection de changements / Change detection is one of the most challenging issues when analyzing remotely sensed images. It consists in detecting alterations occurred in a given scene from between images acquired at different times. Archetypal scenarios for change detection generally compare two images acquired through the same kind of sensor that means with the same modality and the same spatial/spectral resolutions. In general, unsupervised change detection techniques are constrained to two multiband optical images with the same spatial and spectral resolution. This scenario is suitable for a straight comparison of homologous pixels such as pixel-wise differencing. However, in somespecific cases such as emergency situations, punctual missions, defense and security, the only available images may be of different modalities and of different resolutions. These dissimilarities introduce additional issues in the context of operational change detection that are not addressedby most classical methods. In the case of same modality but different resolutions, state-of-the artmethods come down to conventional change detection methods after preprocessing steps appliedindependently on the two images, e.g. resampling operations intended to reach the same spatialand spectral resolutions. Nevertheless, these preprocessing steps may waste relevant informationsince they do not take into account the strong interplay existing between the two images. The purpose of this thesis is to study how to more effectively use the available information to work with any pair of observed images, in terms of modality and resolution, developing practicalcontributions in a change detection context. The main hypothesis for developing change detectionmethods, overcoming the weakness of classical methods, is through the fusion of observed images. In this work we demonstrated that if one knows how to properly fuse two images, it is also known how to detect changes between them. This strategy is initially addressed through a change detection framework based on a 3-step procedure: fusion, prediction and detection. Then, the change detection task, benefiting from a joint forward model of two observed images as degradedversions of two (unobserved) latent images characterized by the same high spatial and highspectral resolutions, is envisioned through a robust fusion task which enforces the differencesbetween the estimated latent images to be spatially sparse. Finally, the fusion problem isextrapolated to multimodal images. As the fusion product may not be a real quantity, the process is carried out by modelling both images as sparse linear combinations of an overcomplete pair of estimated coupled dictionaries. Thus, the change detection task is envisioned through a dual code estimation which enforces spatial sparsity in the difference between the estimated codes corresponding to each image. Experiments conducted in simulated realistically and real changes illustrate the advantages of the developed method, both qualitatively and quantitatively, proving that the fusion hypothesis is indeed a real and effective way to deal with change detection
7

Développement d’un modèle d’analyse de texture multibande / New model for multiband texture analysis

Safia, Abdelmounaime January 2014 (has links)
Résumé : En télédétection, la texture facilite l’identification des classes de surfaces sur des critères de similitude d’organisation spatiale des pixels. Les méthodes d’analyse texturale utilisées en télédétection et en traitement d’image en général sont principalement proposées pour extraire la texture dans une seule bande à la fois. Pour les images multispectrales, ceci revient à extraire la texture dans chaque bande spectrale séparément. Cette stratégie ignore la dépendance qui existe entre la texture des différentes bandes (texture inter-bande) qui peut être une source d’information additionnelle aux côtés de l’information texturale classique intra-bande. La prise en charge de la texture multibande (intra- et inter-bande) engendre une complexité calculatoire importante. Dans sa recherche de solution pour l’analyse de la texture multibande, ce projet de thèse revient vers les aspects fondamentaux de l’analyse de la texture, afin de proposer un modèle de texture qui possède intrinsèquement une complexité calculatoire réduite, et cela indépendamment de l’aspect multibande de la texture. Une solution pour la texture multibande est ensuite greffée sur ce nouveau modèle, de manière à lui permettre d’hériter de sa complexité calculatoire réduite. La première partie de ce projet de recherche introduit donc un nouveau modèle l’analyse de texture appelé modèle d’unité texturale compacte (en anglais : Compact Texture Unit, C-TU). Le C-TU prend comme point de départ le modèle de spectre de texture et propose une réduction significative de sa complexité. Cette réduction est atteinte en proposant une solution générale pour une codification de la texture avec la seule information d’occurrence, sans l’information structurelle. En prenant avantage de la grande efficacité calculatoire du modèle de C-TU développé, un nouvel indice qui analyse la texture multibande comme un ensemble indissociable d’interactions spatiales intra- et inter-bandes est proposé. Cet indice, dit C-TU multibande, utilise la notion de voisinage multibande afin de comparer le pixel central avec ses voisins dans la même bande et avec ceux des autres bandes spectrales. Ceci permet à l’indice de C-TU multibande d’extraire la texture de plusieurs bandes simultanément. Finalement, une nouvelle base de données de textures couleurs multibandes est proposée, pour une validation des méthodes texturales multibandes. Une série de tests visant principalement à évaluer la qualité discriminante des solutions proposées a été conduite. L’ensemble des résultats obtenus dont nous faisons rapport ici confirme que le modèle de C-TU proposé ainsi que sa version multibande sont des outils performants pour l’analyse de la texture en télédétection et en traitement d’images en général. Les tests ont également démontré que la nouvelle base de données de textures multibande possède toutes les caractéristiques nécessaires pour être utilisée en validation des méthodes de texture multibande. // Abstract : In multispectral images, texture is typically extracted independently in each band using existing grayscale texture methods. However, reducing texture of multispectral images into a set of independent grayscale texture ignores inter-band spatial interactions which can be a valuable source of information. The main obstacle for characterizing texture as intra- and inter-band spatial interactions is that the required calculations are cumbersome. In the first part of this PhD thesis, a new texture model named the Compact Texture Unit (C-TU) model was proposed. The C-TU model is a general solution for the texture spectrum model, in order to decrease its computational complexity. This simplification comes from the fact that the C-TU model characterizes texture using only statistical information, while the texture spectrum model uses both statistical and structural information. The proposed model was evaluated using a new monoband C-TU descriptor in the context of texture classification and image retrieval. Results showed that the monoband C-TU descriptor that uses the proposed C-TU model provides performances equivalent to those delivered by the texture spectrum model but with much more lower complexity. The calculation efficiency of the proposed C-TU model is exploited in the second part of this thesis in order to propose a new descriptor for multiband texture characterization. This descriptor, named multiband C-TU, extracts texture as a set of intra- and inter-band spatial interactions simultaneously. The multiband C-TU descriptor is very simple to extract and computationally efficient. The proposed descriptor was compared with three strategies commonly adopted in remote sensing. The first is extracting texture using panchromatic data; the second is extracting texture separately from few newbands obtained by principal components transform; and the third is extracting texture separately in each spectral band. These strategies were applied using cooccurrence matrix and monoband compact texture descriptors. For all experiments, the proposed descriptor provided the best results. In the last part of this thesis, a new color texture images database is developed, named Multiband Brodatz Texture database. Images from this database have two important characteristics. First, their chromatic content, even if it is rich, does not have discriminative value, yet it contributes to form texture. Second, their textural content is characterized by high intra- and inter-band variation. These two characteristics make this database ideal for multiband texture analysis without the influence of color information.
8

Apports de la texture multibande dans la classification orientée-objets d'images multisources (optique et radar). / Contributions of texture "multiband" in object-oriented classification of multisource imagery (optics and radar).

Mondésir, Jacques Philémon January 2016 (has links)
Résumé : La texture dispose d’un bon potentiel discriminant qui complète celui des paramètres radiométriques dans le processus de classification d’image. L’indice Compact Texture Unit (CTU) multibande, récemment mis au point par Safia et He (2014), permet d’extraire la texture sur plusieurs bandes à la fois, donc de tirer parti d’un surcroît d’informations ignorées jusqu’ici dans les analyses texturales traditionnelles : l’interdépendance entre les bandes. Toutefois, ce nouvel outil n’a pas encore été testé sur des images multisources, usage qui peut se révéler d’un grand intérêt quand on considère par exemple toute la richesse texturale que le radar peut apporter en supplément à l’optique, par combinaison de données. Cette étude permet donc de compléter la validation initiée par Safia (2014) en appliquant le CTU sur un couple d’images optique-radar. L’analyse texturale de ce jeu de données a permis de générer une image en « texture couleur ». Ces bandes texturales créées sont à nouveau combinées avec les bandes initiales de l’optique, avant d’être intégrées dans un processus de classification de l’occupation du sol sous eCognition. Le même procédé de classification (mais sans CTU) est appliqué respectivement sur : la donnée Optique, puis le Radar, et enfin la combinaison Optique-Radar. Par ailleurs le CTU généré sur l’Optique uniquement (monosource) est comparé à celui dérivant du couple Optique-Radar (multisources). L’analyse du pouvoir séparateur de ces différentes bandes à partir d’histogrammes, ainsi que l’outil matrice de confusion, permet de confronter la performance de ces différents cas de figure et paramètres utilisés. Ces éléments de comparaison présentent le CTU, et notamment le CTU multisources, comme le critère le plus discriminant ; sa présence rajoute de la variabilité dans l’image permettant ainsi une segmentation plus nette, une classification à la fois plus détaillée et plus performante. En effet, la précision passe de 0.5 avec l’image Optique à 0.74 pour l’image CTU, alors que la confusion diminue en passant de 0.30 (dans l’Optique) à 0.02 (dans le CTU). / Abstract : Texture has a good discriminating power which complements the radiometric parameters in the image classification process. The index Compact Texture Unit multiband, recently developed by Safia and He (2014), allows to extract texture from several bands at a time, so taking advantage of extra information not previously considered in the traditional textural analysis: the interdependence between bands. However, this new tool has not yet been tested on multi-source images, use that could be an interesting added-value considering, for example, all the textural richness the radar can provide in addition to optics, by combining data. This study allows to complete validation initiated by Safia (2014), by applying the CTU on an optics-radar dataset. The textural analysis of this multisource data allowed to produce a "color texture" image. These newly created textural bands are again combined with the initial optical bands before their use in a classification process of land cover in eCognition. The same classification process (but without CTU) was applied respectively to: Optics data, then Radar, finally on the Optics-Radar combination. Otherwise, the CTU generated on the optics separately (monosource) was compared to CTU arising from Optical-Radar couple (multisource). The analysis of the separating power of these different bands (radiometric and textural) with histograms, and the confusion matrix tool allows to compare the performance of these different scenarios and classification parameters. These comparators show the CTU, including the CTU multisource, as the most discriminating criterion; his presence adds variability in the image thus allowing a clearer segmentation (homogeneous and non-redundant), a classification both more detailed and more efficient. Indeed, the accuracy changes from 0.5 with the Optics image to 0.74 for the CTU image while confusion decreases from 0.30 (in Optics) to 0.02 (in the CTU).
9

Etude théorique de l'état de vortex dans de nouveaux supraconducteurs: MgB2 et PrOs4Sb12

Dao, Vu Hung 17 January 2006 (has links) (PDF)
La thèse illustre les influences combinées des anisotropies du gap et du cristal sur les propriétés supraconductrices sous champ magnétique. Afin de décrire la supraconductivité multibande de MgB2, nous dérivons la fonctionnelle de Ginzburg-Landau pour un supraconducteur à deux gaps à partir d'un modèle BCS de couplage faible. L'interaction entre condensats est ainsi décrite par un unique couplage de type Josephson. La théorie à deux gaps permet alors d'expliquer la courbure et l'anisotropie du deuxième champ critique, et la rotation de 30° du réseau de vortex accompagnant l'augmentation du champ magnétique appliqué le long de l'axe c. Par ailleurs, nous étudions la géométrie du réseau de vortex dans le fermion lourd PrOs4Sb12. La prise en compte des corrections non-locales, pour un supraconducteur à cristal Th-tétraédrique avec gap de type s, permet d'expliquer la déformation observée. Les résultats ab initio sur les structures de bandes confirment quantitativement notre analyse.
10

Imagerie multispectrale, vers une conception adaptée à la détection de cibles

Minet, Jean 01 December 2011 (has links) (PDF)
L'imagerie hyperspectrale, qui consiste à acquérir l'image d'une scène dans un grand nombre de bandes spectrales, permet de détecter des cibles là où l'imagerie couleur classique ne permettrait pas de conclure. Les imageurs hyperspectraux à acquisition séquentielle sont inadaptés aux applications de détection en temps réel. Dans cette thèse, nous proposons d'utiliser un imageur multispectral snapshot, capable d'acquérir simultanément un nombre réduit de bandes spectrales sur un unique détecteur matriciel. Le capteur offrant un nombre de pixels limité, il est nécessaire de réaliser un compromis en choisissant soigneusement le nombre et les profils spectraux des filtres de l'imageur afin d'optimiser la performance de détection. Dans cet objectif, nous avons développé une méthode de sélection de bandes qui peut être utilisée dans la conception d'imageurs multispectraux basés sur une matrice de filtres fixes ou accordables. Nous montrons, à partir d'images hyperspectrales issues de différentes campagnes de mesure, que la sélection des bandes spectrales à acquérir peut conduire à des imageurs multispectraux capables de détecter des cibles ou des anomalies avec une efficacité de détection proche de celle obtenue avec une résolution hyperspectrale. Nous développons conjointement un démonstrateur constitué d'une matrice de 4 filtres de Fabry-Perot accordables électroniquement en vue de son implantation sur un imageur multispectral snapshot agile. Ces filtres sont développés en technologie MOEMS (microsystèmes opto-électro-mécaniques) en partenariat avec l'Institut d'Electronique Fondamentale. Nous présentons le dimensionnement optique du dispositif ainsi qu'une étude de tolérancement qui a permis de valider sa faisabilité.

Page generated in 0.0818 seconds