• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 60
  • 31
  • 9
  • Tagged with
  • 98
  • 72
  • 57
  • 29
  • 22
  • 21
  • 14
  • 13
  • 13
  • 12
  • 12
  • 12
  • 12
  • 12
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Imagerie chimique et chimiométrie pour l'analyse des formes pharmaceutiques solides

Gendrin, Christelle 13 November 2008 (has links) (PDF)
En associant informations spectrale et spatiale, l'imagerie proche-infrarouge permet l'identification et la localisation des espèces chimiques. Chaque mesure génère un cube de données contenant des milliers de spectres qui doivent être traités pour une interprétation objective des analyses.<br />La première problématique est l'extraction des cartes de distributions des composés chimiques. Dans le premier cas, la composition du médicament est connue et les longueurs d'onde spécifiques des composés ou les spectres de référence sont utilisés pour extraire les cartes de distributions. L'étude des histogrammes et un schéma de segmentation utilisant l'algorithme "Watershed" sont ensuite proposés pour les caractériser. Dans un deuxième temps le cas ou aucun a priori n'est connu est étudié. L'extraction simultanée de la concentration et des spectres purs à partir de la matrice de mélange doit alors être effectuée. Plusieurs algorithmes sont comparés: NMF, BPSS, MCR-ALS and PMF, les outils de rotation ont aussi été introduits pour explorer le domaine de solutions et PMF se montre alors le plus précis pour l'extraction.<br />La deuxième problématique est la quantification du principe actif dans des comprimés. Une première étude menée sur des mélanges binaires révèle les difficultés de la quantification sans a priori. Il est démontré ensuite que la quantification est la plus précise lorsqu'une gamme d'échantillons de concentration connue est utilisée pour établir le modèle mathématique à l'aide de l'algorithme PLS, cependant si une librairie spectrale constituée des spectres de référence est construite, alors l'algorithme PLS-DA donne une information semi-quantitative.
22

Méthodes de détection parcimonieuses pour signaux faibles dans du bruit : application à des données hyperspectrales de type astrophysique

Paris, Silvia 04 October 2013 (has links) (PDF)
Cette thèse contribue à la recherche de méthodes de détection de signaux inconnus à très faible Rapport Signal-à-Bruit. Ce travail se concentre sur la définition, l'étude et la mise en œuvre de méthodes efficaces capables de discerner entre observations caractérisées seulement par du bruit de celles qui au contraire contiennent l'information d'intérêt supposée parcimonieuse. Dans la partie applicative, la pertinence de ces méthodes est évaluée sur des données hyperspectrales. Dans la première partie de ce travail, les principes à la base des tests statistiques d'hypothèses et un aperçu général sur les représentations parcimonieuses, l'estimation et la détection sont introduits. Dans la deuxième partie du manuscrit deux tests d'hypothèses statistiques sont proposés et étudiés, adaptés à la détection de signaux parcimonieux. Les performances de détection des tests sont comparés à celles de méthodes fréquentistes et Bayésiennes classiques. Conformément aux données tridimensionnelles considérées dans la partie applicative, et pour se rapprocher de scénarios plus réalistes impliquant des systèmes d'acquisition de données, les méthodes de détection proposées sont adaptées de façon à exploiter un modèle plus précis basé sur des dictionnaires qui prennent en compte l'effet d'étalement spatio-spectral de l'information causée par les fonctions d'étalement du point de l'instrument. Les tests sont finalement appliqués à des données astrophysiques massives de type hyperspectral dans le contexte du Multi Unit Spectroscopic Explorer de l'Observatoire Européen Austral.
23

Imagerie hyperspectrale par transformée de Fourier : limites de détection caractérisation des images et nouveaux concepts d'imagerie

Matallah, Noura 16 March 2011 (has links) (PDF)
L'imagerie hyperspectrale est maintenant très développée dans les applications de télédétection. Il y a principalement deux manières de construire les imageurs associés : la première méthode utilise un réseau et une fente, et l'image spectrale est acquise ligne par la ligne le long de la trajectoire du porteur. La seconde est basée sur le principe de la spectrométrie par transformée de Fourier (TF). Certains des systèmes utilisés sont construits de manière à enregistrer l'interférogramme de chaque point de la scène suivant le déplacement dans le champ. Le spectre de la lumière venant d'un point de la scène est alors calculé par la transformée de Fourier de son interférogramme. Les imageurs classiques basés sur des réseaux sont plus simples à réaliser et les données qu'ils fournissent sont souvent plus faciles à interpréter. Cependant, les spectro-imageurs par TF fournissent un meilleur rapport signal sur bruit si la source principale de bruit vient du détecteur.Dans la première partie de cette thèse, nous étudions l'influence de différents types de bruit sur les architectures classiques et TF afin d'identifier les conditions dans lesquelles ces dernières présentent un avantage. Nous étudions en particulier l'influence des bruits de détecteur, de photons, des fluctuations de gain et d'offset du détecteur et des propriétés de corrélation spatiale des fluctuations d'intensité du spectre mesuré. Dans la seconde partie, nous présentions la conception, la réalisation et les premiers résultats d'un imageur basé sur un interféromètre de Michelson à dièdres statique nommé DéSIIR (Démonstrateur de Spectro-Imagerie Infrarouge). Les premiers résultats montrent, qu'en mode spectromètre simultané, DéSIIR permet la restitution du spectre avec les spécifications requises dans le cadre des applications recherchées, c'est-à-dire détecter avec une résolution d environ 25 cm-1 un object de quelques degrés plus chaud que le fond de la scène et présentant une signature spectrale entre 3 et 5 juin. En mode spectromètre imageur, après recalage des images, il est possible de reconstruire le spectre de chaque point de la scène observée.
24

Fusion of hyperspectral and panchromatic images with very high spatial resolution / Fusion d'images panchromatiques et hyperspectrales à très haute résolution spatiale

Loncan, Laëtitia 26 October 2016 (has links)
Les méthodes standard de pansharpening visent à fusionner une image panchromatique avec une image multispectrale afin de générer une image possédant la haute résolution spatiale de la première et la haute résolution spectrale de la dernière. Durant la dernière décennie, beaucoup de méthodes de pansharpening utilisant des images multispectrales furent créées. Avec la disponibilité croissante d’images hyperspectrales, ces méthodes s’étendent maintenant au pansharpening hyperspectral, c’est-à-dire à la fusion d’une image panchromatique possédant une très bonne résolution spatiale avec une image hyperspectrale possédant une résolution spatiale plus faible. Toutefois les méthodes de pansharpening hyperspectrale issues de l’état de l’art ignorent souvent le problème des pixels mixtes. Le but de ses méthodes est de préserver l’information spectrale tout en améliorant l’information spatiale. Dans cette thèse, dans une première partie, nous présentons et analysons les méthodes de l’état de l’art afin de les analyser pour connaitre leurs performances et leurs limitations. Dans une seconde partie, nous présentons une approche qui s’occupe du cas des pixels mixtes en intégrant une étape pré-fusion pour les démélanger. Cette méthode améliore les résultats en ajoutant de l’information spectrale qui n’est pas présente dans l’image hyperspectrale à cause des pixels mixtes. Les performances de notre méthode sont évaluées sur différents jeux de données possédant des résolutions spatiales et spectrales différentes correspondant à des environnements différents. Notre méthode sera évaluée en comparaison avec les méthodes de l’état de l’art à une échelle globale et locale. / Standard pansharpening aims at fusing a panchromatic image with a multispectral image in order to synthesize an image with the high spatial resolution of the former and the spectral resolution of the latter. In the last decade many pansharpening algorithms have been presented in the literature using multispectral data. With the increasing availability of hyperspectral systems, these methods are now extending to hyperspectral pansharpening, i.e. the fusion of a panchromatic image with a high spatial resolution and a hyperspectral image with a coarser spatial resolution. However, state of the art hyperspectral pansharpening methods usually do not consider the problem of the mixed pixels. Their goal is solely to preserve the spectral information while adding spatial information. In this thesis, in a first part, we present the state-of-the-art methods and analysed them to identified there performances and limitations. In a second part, we present an approach to actually deal with mixed pixels as a pre-processing step before performing the fusion. This improves the result by adding missing spectral information that is not directly available in the hyperspectral image because of the mixed pixels. The performances of our proposed approach are assessed on different real data sets, with different spectral and spatial resolutions and corresponding to different contexts. They are compared qualitatively and quantitatively with state of the art methods, both at a global and a local scale.
25

Nonlinear unmixing of Hyperspectral images / Démélange non-linéaire d'images hyperspectrales

Altmann, Yoann 07 October 2013 (has links)
Le démélange spectral est un des sujets majeurs de l’analyse d’images hyperspectrales. Ce problème consiste à identifier les composants macroscopiques présents dans une image hyperspectrale et à quantifier les proportions (ou abondances) de ces matériaux dans tous les pixels de l’image. La plupart des algorithmes de démélange suppose un modèle de mélange linéaire qui est souvent considéré comme une approximation au premier ordre du mélange réel. Cependant, le modèle linéaire peut ne pas être adapté pour certaines images associées par exemple à des scènes engendrant des trajets multiples (forêts, zones urbaines) et des modèles non-linéaires plus complexes doivent alors être utilisés pour analyser de telles images. Le but de cette thèse est d’étudier de nouveaux modèles de mélange non-linéaires et de proposer des algorithmes associés pour l’analyse d’images hyperspectrales. Dans un premier temps, un modèle paramétrique post-non-linéaire est étudié et des algorithmes d’estimation basés sur ce modèle sont proposés. Les connaissances a priori disponibles sur les signatures spectrales des composants purs, sur les abondances et les paramètres de la non-linéarité sont exploitées à l’aide d’une approche bayesienne. Le second modèle étudié dans cette thèse est basé sur l’approximation de la variété non-linéaire contenant les données observées à l’aide de processus gaussiens. L’algorithme de démélange associé permet d’estimer la relation non-linéaire entre les abondances des matériaux et les pixels observés sans introduire explicitement les signatures spectrales des composants dans le modèle de mélange. Ces signatures spectrales sont estimées dans un second temps par prédiction à base de processus gaussiens. La prise en compte d’effets non-linéaires dans les images hyperspectrales nécessite souvent des stratégies de démélange plus complexes que celles basées sur un modèle linéaire. Comme le modèle linéaire est souvent suffisant pour approcher la plupart des mélanges réels, il est intéressant de pouvoir détecter les pixels ou les régions de l’image où ce modèle linéaire est approprié. On pourra alors, après cette détection, appliquer les algorithmes de démélange non-linéaires aux pixels nécessitant réellement l’utilisation de modèles de mélange non-linéaires. La dernière partie de ce manuscrit se concentre sur l’étude de détecteurs de non-linéarités basés sur des modèles linéaires et non-linéaires pour l’analyse d’images hyperspectrales. Les méthodes de démélange non-linéaires proposées permettent d’améliorer la caractérisation des images hyperspectrales par rapport au méthodes basées sur un modèle linéaire. Cette amélioration se traduit en particulier par une meilleure erreur de reconstruction des données. De plus, ces méthodes permettent de meilleures estimations des signatures spectrales et des abondances quand les pixels résultent de mélanges non-linéaires. Les résultats de simulations effectuées sur des données synthétiques et réelles montrent l’intérêt d’utiliser des méthodes de détection de non-linéarités pour l’analyse d’images hyperspectrales. En particulier, ces détecteurs peuvent permettre d’identifier des composants très peu représentés et de localiser des régions où les effets non-linéaires sont non-négligeables (ombres, reliefs,...). Enfin, la considération de corrélations spatiales dans les images hyperspectrales peut améliorer les performances des algorithmes de démélange non-linéaires et des détecteurs de non-linéarités. / Spectral unmixing is one the major issues arising when analyzing hyperspectral images. It consists of identifying the macroscopic materials present in a hyperspectral image and quantifying the proportions of these materials in the image pixels. Most unmixing techniques rely on a linear mixing model which is often considered as a first approximation of the actual mixtures. However, the linear model can be inaccurate for some specific images (for instance images of scenes involving multiple reflections) and more complex nonlinear models must then be considered to analyze such images. The aim of this thesis is to study new nonlinear mixing models and to propose associated algorithms to analyze hyperspectral images. First, a ost-nonlinear model is investigated and efficient unmixing algorithms based on this model are proposed. The prior knowledge about the components present in the observed image, their proportions and the nonlinearity parameters is considered using Bayesian inference. The second model considered in this work is based on the approximation of the nonlinear manifold which contains the observed pixels using Gaussian processes. The proposed algorithm estimates the relation between the observations and the unknown material proportions without explicit dependency on the material spectral signatures, which are estimated subsequentially. Considering nonlinear effects in hyperspectral images usually requires more complex unmixing strategies than those assuming linear mixtures. Since the linear mixing model is often sufficient to approximate accurately most actual mixtures, it is interesting to detect pixels or regions where the linear model is accurate. This nonlinearity detection can be applied as a pre-processing step and nonlinear unmixing strategies can then be applied only to pixels requiring the use of nonlinear models. The last part of this thesis focuses on new nonlinearity detectors based on linear and nonlinear models to identify pixels or regions where nonlinear effects occur in hyperspectral images. The proposed nonlinear unmixing algorithms improve the characterization of hyperspectral images compared to methods based on a linear model. These methods allow the reconstruction errors to be reduced. Moreover, these methods provide better spectral signature and abundance estimates when the observed pixels result from nonlinear mixtures. The simulation results conducted on synthetic and real images illustrate the advantage of using nonlinearity detectors for hyperspectral image analysis. In particular, the proposed detectors can identify components which are present in few pixels (and hardly distinguishable) and locate areas where significant nonlinear effects occur (shadow, relief, ...). Moreover, it is shown that considering spatial correlation in hyperspectral images can improve the performance of nonlinear unmixing and nonlinearity detection algorithms.
26

L’imagerie chimique Raman appliquée à l’analyse des produits pharmaceutiques falsifiés / Raman chemical imaging for the analysis of falsified pharmaceuticals

Rebiere, Hervé 28 November 2017 (has links)
La thèse propose une méthodologie d’analyse rapide basée sur l’étude de l’image hyperspectrale Raman d’un produit pharmaceutique falsifié sous forme solide afin, d’une part d’identifier les substances présentes, et d’autre part estimer la teneur du principe actif dans l’échantillon sans étalonnage préalable.La présence de produits pharmaceutiques falsifiés est un véritable enjeu de santé publique. Ce type de produits de santé est facilement disponible sur internet, et beaucoup d’exemples montrent leur dangerosité. De nombreuses techniques sont disponibles pour analyser ces produits et ainsi participer à la lutte contre la falsification de médicament. La combinaison de ces techniques analytiques permet une caractérisation approfondie de l’échantillon. Cependant, peu de techniques analytiques procurent l’ensemble des informations chimiques.L’imagerie chimique Raman est une technique qui répond aux exigences requises pour l’analyse de produits falsifiés sous forme solide. En effet, cette technique peu destructive permet de réutiliser l’échantillon pour des analyses complémentaires. L’imagerie chimique Raman combine les trois disciplines de spectroscopie Raman, microscopie et chimiométrie. Cette technique réalise des mesures successives de spectres Raman sur des zones adjacentes couvrant la surface de l’échantillon. Elle intègre donc des informations spatiales et spectrales. Les méthodes chimiométriques dites de résolution (MCR-ALS et DCLS) analysent le jeu de spectres pour extraire des informations qualitatives (détection des spectres purs du mélange) et des informations quantitatives (estimation de la concentration de la substance active). La méthodologie a été optimisée et validée avec des échantillons préparés en laboratoire, puis appliquée à des échantillons réels authentiques et falsifiés. La sensibilité de la méthode qualitative a été démontrée par la détection d’un principe actif antibiotique à la teneur de 0,3% m/m dans un comprimé à visée anabolisante. De plus la méthode a été capable de détecter les substances utilisées pour le traitement de dysfonctions sexuelles (sildénafil, tadalafil, vardénafil, dapoxétine). Malgré une forte émission de fluorescence, la méthode a réussi à discriminer les 3 sels de clopidogrel (hydrogénosulfate, bésilate et chlorhydrate). L’analyse quantitative directe sur des échantillons de Viagra® et de Plavix® a été jugée convenable avec une déviation de la teneur entre -15% et +24%. Cette déviation est considérée acceptable pour évaluer le risque sanitaire pour le patient et alerter les autorités de santé.Dans le cadre de l’analyse des produits falsifiés, il a été démontré que la micro-spectroscopie Raman associée aux méthodes chimiométriques permet de réaliser un « screening spectroscopique » des composants de l’échantillon, d’identifier les substances chimiques, de visualiser leur distribution sur la surface de l’échantillon et d’estimer leur teneur par « quantification directe ». / The thesis proposes a rapid methodology of analysis based on the Raman hyperspectral image study of a solid form falsified pharmaceutical product in order to identify the substances in the sample and to estimate the content of the active ingredient in the sample without prior calibration.The presence of falsified pharmaceuticals is a real public health issue. This type of products is easily available on the internet, and many examples show their dangerousness. Many techniques are available for the analysis of these products and thus participate in the fight against drug falsification. The combination of these analytical techniques allows a comprehensive characterization of the sample. However few analytical techniques provide all the chemical information. Raman chemical imaging is a technique that meets the requirements for the analysis of falsified products in solid form. Indeed, this non-destructive technique makes it possible the reuse of the sample for additional testing. Raman chemical imaging combines the three disciplines of Raman spectroscopy, microscopy and chemometrics. This technique performs successive measurements of Raman spectra on adjacent location covering the surface of the sample. It therefore collects spatial and spectral information. The so-called resolution chemometric methods analyse the set of spectra in order to extract qualitative information (detection of pure spectra in the mixture) and quantitative information (estimate of the concentration of the chemical substance). The methodology was optimized and validated with samples prepared in the laboratory, and then applied to genuine and falsified real samples. The sensitivity of the qualitative method was demonstrated with the detection of an antibiotic active ingredient at a content of 0.3% m/m in an anabolic tablet. Moreover, the method was able to distinguish substances used for the treatment of sexual dysfunctions (sildenafil, tadalafil, vardenafil, dapoxetine). Despite a high fluorescence emission, the method successfully discriminated the 3 salts of clopidogrel (hydrogen sulfate, besylate and hydrochloride). Direct quantitative analysis of samples of Viagra® and Plavix® was found to be appropriate with a deviation between -15% and +24%. This deviation is considered acceptable to assess the health risk to the patient and to alert health authorities.For the analysis of falsified products, it has been demonstrated that Raman micro-spectroscopy combined with chemometric methods allows to perform a "spectroscopic screening" of the components in the sample, to identify chemical substances, to visualize their distribution on the sample surface and to estimate their content by "direct quantification".
27

Mineral identification using data-mining in hyperspectral infrared imagery

Yousefi, Bardia 05 July 2018 (has links)
Les applications de l’imagerie infrarouge dans le domaine de la géologie sont principalement des applications hyperspectrales. Elles permettent entre autre l’identification minérale, la cartographie, ainsi que l’estimation de la portée. Le plus souvent, ces acquisitions sont réalisées in-situ soit à l’aide de capteurs aéroportés, soit à l’aide de dispositifs portatifs. La découverte de minéraux indicateurs a permis d’améliorer grandement l’exploration minérale. Ceci est en partie dû à l’utilisation d’instruments portatifs. Dans ce contexte le développement de systèmes automatisés permettrait d’augmenter à la fois la qualité de l’exploration et la précision de la détection des indicateurs. C’est dans ce cadre que s’inscrit le travail mené dans ce doctorat. Le sujet consistait en l’utilisation de méthodes d’apprentissage automatique appliquées à l’analyse (au traitement) d’images hyperspectrales prises dans les longueurs d’onde infrarouge. L’objectif recherché étant l’identification de grains minéraux de petites tailles utilisés comme indicateurs minéral -ogiques. Une application potentielle de cette recherche serait le développement d’un outil logiciel d’assistance pour l’analyse des échantillons lors de l’exploration minérale. Les expériences ont été menées en laboratoire dans la gamme relative à l’infrarouge thermique (Long Wave InfraRed, LWIR) de 7.7m à 11.8 m. Ces essais ont permis de proposer une méthode pour calculer l’annulation du continuum. La méthode utilisée lors de ces essais utilise la factorisation matricielle non négative (NMF). En utlisant une factorisation du premier ordre on peut déduire le rayonnement de pénétration, lequel peut ensuite être comparé et analysé par rapport à d’autres méthodes plus communes. L’analyse des résultats spectraux en comparaison avec plusieurs bibliothèques existantes de données a permis de mettre en évidence la suppression du continuum. Les expérience ayant menés à ce résultat ont été conduites en utilisant une plaque Infragold ainsi qu’un objectif macro LWIR. L’identification automatique de grains de différents matériaux tels que la pyrope, l’olivine et le quartz a commencé. Lors d’une phase de comparaison entre des approches supervisées et non supervisées, cette dernière s’est montrée plus approprié en raison du comportement indépendant par rapport à l’étape d’entraînement. Afin de confirmer la qualité de ces résultats quatre expériences ont été menées. Lors d’une première expérience deux algorithmes ont été évalués pour application de regroupements en utilisant l’approche FCC (False Colour Composite). Cet essai a permis d’observer une vitesse de convergence, jusqu’a vingt fois plus rapide, ainsi qu’une efficacité significativement accrue concernant l’identification en comparaison des résultats de la littérature. Cependant des essais effectués sur des données LWIR ont montré un manque de prédiction de la surface du grain lorsque les grains étaient irréguliers avec présence d’agrégats minéraux. La seconde expérience a consisté, en une analyse quantitaive comparative entre deux bases de données de Ground Truth (GT), nommée rigid-GT et observed-GT (rigide-GT: étiquet manuel de la région, observée-GT:étiquetage manuel les pixels). La précision des résultats était 1.5 fois meilleur lorsque l’on a utlisé la base de données observed-GT que rigid-GT. Pour les deux dernières epxérience, des données venant d’un MEB (Microscope Électronique à Balayage) ainsi que d’un microscopie à fluorescence (XRF) ont été ajoutées. Ces données ont permis d’introduire des informations relatives tant aux agrégats minéraux qu’à la surface des grains. Les résultats ont été comparés par des techniques d’identification automatique des minéraux, utilisant ArcGIS. Cette dernière a montré une performance prometteuse quand à l’identification automatique et à aussi été utilisée pour la GT de validation. Dans l’ensemble, les quatre méthodes de cette thèse représentent des méthodologies bénéfiques pour l’identification des minéraux. Ces méthodes présentent l’avantage d’être non-destructives, relativement précises et d’avoir un faible coût en temps calcul ce qui pourrait les qualifier pour être utilisée dans des conditions de laboratoire ou sur le terrain. / The geological applications of hyperspectral infrared imagery mainly consist in mineral identification, mapping, airborne or portable instruments, and core logging. Finding the mineral indicators offer considerable benefits in terms of mineralogy and mineral exploration which usually involves application of portable instrument and core logging. Moreover, faster and more mechanized systems development increases the precision of identifying mineral indicators and avoid any possible mis-classification. Therefore, the objective of this thesis was to create a tool to using hyperspectral infrared imagery and process the data through image analysis and machine learning methods to identify small size mineral grains used as mineral indicators. This system would be applied for different circumstances to provide an assistant for geological analysis and mineralogy exploration. The experiments were conducted in laboratory conditions in the long-wave infrared (7.7μm to 11.8μm - LWIR), with a LWIR-macro lens (to improve spatial resolution), an Infragold plate, and a heating source. The process began with a method to calculate the continuum removal. The approach is the application of Non-negative Matrix Factorization (NMF) to extract Rank-1 NMF and estimate the down-welling radiance and then compare it with other conventional methods. The results indicate successful suppression of the continuum from the spectra and enable the spectra to be compared with spectral libraries. Afterwards, to have an automated system, supervised and unsupervised approaches have been tested for identification of pyrope, olivine and quartz grains. The results indicated that the unsupervised approach was more suitable due to independent behavior against training stage. Once these results obtained, two algorithms were tested to create False Color Composites (FCC) applying a clustering approach. The results of this comparison indicate significant computational efficiency (more than 20 times faster) and promising performance for mineral identification. Finally, the reliability of the automated LWIR hyperspectral infrared mineral identification has been tested and the difficulty for identification of the irregular grain’s surface along with the mineral aggregates has been verified. The results were compared to two different Ground Truth(GT) (i.e. rigid-GT and observed-GT) for quantitative calculation. Observed-GT increased the accuracy up to 1.5 times than rigid-GT. The samples were also examined by Micro X-ray Fluorescence (XRF) and Scanning Electron Microscope (SEM) in order to retrieve information for the mineral aggregates and the grain’s surface (biotite, epidote, goethite, diopside, smithsonite, tourmaline, kyanite, scheelite, pyrope, olivine, and quartz). The results of XRF imagery compared with automatic mineral identification techniques, using ArcGIS, and represented a promising performance for automatic identification and have been used for GT validation. In overall, the four methods (i.e. 1.Continuum removal methods; 2. Classification or clustering methods for mineral identification; 3. Two algorithms for clustering of mineral spectra; 4. Reliability verification) in this thesis represent beneficial methodologies to identify minerals. These methods have the advantages to be a non-destructive, relatively accurate and have low computational complexity that might be used to identify and assess mineral grains in the laboratory conditions or in the field.
28

Caractérisation de minéraux indicateurs par imagerie hyperspectrale et traitement de l'image dans l'infrarouge proche et l'infrarouge lointain

Sojasi, Saeed 24 April 2018 (has links)
L'imagerie hyperspectrale (HSI) fournit de l'information spatiale et spectrale concernant l'émissivité de la surface des matériaux, ce qui peut être utilisée pour l'identification des minéraux. Pour cela, un matériel de référence ou endmember, qui en minéralogie est la forme la plus pure d'un minéral, est nécessaire. L'objectif principal de ce projet est l'identification des minéraux par imagerie hyperspectrale. Les informations de l'imagerie hyperspectrale ont été enregistrées à partir de l'énergie réfléchie de la surface du minéral. L'énergie solaire est la source d'énergie dans l'imagerie hyperspectrale de télédétection, alors qu'un élément chauffant est la source d'énergie utilisée dans les expériences de laboratoire. Dans la première étape de ce travail, les signatures spectrales des minéraux purs sont obtenues avec la caméra hyperspectrale, qui mesure le rayonnement réfléchi par la surface des minéraux. Dans ce projet, deux séries d'expériences ont été menées dans différentes plages de longueurs d'onde (0,4 à 1 µm et 7,7 à 11,8 µm). Dans la deuxième partie de ce projet, les signatures spectrales obtenues des échantillons individuels sont comparées avec des signatures spectrales de la bibliothèque hyperspectrale de l'ASTER. Dans la troisième partie, trois méthodes différentes de classification hyperspectrale sont considérées pour la classification. Spectral Angle Mapper (SAM), Spectral Information Divergence (SID), et Intercorrélation normalisée (NCC). Enfin, un système d'apprentissage automatique, Extreme Learning Machine (ELM), est utilisé pour identifier les minéraux. Deux types d'échantillons ont été utilisés dans ce projet. Le système d'ELM est divisé en deux parties, la phase d'entraînement et la phase de test du système. Dans la phase d'entraînement, la signature d'un seul échantillon minéral est entrée dans le système, et dans la phase du test, les signatures spectrales des différents minéraux, qui sont entrées dans la phase d'entraînement, sont comparées par rapport à des échantillons de minéraux mixtes afin de les identifier.
29

Quality control of complex polymer materials using hyperspectral imaging associated with multivariate statistical analysis

Ghasemzadeh-Barvarz, Massoud 23 April 2018 (has links)
Dans la première étape de ce travail, des composites formulés à partir d'anhydride maléique greffé polyéthylène (MAPE) et de différentes charges de fibres de chanvre (entre 0 et 60%) ont été produits et analysés par imagerie NIR. Trois méthodes chimiométriques ont été utilisées puis comparées pour la prédiction des propriétés mécaniques, cartographier la distribution des constituants et détecter les défauts physiques des matériaux: la calibration multivariée traditionnelle basée sur la régression PLS, la résolution multivariée de courbes (MCR) et l’analyse d’images et la régression sur les images multivariées (MIA/MIR). Dans la deuxième partie de ce projet, une série de films multicouches complexes (échantillons industriels) ont été étudiés par imagerie NIR combinée à l’analyse d’images multivariée. Le potentiel et l'efficacité de la méthode proposée pour détecter les défauts causés par la (les) couche(s) manquant(es) ont été étudiés pour des films non imprimés et imprimés. Dans la dernière partie, les composites hybrides polypropylène (PP) / fibre de verre / fibre de lin ont été étudiés. L'effet de la teneur en fibres (0 à 40% en volume) et de la composition sur les propriétés mécaniques ont été investigués, ainsi que l’effet de l’exposition à l’eau et la dégradation thermique et aux rayons UV (vieillissement accéléré des matériaux). Les images de microscopie électronique à balayage (MEB) des composites non vieillis ont été analysées en combinant des méthodes d’analyse de texture et des méthodes multivariées. Enfin, l'imagerie NIR a été mise en œuvre sur des composites non vieillis et vieillis afin de prédire leurs propriétés finales ainsi que pour modéliser les variations de composition chimique et celles dues au vieillissement accéléré. En résumé, les résultats montrent que la combinaison de l'imagerie hyperspectrale et des méthodes statistiques multivariées est un outil puissant pour le contrôle de la qualité des composites polymères complexes. De plus, la méthode proposée est rapide et non destructive, elle peut être mise en œuvre en ligne, pour le contrôle de la qualité des matériaux composites. D'autre part, il a été démontré que l'analyse de la texture des images peut être appliquée à la quantification de la dispersion et du degré d’homogénéité de la distribution des charges dans des matériaux composites. / In the first step of this work, maleic anhydride grafted polyethylene (MAPE)/hemp fiber composites with different filler concentration between 0 to 60% were analyzed by NIR imaging. Three chemometrics methods including Partial Least Squares (PLS), Multivariate Curve Resolution (MCR) and Multivariate Image Analysis/Multivariate Image Regression (MIA/MIR) were implemented and compared for predicting mechanical properties as well as mapping chemical compositions and material physical variations. In the second part of this project, a series of complex multilayer films (industrial samples) were investigated using NIR hyperspectral imaging and Multivariate Image Analysis (MIA). The potential and effectiveness of the proposed method for detecting defects caused by missing layer(s) were studied for unprinted and printed films. In the final part, polypropylene (PP)/glass/flax hybrid composites were studied. The effect of composition (fiber content between 0 and 40 vol%), as well as water, thermal and UV aging on mechanical properties was investigated. Then, Scanning Electron Microscopy (SEM) images of unaged hybrid composites were analyzed using texture analysis and multivariate methods. Finally, NIR imaging was implemented on unaged and aged composites to predict their final properties as well as to capture chemical composition and aging variations. In summary, the results show that combining hyperspectral imaging and multivariate statistical methods is a powerful tool for quality control of complex polymer composites. Since the proposed method is rapid and nondestructive, one can implement it for on-line quality control of finished plastic products. On the other hand, texture analysis and multivariate methods can be applied for quantifying the mixing aspects of composites.
30

Méthodes rapides de traitement d’images hyperspectrales. Application à la caractérisation en temps réel du matériau bois / Fast methods for hyperspectral images processing. Application to the real-time characterization of wood material

Nus, Ludivine 12 December 2019 (has links)
Cette thèse aborde le démélange en-ligne d’images hyperspectrales acquises par un imageur pushbroom, pour la caractérisation en temps réel du matériau bois. La première partie de cette thèse propose un modèle de mélange en-ligne fondé sur la factorisation en matrices non-négatives. À partir de ce modèle, trois algorithmes pour le démélange séquentiel en-ligne, fondés respectivement sur les règles de mise à jour multiplicatives, le gradient optimal de Nesterov et l’optimisation ADMM (Alternating Direction Method of Multipliers) sont développés. Ces algorithmes sont spécialement conçus pour réaliser le démélange en temps réel, au rythme d'acquisition de l'imageur pushbroom. Afin de régulariser le problème d’estimation (généralement mal posé), deux sortes de contraintes sur les endmembers sont utilisées : une contrainte de dispersion minimale ainsi qu’une contrainte de volume minimal. Une méthode pour l’estimation automatique du paramètre de régularisation est également proposée, en reformulant le problème de démélange hyperspectral en-ligne comme un problème d’optimisation bi-objectif. Dans la seconde partie de cette thèse, nous proposons une approche permettant de gérer la variation du nombre de sources, i.e. le rang de la décomposition, au cours du traitement. Les algorithmes en-ligne préalablement développés sont ainsi modifiés, en introduisant une étape d’apprentissage d’une bibliothèque hyperspectrale, ainsi que des pénalités de parcimonie permettant de sélectionner uniquement les sources actives. Enfin, la troisième partie de ces travaux consiste en l’application de nos approches à la détection et à la classification des singularités du matériau bois. / This PhD dissertation addresses the problem of on-line unmixing of hyperspectral images acquired by a pushbroom imaging system, for real-time characterization of wood. The first part of this work proposes an on-line mixing model based on non-negative matrix factorization. Based on this model, three algorithms for on-line sequential unmixing, using multiplicative update rules, the Nesterov optimal gradient and the ADMM optimization (Alternating Direction Method of Multipliers), respectively, are developed. These algorithms are specially designed to perform the unmixing in real time, at the pushbroom imager acquisition rate. In order to regularize the estimation problem (generally ill-posed), two types of constraints on the endmembers are used: a minimum dispersion constraint and a minimum volume constraint. A method for the unsupervised estimation of the regularization parameter is also proposed, by reformulating the on-line hyperspectral unmixing problem as a bi-objective optimization. In the second part of this manuscript, we propose an approach for handling the variation in the number of sources, i.e. the rank of the decomposition, during the processing. Thus, the previously developed on-line algorithms are modified, by introducing a hyperspectral library learning stage as well as sparse constraints allowing to select only the active sources. Finally, the third part of this work consists in the application of these approaches to the detection and the classification of the singularities of wood.

Page generated in 0.0692 seconds