Spelling suggestions: "subject:"séparation dde cources"" "subject:"séparation dde desources""
11 |
Approche bayésienne en séparation de sources. Applications en imagerieSnoussi, Hichem 29 September 2003 (has links) (PDF)
Ce travail de thèse consiste à développer l'approche bayésienne en séparation de sources. Mes contributions sont à la fois méthodologiques et algorithmiques illustrées par des applications en imagerie satellitaire et en cosmologie observationnelle. - Au niveau méthodologique: 1. nous avons proposé une modélisation pertinente des sources. L'aspect hiérarchique de ce modèle est bien adapté à la structure cachée naturelle du problème de séparation de sources. 2. Nous avons étudié le problème de dégénérescence du maximum de vraisemblance dans le cas vectoriel et dans le contexte de séparation de sources. 3. Nous avons proposé une approche originale pour la sélection d'a priori avec les outils de la géométrie différentielle. - Au niveau Algorithmique: 1. Nous avons proposé des algorithmes de séparation et de ségmentation dont le principe est l'exploitation de la non stationnarité dans le domaine temporel, spatial, spectral, temps-fréquence... 2. Nous avons mis en oeuvre la solution bayésienne avec une impémentation parallèle de l'échantillonneur de Gibbs ainsi que d'autres approximations stochastiques de l'EM. 3. Ces algorithmes sont illustrés par une application en imagerie satellitaire et une application en cosmologie observationnelle. Enfin, j'ouvre des perspectives théoriques sur la dualité de l'approche bayésienne et de l'approche informationnelle dans le cadre de la séparation et de la ségmentation conjointes des sources.
|
12 |
Caractérisation aveugle de la courbe de charge électrique : Détection, classification et estimation des usages dans les secteurs résidentiel et tertiaireEl Guedri, Mabrouka 09 November 2009 (has links) (PDF)
Le problème de caractérisation non-intrusive des usages dans des conditions réelles à partir de l'unique observation de la courbe de charge (CdC) générale résidentielle et tertiaire disponible (puissance moyenne quotidienne disponible en sortie du compteur) a été peu étudié. L'objectif de la thèse est d'explorer les possibilités et les méthodes permettant une caractérisation aveugle des composantes du mélange observé. Plus précisément, il s'agit d'extraire des descripteurs temporels, énergétiques ou encore événementiels à partir d'un mélange unique de sources non-stationnaires de nombre inconnu. Nous considérons quatre sous-problématiques sous-jacentes à la caractérisation de la CdC : la détection des usages, la classification des signaux de la CdC, l'estimation des paramètres des usages (énergie, amplitude, etc.) et la séparation des sources du mélange observé. Les algorithmes mis en œuvre sont évalués sur les données réelles. Les performances obtenues sont satisfaisantes. Outre les contributions de formalisation et algorithmiques, un des apports marquants de cette étude est une solution non-intrusive pour la segmentation automatique la CdC générale résidentielle et pour la cartographie de l'énergie quotidienne consommée en quatre composantes : le chauffage électrique, le chauffe-eau, le froid alimentaire et les autres usages. Au delà des améliorations algorithmiques et de l'étude de performance à poursuivre, nous proposons en perspective de cette thèse une approche générique pour décomposer une CdC quelconque fondée sur une modélisation stochastique de la série des événements de la CdC.
|
13 |
Déconvolution impulsionnelle multi-source. Application aux signaux électro- myographiquesDi, G. 04 December 2009 (has links) (PDF)
Cette thèse s'inscrit dans le cadre d'une collaboration entre l'IRCCyN (UMR 6597) et le laboratoire SMI (Sensory-Motor Interaction, Université d'Aalborg, Dane- mark). L'objectif est de développer des méthodes de décomposition de signaux élec- tromyographiques (EMG). Les applications sont multiples, e.g., l'aide au diagnostic. De tels signaux peuvent être modélisés comme une somme bruitée de I composantes, chacune étant la réponse d'un système linéaire excité par un train d'impulsions. Les paramètres du modèle sont estimés par une technique bayésienne. Les lois a priori des paramètres continus sont choisies de sorte que les lois marginales a posteriori sont analytiques. Dans un premier temps est proposée une méthode déterministe par maxi- misation de la distribution a posteriori. La difficulté majeure consiste en l'estimation des trains d'impulsions. Ceux-ci (paramètres discrets) constituent un espace combinatoire ; la recherche du maximum est traitée par l'algorithme Tabou. Dans un deuxième temps, on souhaite éviter le réglage des paramètres associés à l'algorithme Tabou : l'approche bayésienne couplée aux techniques MCMC fournit un cadre d'étude très efficace. Un algorithme de Gibbs hybride est proposé, dans lequel une étape Metropolis-Hastings sur les trains d'impulsions permet d'éviter un calcul de complexité exponentielle, tout en garantissant l'irréductibilité de la chaîne de Markov. Les techniques issues de l'al- gorithme MCMC pour la déconvolution d'un processus Bernoulli-gaussien sont ap- pliquées. En particulier, le rééchantillonnage d'échelle et la marginalisation des ampli- tudes sont adaptés au modèle physique en tenant compte de la variabilité d'amplitudes des impulsions. Les algorithmes sont validés sur des signaux EMG simulés et expérimentaux.
|
14 |
Conception de réseaux de capteurs chimiques intelligents : une approche fondée sur les méthodes de séparation de sourcesDuarte, Leonardo Tomazeli 17 November 2009 (has links) (PDF)
L'une des principales difficultés dans l'utilisation de capteurs chimiques concerne le manque de sélectivité inhérent à ces dispositifs. La stratégie classique pour faire face à ce problème est fondée sur le développement de nouvelles membranes qui conduisent à des capteurs plus sélectifs. Toutefois, plus récemment, on a démontré que ce problème peut également être traité par une autre approche, dans laquelle l'acquisition de données est effectuée par un réseau de capteurs qui ne sont pas forcément sélectifs. Ainsi, dans une deuxième étape, les informations pertinentes sont récupérées à l'aide des outils de traitement de signal. L'un des bénéfices le plus remarquable dans cette démarche concerne la flexibilité du système de mesure : le même réseau de capteurs peut être utilisé pour réaliser différents types d'analyse. Dans cette thèse, nous étudions l'utilisation de réseaux de capteurs dans le problème de l'analyse chimique quantitative. Cependant, contrairement à la grande majorité des travaux dans cette ligne, notre approche envisage des solutions non-supervisées, n'ayant pas besoin d'une étape d'étalonnage. Cette situation peut être formulée comme un problème de séparation aveugle de sources. Puisque les capteurs chimiques considérés dans cette recherche présentent des réponses non-linéaires, le processus de mélange sous-jacent au réseau de capteurs est non-linéaire, ce qui rend le problème difficile. Les principales contributions de cette recherche sont liées justement au développement de méthodes de séparation des mélanges non-linéaires sur mesure pour les réseaux d'électrodes sélectives potentiométriques. Nous considérons des solutions fondées sur l'analyse en composantes indépendantes, mais également sur d'autres stratégies qui nous permettent de prendre en compte des connaissances a priori typiques dans l'application ciblée dans cette recherche, comme la positivité des activités chimiques.
|
15 |
Extraction du bruit de combustion d'un moteur Diesel. Développement et application d'un spectrofiltre.Pruvost, L. 10 July 2009 (has links) (PDF)
Cette thèse porte sur la validation et l'application d'un spectrofiltre pour séparer le bruit de combustion et le bruit mécanique d'un moteur Diesel. Le spectrofiltre est un estimateur de fonction de transfert. Dans le contexte de notre étude, il estime les transferts vibroacoustiques des forces de combustion entre les cylindres du moteur et le point d'écoute. Le spectrofiltre s'obtient à partir des pressions-cylindre et du bruit rayonné par le moteur. La méthode que nous examinons est une application de la théorie de la cyclostationnarité. Elle consiste à calculer le spectrofiltre à partir de la partie aléatoire des signaux. L'intérêt de cette méthode est de fortement réduire une erreur provenant de la cohérence entre la combustion et les sources de bruit mécanique. Cette méthode est d'abord justifiée sur la base d'arguments théoriques, et formalisée de façon à mettre en évidence ses avantages et ses inconvénients. Elle est ensuite validée par deux expériences numériques et une expérience en conditions réelles. Elle est finalement appliquée à l'étude des transferts vibroacoustiques des forces de combustion, et de la composition du bruit du moteur, relativement au point de fonctionnement (régime, charge, et teneur en GTL du carburant).
|
16 |
Analyse de mélanges à partir de signaux de chromatographie gazeuse / Analysis of gaseous mixture from gas chromatography signal.Bertholon, Francois 23 September 2016 (has links)
Les dispositifs dédiés à l’analyse de gaz ont de nombreuses applications, notamment le contrôle de la qualité de l’air et des gaz naturels ou industriels, ou l’étude des gaz respiratoires. Le LETI travaille en collaboration avec la société APIX sur une nouvelle génération de dispositifs microsystèmes combinant des étapes de préparation des échantillons, de séparation des composants gazeux par des dispositifs de microchromatographie intégrés sur silicium, et de transduction par des détecteurs NEMS (Nano Electro Mechanical Systems) à base de nanocantilevers utilisés comme des détecteurs dits gravimétriques. Ces capteurs NEMS sont constitués de nano poutres vibrantes dont la fréquence de résonance dépend de la masse de matière déposée sur la poutre. Ces poutres sont fonctionnalisées avec un matériau capable d’adsorber puis de désorber certains composants ciblés. Lors du passage d’une impulsion de matière dans la colonne chromatographique au niveau d’un NEMS, le signal, défini par sa fréquence de résonance instantanée en fonction du temps, varie. Le pic observé sur ce signal traduira le pic de matière dans la colonne et permettra d’estimer la concentration du composant. Partant de l’ensemble des signaux mesurés sur l’ensemble des capteurs, l’objectif du traitement du signal est de fournir le profil moléculaire, c’est-à-dire la concentration de chaque composant, et d’estimer le pouvoir calorifique supérieur (PCS) associé. Le défi est d’associer une haute sensibilité pour détecter de très petites quantités de composants, et des capacités de séparation efficaces pour s’affranchir de la complexité du mélange et identifier la signature des molécules ciblées. L’objectif de cette thèse en traitement du signal est de travailler sur la formalisation des problèmes d’analyse des signaux abordés et d’étendre notre méthodologie d’analyse reposant sur l’approche problème inverse associée à un modèle hiérarchique de la chaîne d’analyse, aux dispositifs de microchromatographie gazeuse intégrant des capteurs NEMS multiples. La première application visée est le suivi du pouvoir calorifique d’un gaz naturel. Les ruptures concernent notamment la décomposition de signaux NEMS, la fusion multi-capteurs, l’autocalibrage et le suivi dynamique temporel. Le travail comportera des phases d’expérimentation réalisées notamment sur le banc d’analyse de gaz du laboratoire commun APIX-LETI. / The chromatography is a chemical technique to separate entities from a mixture. In this thesis, we will focused on the gaseous mixture, and particularly on the signal processing of gas chromatography. To acquire those signal we use different sensors. However whatever the sensor used, we obtain a peaks succession, where each peak corresponds to an entity present in the mixture. Our aim is then to analyze gaseous mixtures from acquired signals, by characterizing each peaks. After a bibliographic survey of the chromatography, we chose the Giddings and Eyring distribution to describe a peak shape. This distribution define the probability that a molecule walking randomly through the chromatographic column go out at a given time. Then we propose analytical model of the chromatographic signal which corresponds to a peak shape mixture model. Also in first approximation, this model is considered as Gaussian mixture model. To process those signals, we studied two broad groups of methods, executed upon real data and simulated data. The first family of algorithms consists in a Bayesian estimation of unknown parameters of our model. The order of mixture model can be include in the unknown parameters. It corresponds also to the number of entity in the gaseous mixture. To estimate those parameters, we use a Gibbs sampler, and Markov Chain Monte Carlo sampling, or a variational approach. The second methods consists in a sparse representation of the signal upon a dictionary. This dictionary includes a large set of peak shapes. The sparsity is then characterized by the number of components of the dictionary needed to describe the signal. At last we propose a sparse Bayesian method.
|
17 |
Contrôle et diagnostic par un réseau de capteurs magnétiques en automobile / Diagnostics and monitoring in automobile using a magnetometer networkLe Goff, Alexis 02 February 2011 (has links)
Cette thèse présente les différentes sources de champ magnétique dans un véhicule automobile à moteur thermique. Le but de ce travail est d'exploiter la mesure du champ magnétique dans une automobile afin d'extraire des données utiles pour caractériser le fonctionnement ou le dysfonctionnement des éléments du véhicule. Les expérimentations que nous avons conduites nous ont permis de mesurer, identifier, caractériser et modéliser les différentes sources de champ magnétique en automobile. Les circuits électriques, l'alternateur électrique, mais également le déplacement des pièces ferromagnétiques engendrent des champs d'induction. Toutes ces sources se mélangent sur le réseau de capteurs magnétiques installé dans le véhicule. Nous avons mis en œuvre des algorithmes de séparation de sources et de soustraction de bruit permettant de récupérer les signaux utiles pour la surveillance. L'analyse vibratoire déjà utilisée pour le diagnostic des automobiles permet d'étudier les accélérations et chocs des éléments à surveiller. L'analyse magnétique que nous présentons ici permet d'étudier d'autres caractéristiques comme le déplacement de ces pièces ou les courants électriques présents dans le système. Nous montrons que les mesures magnétiques, sont un nouvel outil de diagnostic qui peut être utilisé pour le contrôle automobile, en complément de l'analyse vibratoire. Diverses applications industrielles potentielles utilisant des capteurs à bas coût, sur le contrôle des roues, du moteur et des feux électriques sont développées. Enfin, nous ouvrons une réflexion sur la généralisation de ces résultats aux véhicules électriques en présentant les problématiques et les besoins spécifiques en particulier dans l'étude du comportement magnétique des accumulateurs électriques utilisés pour stocker l'énergie. / In this thesis the various sources of magnetic field in an automobile with heat engine are presented. The aim of this work is to make use of the measures on the magnetic field in an automobile in order to extract useful information for monitoring or diagnosis of the vehicle. The experiments we made led us to measure, to identify, to characterize and to model the various sources of magnetic field in an automobile. The electric circuits, the electric generator, and also the displacements of ferromagnetic pieces can create magnetic field. All those sources are mixed on the sensor network. We have developed source separation algorithms and noise removing techniques, in order to get useful signals. Vibration analysis has already been used for diagnosis in automobile and allows to study the accelerations and shocks of the elements to monitor. The magnetic analysis allows to study other parameters such as pieces displacements or the electric currents in the system. We show that magnetic analysis is a new diagnosis tool that could be used as additional information. Several concrete potential applications on wheel and engine monitoring, and electric bulb diagnosis are presented. Finally, we give an angle of reflection about generalizing those results to electric vehicles by presenting the specific problems and needs for those vehicles. In particular, the study of the magnetic behavior of the electric Lithium batteries is presented.
|
18 |
Signal subspace identification for epileptic source localization from electroencephalographic data / Suppression du bruit de signaux EEG épileptiquesHajipour Sardouie, Sepideh 09 October 2014 (has links)
Lorsque l'on enregistre l'activité cérébrale en électroencéphalographie (EEG) de surface, le signal d'intérêt est fréquemment bruité par des activités différentes provenant de différentes sources de bruit telles que l'activité musculaire. Le débruitage de l'EEG est donc une étape de pré-traitement important dans certaines applications, telles que la localisation de source. Dans cette thèse, nous proposons six méthodes permettant la suppression du bruit de signaux EEG dans le cas particulier des activités enregistrées chez les patients épileptiques soit en période intercritique (pointes) soit en période critique (décharges). Les deux premières méthodes, qui sont fondées sur la décomposition généralisée en valeurs propres (GEVD) et sur le débruitage par séparation de sources (DSS), sont utilisées pour débruiter des signaux EEG épileptiques intercritiques. Pour extraire l'information a priori requise par GEVD et DSS, nous proposons une série d'étapes de prétraitement, comprenant la détection de pointes, l'extraction du support des pointes et le regroupement des pointes impliquées dans chaque source d'intérêt. Deux autres méthodes, appelées Temps Fréquence (TF) -GEVD et TF-DSS, sont également proposées afin de débruiter les signaux EEG critiques. Dans ce cas on extrait la signature temps-fréquence de la décharge critique par la méthode d'analyse de corrélation canonique. Nous proposons également une méthode d'Analyse en Composantes Indépendantes (ICA), appelé JDICA, basée sur une stratégie d'optimisation de type Jacobi. De plus, nous proposons un nouvel algorithme direct de décomposition canonique polyadique (CP), appelé SSD-CP, pour calculer la décomposition CP de tableaux à valeurs complexes. L'algorithme proposé est basé sur la décomposition de Schur simultanée (SSD) de matrices particulières dérivées du tableau à traiter. Nous proposons également un nouvel algorithme pour calculer la SSD de plusieurs matrices à valeurs complexes. Les deux derniers algorithmes sont utilisés pour débruiter des données intercritiques et critiques. Nous évaluons la performance des méthodes proposées pour débruiter les signaux EEG (simulés ou réels) présentant des activités intercritiques et critiques épileptiques bruitées par des artéfacts musculaires. Dans le cas des données simulées, l'efficacité de chacune de ces méthodes est évaluée d'une part en calculant l'erreur quadratique moyenne normalisée entre les signaux originaux et débruités, et d'autre part en comparant les résultats de localisation de sources, obtenus à partir des signaux non bruités, bruités, et débruités. Pour les données intercritiques et critiques, nous présentons également quelques exemples sur données réelles enregistrées chez des patients souffrant d'épilepsie partielle. / In the process of recording electrical activity of the brain, the signal of interest is usually contaminated with different activities arising from various sources of noise and artifact such as muscle activity. This renders denoising as an important preprocessing stage in some ElectroEncephaloGraphy (EEG) applications such as source localization. In this thesis, we propose six methods for noise cancelation of epileptic signals. The first two methods, which are based on Generalized EigenValue Decomposition (GEVD) and Denoising Source Separation (DSS) frameworks, are used to denoise interictal data. To extract a priori information required by GEVD and DSS, we propose a series of preprocessing stages including spike peak detection, extraction of exact time support of spikes and clustering of spikes involved in each source of interest. Two other methods, called Time Frequency (TF)-GEVD and TF-DSS, are also proposed in order to denoise ictal EEG signals for which the time-frequency signature is extracted using the Canonical Correlation Analysis method. We also propose a deflationary Independent Component Analysis (ICA) method, called JDICA, that is based on Jacobi-like iterations. Moreover, we propose a new direct algorithm, called SSD-CP, to compute the Canonical Polyadic (CP) decomposition of complex-valued multi-way arrays. The proposed algorithm is based on the Simultaneous Schur Decomposition (SSD) of particular matrices derived from the array to process. We also propose a new Jacobi-like algorithm to calculate the SSD of several complex-valued matrices. The last two algorithms are used to denoise both interictal and ictal data. We evaluate the performance of the proposed methods to denoise both simulated and real epileptic EEG data with interictal or ictal activity contaminated with muscular activity. In the case of simulated data, the effectiveness of the proposed algorithms is evaluated in terms of Relative Root Mean Square Error between the original noise-free signals and the denoised ones, number of required ops and the location of the original and denoised epileptic sources. For both interictal and ictal data, we present some examples on real data recorded in patients with a drug-resistant partial epilepsy.
|
19 |
Système d'audition artificielle embarqué optimisé pour robot mobile muni d'une matrice de microphonesGrondin, François January 2017 (has links)
Dans un environnement non contrôlé, un robot doit pouvoir interagir avec les personnes d’une façon autonome. Cette autonomie doit également inclure une interaction grâce à la voix humaine. Lorsque l’interaction s’effectue à une distance de quelques mètres, des phénomènes tels que la réverbération et la présence de bruit ambiant doivent être pris en considération pour effectuer efficacement des tâches comme la reconnaissance de la parole ou de locuteur. En ce sens, le robot doit être en mesure de localiser, suivre et séparer les sources sonores présentes dans son environnement.
L’augmentation récente de la puissance de calcul des processeurs et la diminution de leur consommation énergétique permettent dorénavant d’intégrer ces systèmes d’audition articielle sur des systèmes embarqués en temps réel. L’audition robotique est un domaine relativement jeune qui compte deux principales librairies d’audition artificielle : ManyEars et HARK. Jusqu’à présent, le nombre de microphones se limite généralement à huit, en raison de l’augmentation rapide de charge de calculs lorsque des microphones supplémentaires sont ajoutés. De plus, il est parfois difficile d’utiliser ces librairies avec des robots possédant des géométries variées puisqu’il est nécessaire de les calibrer manuellement.
Cette thèse présente la librairie ODAS qui apporte des solutions à ces difficultés. Afin d’effectuer une localisation et une séparation plus robuste aux matrices de microphones fermées, ODAS introduit un modèle de directivité pour chaque microphone. Une recherche hiérarchique dans l’espace permet également de réduire la quantité de calculs nécessaires. De plus, une mesure de l’incertitude du délai d’arrivée du son est introduite pour ajuster automatiquement plusieurs paramètres et ainsi éviter une calibration manuelle du système.
ODAS propose également un nouveau module de suivi de sources sonores qui emploie des filtres de Kalman plutôt que des filtres particulaires.
Les résultats démontrent que les méthodes proposées réduisent la quantité de fausses détections durant la localisation, améliorent la robustesse du suivi pour des sources sonores multiples et augmentent la qualité de la séparation de 2.7 dB dans le cas d’un formateur de faisceau à variance minimale. La quantité de calculs requis diminue par un facteur allant jusqu’à 4 pour la localisation et jusqu’à 30 pour le suivi par rapport à la librairie ManyEars. Le module de séparation des sources sonores exploite plus efficacement la géométrie de la matrice de microphones, sans qu’il soit nécessaire de mesurer et calibrer manuellement le
système.
Avec les performances observées, la librairie ODAS ouvre aussi la porte à des applications dans le domaine de la détection des drones par le bruit, la localisation de bruits extérieurs pour une navigation plus efficace pour les véhicules autonomes, des assistants main-libre à domicile et l’intégration dans des aides auditives.
|
20 |
Déconvolution et séparation d'images hyperspectrales en microscopie / Deconvolution and separation of hyperspectral images : applications to microscopyHenrot, Simon 27 November 2013 (has links)
L'imagerie hyperspectrale consiste à acquérir une scène spatiale à plusieurs longueurs d'onde, e.g. en microscopie. Cependant, lorsque l'image est observée à une résolution suffisamment fine, elle est dégradée par un flou (convolution) et une procédure de déconvolution doit être utilisée pour restaurer l'image originale. Ce problème inverse, par opposition au problème direct modélisant la dégradation de l'image observée, est étudié dans la première partie . Un autre problème inverse important en imagerie, la séparation de sources, consiste à extraire les spectres des composants purs de l'image (sources) et à estimer les contributions de chaque source à l'image. La deuxième partie propose des contributions algorithmiques en restauration d'images hyperspectrales. Le problème est formulé comme la minimisation d'un critère pénalisé et résolu à l'aide d'une structure de calcul rapide. La méthode est adaptée à la prise en compte de différents a priori sur l'image, tels que sa positivité ou la préservation des contours. Les performances des techniques proposées sont évaluées sur des images de biocapteurs bactériens en microscopie confocale de fluorescence. La troisième partie est axée sur le problème de séparation de sources, abordé dans un cadre géométrique. Nous proposons une nouvelle condition suffisante d'identifiabilité des sources à partir des coefficients de mélange. Une étude innovante couplant le modèle d'observation avec le mélange de sources permet de montrer l'intérêt de la déconvolution comme étape préliminaire de la séparation. Ce couplage est validé sur des données acquises en spectroscopie Raman / Hyperspectral imaging refers to the acquisition of spatial images at many spectral bands, e.g. in microscopy. Processing such data is often challenging due to the blur caused by the observation system, mathematically expressed as a convolution. The operation of deconvolution is thus necessary to restore the original image. Image restoration falls into the class of inverse problems, as opposed to the direct problem which consists in modeling the image degradation process, treated in part 1 of the thesis. Another inverse problem with many applications in hyperspectral imaging consists in extracting the pure materials making up the image, called endmembers, and their fractional contribution to the data or abundances. This problem is termed spectral unmixing and its resolution accounts for the nonnegativity of the endmembers and abundances. Part 2 presents algorithms designed to efficiently solve the hyperspectral image restoration problem, formulated as the minimization of a composite criterion. The methods are based on a common framework allowing to account for several a priori assumptions on the solution, including a nonnegativity constraint and the preservation of edges in the image. The performance of the proposed algorithms are demonstrated on fluorescence confocal images of bacterial biosensors. Part 3 deals with the spectral unmixing problem from a geometrical viewpoint. A sufficient condition on abundance coefficients for the identifiability of endmembers is proposed. We derive and study a joint observation model and mixing model and demonstrate the interest of performing deconvolution as a prior step to spectral unmixing on confocal Raman microscopy data
|
Page generated in 0.1102 seconds