• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 83
  • 42
  • 9
  • Tagged with
  • 130
  • 130
  • 58
  • 39
  • 32
  • 31
  • 24
  • 22
  • 21
  • 20
  • 20
  • 19
  • 19
  • 19
  • 17
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Modélisation markovienne des dynamiques d'usages des sols. Cas des parcelles situées sur le bord du corridor forestier {Ranomafana-Andringitra}

Raherinirina, Angelo 08 February 2013 (has links) (PDF)
Nous proposons une démarche markovienne d'inférence et de modéli- sation de dynamiques agraires dans le cadre d'usage de parcelles situées en lisière du corridor forestier reliant les deux parcs nationaux de Ranomafana et d'An- dringitra. La préservation de la forêt de la côte est de Madagascar est cruciale, il est donc pertinent de développer des outils permettant de mieux comprendre les dynamiques de déforestation puis de l'usage des parcelles et enfin de leur éventuel retour à l'état de forêt. Nous nous appuyons sur deux jeux de don- nées de terrain établis par l'IRD. Dans ce genre d'étude, une étape préliminaire consiste à construire la matrice de transition empirique, cela s'apparente donc à une modélisation markovienne de la dynamique. Dans ce cadre nous considérons l'approche par maximum de vraisemblance et l'approche bayésienne. Cette der- nière approche nous permet d'intégrer des informations non-présentes dans les données mais reconnues par les spécialistes, elle fait appel à des techniques d'ap- proximation de Monte Carlo par chaînes de Markov (MCMC). Nous étudions les propriétés asymptotiques des modèles obtenus à l'aide de ces deux approches et notamment le temps de convergence vers la loi quasi-stationnaire dans le premier cas et vers la loi stationnaire dans le second. Nous testons différentes hypothèses portant sur les modèles. Cette approche markovienne n'est plus valide sur le deuxième jeu de données, plus étendu, où il a fallu faire appel à une approche semi-markovienne : les lois des temps de séjour dans un état donné ne sont plus né- cessairement géométriques et peuvent dépendre de l'état suivant. À nouveau nous faisons appel aux approches par maximum de vraisemblance et bayésienne. Nous étudions le comportement asymptotique de chacun de ces modèles. En termes applicatifs, nous avons pu déterminer les échelles de temps de ces dynamiques.
32

Multiscale data assimilation approaches and error characterisation applied to the inverse modelling ofatmospheric constituent emission fields / Assimilation de données multi-échelle et caractérisation des erreurs pour la modélisation inverse des sources de polluants atmosphériques

Koohkan, Mohammad Reza 20 December 2012 (has links)
Dans les études géophysiques, l'assimilation de données a pour but d'estimer l'état d'un système ou les paramètres d'un modèle physique de façon optimale. Pour ce faire, l'assimilation de données a besoin de trois types d'informations : des observations, un modèle physique/numérique et une description statistique de l'incertitude associée aux paramètres du système. Dans ma thèse, de nouvelles méthodes d'assimilation de données sont utilisées pour l'étude de la physico-chimie de l'atmosphère: (i) On y utilise de manière conjointe la méthode 4D-Var avec un modèle sous-maille statistique pour tenir compte des erreurs de représentativité. (ii) Des échelles multiples sont prises en compte dans la méthode d'estimation BLUE. (iii) Enfin, la méthode du maximum de vraisemblance est appliquée pour estimer des hyper-paramètres qui paramètrisent les erreurs à priori. Ces trois approches sont appliquées de manière spécifique à des problèmes de modélisation inverse des sources de polluant atmosphérique. Dans une première partie, la modélisation inverse est utilisée afin d'estimer les émissions de monoxyde de carbone sur un domaine représentant la France. Les stations du réseau d'observation considérées sont impactées par les erreurs de représentativité. Un modèle statistique sous-maille est introduit. Il est couplé au système 4D-Var afin de réduire les erreurs de représentativité. En particulier, les résultats de la modélisation inverse montrent que la méthode 4D-Var seule n'est pas adaptée pour gérer le problème de représentativité. Le système d'assimilation des données couplé conduit à une meilleure représentation de la variabilité de la concentration de CO avec une amélioration très significative des indicateurs statistiques. Dans une deuxième partie, on évalue le potentiel du réseau IMS (International Monitoring System) du CTBTO pour l'inversion d'une source accidentelle de radionucléides. Pour évaluer la performance du réseau, une grille multi-échelle adaptative pour l'espace de contrôle est optimisée selon un critère basé sur les degrés de liberté du signal (DFS). Les résultats montrent que plusieurs régions restent sous-observées par le réseau IMS. Dans la troisième et dernière partie, sont estimés les émissions de Composés Organiques Volatils (COVs) sur l'Europe de l'ouest. Cette étude d'inversion est faite sur la base des observations de 14 COVs extraites du réseau EMEP. L'évaluation des incertitudes des valeurs des inventaires d'émission et des erreurs d'observation sont faites selon le principe du maximum de vraisemblance. La distribution des inventaires d'émission a été supposée tantôt gaussienne et tantôt semi-normale. Ces deux hypothèses sont appliquées pour inverser le champs des inventaires d'émission. Les résultats de ces deux approches sont comparés. Bien que la correction apportée sur les inventaires est plus forte avec l'hypothèse Gaussienne que semi-normale, les indicateurs statistiques montrent que l'hypothèse de la distribution semi-normale donne de meilleurs résultats de concentrations que celle Gaussienne. / Data assimilation in geophysical sciences aims at optimally estimating the state of the system or some parameters of the system's physical model. To do so, data assimilation needs three types of information: observations and background information, a physical/numerical model, and some statistical description that prescribes uncertainties to each componenent of the system.In my dissertation, new methodologies of data assimilation are used in atmospheric chemistry and physics: the joint use of a 4D-Var with a subgrid statistical model to consistently account for representativeness errors, accounting for multiple scale in the BLUE estimation principle, and a better estimation of prior errors using objective estimation of hyperparameters. These three approaches will be specifically applied to inverse modelling problems focussing on the emission fields of tracers or pollutants. First, in order to estimate the emission inventories of carbon monoxide over France, in-situ stations which are impacted by the representativeness errors are used. A subgrid model is introduced and coupled with a 4D-Var to reduce the representativeness error. Indeed, the results of inverse modelling showed that the 4D-Var routine was not fit to handle the representativeness issues. The coupled data assimilation system led to a much better representation of theCO concentration variability, with a significant improvement of statistical indicators, and more consistent estimation of the CO emission inventory. Second, the evaluation of the potential of the IMS (International Monitoring System) radionuclide network is performed for the inversion of an accidental source. In order to assess the performance of the global network, a multiscale adaptive grid is optimised using a criterion based on degrees of freedom for the signal (DFS). The results show that several specific regions remain poorly observed by the IMS network. Finally, the inversion of the surface fluxes of Volatile Organic Compounds (VOC) are carried out over Western Europe using EMEP stations. The uncertainties of the background values of the emissions, as well as the covariance matrix of the observation errors, are estimated according to the maximum likelihood principle. The prior probability density function of the control parameters is chosen to be Gaussian or semi-normal distributed. Grid-size emission inventories are inverted under these two statistical assumptions. The two kinds of approaches are compared. With the Gaussian assumption, the departure between the posterior and the prior emission inventories is higher than when using the semi-normal assumption, but that method does not provide better scores than the semi-normal in a forecast experiment.
33

Inégalités d'oracle et mélanges / Oracle inequalities and mixtures

Montuelle, Lucie 04 December 2014 (has links)
Ce manuscrit se concentre sur deux problèmes d'estimation de fonction. Pour chacun, une garantie non asymptotique des performances de l'estimateur proposé est fournie par une inégalité d'oracle. Pour l'estimation de densité conditionnelle, des mélanges de régressions gaussiennes à poids exponentiels dépendant de la covariable sont utilisés. Le principe de sélection de modèle par maximum de vraisemblance pénalisé est appliqué et une condition sur la pénalité est établie. Celle-ci est satisfaite pour une pénalité proportionnelle à la dimension du modèle. Cette procédure s'accompagne d'un algorithme mêlant EM et algorithme de Newton, éprouvé sur données synthétiques et réelles. Dans le cadre de la régression à bruit sous-gaussien, l'agrégation à poids exponentiels d'estimateurs linéaires permet d'obtenir une inégalité d'oracle en déviation, au moyen de techniques PAC-bayésiennes. Le principal avantage de l'estimateur proposé est d'être aisément calculable. De plus, la prise en compte de la norme infinie de la fonction de régression permet d'établir un continuum entre inégalité exacte et inexacte. / This manuscript focuses on two functional estimation problems. A non asymptotic guarantee of the proposed estimator’s performances is provided for each problem through an oracle inequality.In the conditional density estimation setting, mixtures of Gaussian regressions with exponential weights depending on the covariate are used. Model selection principle through penalized maximum likelihood estimation is applied and a condition on the penalty is derived. If the chosen penalty is proportional to the model dimension, then the condition is satisfied. This procedure is accompanied by an algorithm mixing EM and Newton algorithm, tested on synthetic and real data sets. In the regression with sub-Gaussian noise framework, aggregating linear estimators using exponential weights allows to obtain an oracle inequality in deviation,thanks to pac-bayesian technics. The main advantage of the proposed estimator is to be easily calculable. Furthermore, taking the infinity norm of the regression function into account allows to establish a continuum between sharp and weak oracle inequalities.
34

Interprétation et amélioration d’une procédure de démodulation itérative / Interpretation and amelioration of an iterative demodulation procedure

Naja, Ziad 01 April 2011 (has links)
La géométrie de l’information est la théorie mathématique qui applique les méthodes de la géométrie différentielle dans le domaine des statistiques et de la théorie de l’information. C’est une technique très prometteuse pour l’analyse et l’illustration des algorithmes itératifs utilisés en communications numériques. Cette thèse porte sur l’application de cette technique ainsi que d’autre technique d’optimisation bien connue, l’algorithme itératif du point proximal, sur les algorithmes itératifs en général. Nous avons ainsi trouvé des interprétations géométriques (basée sur la géométrie de l’information) et proximales (basée sur l’algorithme du point proximal)intéressantes dans le cas d’un algorithme itératif de calcul de la capacité des canaux discrets sans mémoire, l’algorithme de Blahut-Arimoto. L’idée étant d’étendre cette application sur une classe d’algorithmes itératifs plus complexes. Nous avons ainsi choisi d’analyser l’algorithme de décodage itératif des modulations codées à bits entrelacés afin de trouver quelques interprétations et essayer de proposer des liens existant avec le critère optimal de maximum de vraisemblance et d’autres algorithmes bien connus dans le but d’apporter certaines améliorations par rapport au cas classique de cet algorithme, en particulier l’étude de la convergence.Mots-clefs : Géométrie de l’information, algorithme du point proximal, algorithme de Blahut-Arimoto, décodage itératif, Modulations codées à bits entrelacés, maximum de vraisemblance. / Information geometry is a mathematical theory that applies methods of differential geometryin the fields of statistics and information theory. It is a very promising technique foranalyzing iterative algorithms used in digital communications. In this thesis, we apply this technique, in addition to the proximal point algorithm, to iterative algorithms. First, we have found some geometrical and proximal point interpretations in the case of an iterative algorithmfor computing the capacity of discrete and memoryless channel, the Blahut-Arimoto algorithm.Interesting results obtained motivated us to extend this application to a larger class of iterative algorithms. Then, we have studied in details iterative decoding algorithm of Bit Interleaved Coded Modulation (BICM) in order to analyse and propose some ameliorations of the classical decoding case. We propose a proximal point interpretation of this iterative process and find the link with some well known decoding algorithms, the Maximum likelihood decoding.
35

Analysis of the data of the EDELWEISS-LT experiment searching for low-mass WIMP / Analyse des données de l'expérience EDELWEISS-LT pour la recherche de WIMP de basse masse

Queguiner, Emeline 23 October 2018 (has links)
De nombreuses observations astrophysiques et cosmologiques tendent à prouver que la matière ordinaire (dite baryonique) ne constituerait qu'environ 5 % du contenu énergétique de l'Univers. Les principales composantes de celui-ci seraient l'énergie noire (à 70 %) ainsi que la matière noire (à 25 %). Cette dernière serait invisible et seuls ses effets gravitationnels traduiraient sa présence dans l'Univers. Plusieurs particules, regroupées sous le terme générique de WIMP (Weakly Interacting Massive Particles), pourraient correspondre à cette théorie et sont activement recherchées. Plusieurs dispositifs expérimentaux ont été développés dans ce but et s'appuyent sur les stratégies suivantes : la production de ces particules au sein de collisionneurs, l'observation de particules produites via l'annihilation de WIMP ou encore la détection directe de ces particules via leur interaction avec le noyau des atomes constitutifs d'un détecteur. C'est sur cette dernière méthode que s'appuie l'expérience EDELWEISS. Il s'agit d'une expérience de détection directe de matière noire dédiée à la recherche de WIMP de masse comprise entre 1 GeV et 1 TeV. Son but premier est de détecter les reculs nucléaires induits par la diffusion élastique de particule de matière noire dans les détecteurs. Les taux d'événements attendus < 10 /(kg.an) étant de plusieurs ordres de grandeur inférieurs à ceux induits par la radioactivité ambiante, une double mesure de l'ionisation et de la chaleur est employée pour discriminer les reculs électroniques induits par les bruits de fonds β et γ des reculs nucléaires induits par les WIMPs. De plus, l'expérience a été placée en site souterrain pour se prémunir des rayonnements cosmiques, induisant des événements dans les détecteurs. Ceux utilisés par l'expérience sont des bolomètres en germanium, appelés FID, refroidis à des températures cryogéniques (18 mK) et opérant à bas champ (1 V/cm). Depuis 2015, la nouvelle stratégie de l'expérience consiste à se focaliser sur les WIMPs de masse inférieure à 10 GeV, zone de recherche privilégiée pour les expériences utilisant des détecteurs cryogéniques. Le fonctionnement de l'expérience a donc été amélioré afin d'atteindre cet objectif.Le but de cette thèse consiste à analyser les campagnes de données de l'expérience, effectuées en 2015 et 2016. Celles-ci utilisaient les détecteurs FID soumis à un champ électrique plus important que précédemment afin d'améliorer leur sensibilité. La limite extraite à partir de ces données s'appuie sur la statistique de Poisson et a permis de mettre en évidence que le bruit de fond dominant de l'expérience à basse énergie impacte grandement les résultats. C'est pourquoi une étude de ces événements, appelés heat-only, a été réalisée. Ceux-ci se caractérisent par une élévation de chaleur vue par les senseurs thermiques sans que les électrodes du détecteur ne mesurent d'ionisation en son sein. Une étude de ce bruit de fond a été réalisée et a permis de mettre en évidence la possibilité de modéliser ces événements. Suite à ces résultats, une analyse par maximum de vraisemblance a été construite. Cette méthode d'analyse permet de soustraire de manière statistique les bruits de fond de l'expérience grâce à leurs spectres en énergie différents de ceux attendus pour un signal de matière noire. De cette façon, une limite sur la section efficace des WIMP a été calculée en utilisant pour la première fois des détecteurs FID soumis à des champs électriques supérieurs aux valeurs utilisées jusqu'à présent / Many astrophysical and cosmological observations lead to postulate the existence of an unknown matter, called dark matter. Ordinary matter can explain only 5 % of the energy content of the Universe : the main components would be the dark energy (70 %) and dark matter (25 %). This latter is invisible and manifest itself only via its gravitational effects. Several particles, grouped under the generic term of WIMP (Weakly Interacting Massive Particles), could correspond to this theory and are actively searched. Many experiments have been developed for this purpose and are based on three strategies: the production of these particles with colliders, the observation of the particles produced by their annihilation in astrophysical objects or the direct detection of these particles via their interaction with the nucleus of the atoms constituent of a detector. It is on this last method that the EDELWEISS experiment is based. It is a dark matter direct detection experiment dedicated to the search for WIMP with masses between 1 GeV and 1 TeV. Its primary purpose is to detect nuclear recoils induced by elastic scattering of dark matter particles in detectors. Since the expected event rates < 10 /(kg.year) are several orders of magnitude lower than those induced by ambient radioactivity, a double measurement of ionization and heat is used to discriminate electron-induced recoils arising from β and γ interactions from WIMP-induced nuclear recoils. In addition, the experiment was placed underground to guard against cosmic radiation, inducing events in the detectors. These are germanium bolometers, called FID, cooled to cryogenic temperatures (18 mK) and operating at low field (1 V/cm). Since 2015, the new strategy of the experiment consists of focusing on WIMPs with mass below 10 GeV, an interessant research area where experiments using cryogenic detectors can exploit their ability to operate with experimental thresholds well below 1 keV. The operation of the experiment has been improved to achieve this goal. The aim of this thesis is to analyze the data set recorded by EDELWEISS in 2015 and 2016. These used the FID detectors subjected to a greater electric field than previously to improve their sensitivity. It is expected that the limit on the spin-independent WIMP-nucleon crosssection extracted from these data will be greatly impacted by a dominant background, called heat-only events. That is why they are studied in detail in this work. They are characterized by a rise in heat seen by thermal sensors without any ionization signal on the collecting electrodes. This study resulted in to highlight a model for these events that can be used in the WIMP search analyses. Following these results, a maximum likelihood analysis was constructed. This method of analysis makes it possible to statistically subtract the background noise from the experiment by exploiting the difference between the energy spectra of signal and backgrounds. In this way, limits on the spin-independent WIMP-nucleon cross-section are obtained. They will be compared to the results of other experiments
36

Estimation et sélection en classification semi-supervisée

Vandewalle, Vincent 09 December 2009 (has links) (PDF)
Le sujet de cette thèse est la classification semi-supervisée qui est considérée d'un point de vue décisionnel. Nous nous intéressons à la question de choix de modèles dans ce contexte où les modèles sont estimés en utilisant conjointement des données étiquetées et des données non étiquetées plus nombreuses. Nous concentrons notre recherche sur les modèles génératifs où la classification semi-supervisée s'envisage sans difficulté, contrairement au cadre prédictif qui nécessite des hypothèses supplémentaires peu naturelles. Après avoir dressé un état de l'art de la classification semi-supervisée, nous décrivons l'estimation des paramètres d'un modèle de classification à l'aide de données étiquetées et non étiquetées par l'algorithme EM. Nos contributions sur la sélection de modèles font l'objet des deux chapitres suivants. Au chapitre 3, nous présentons un test statistique où les données non étiquetées sont utilisées pour mettre à l'épreuve le modèle utilisé. Au chapitre 4 nous présentons un critère de sélection de modèles AIC_cond, dérivé du critère AIC d'un point de vue prédictif. Nous prouvons la convergence asymptotique de ce critère particulièrement bien adapté au contexte semi-supervisé et ses bonnes performances pratiques comparé à la validation croisée et à d'autres critères de vraisemblance pénalisée. Une deuxième partie de la thèse, sans rapport direct avec le contexte semi-supervisé, présente des modèles multinomiaux pour la classification sur variables qualitatives. Nous avons conçu ces modèles pour répondre à des limitations des modèles multinomiaux parcimonieux proposés dans le logiciel MIXMOD. À cette occasion, nous proposons un critère type BIC qui prend en compte de manière spécifique la complexité de ces modèles multinomiaux contraints.
37

Étalonnage de l'algorithme d'étiquetage de la saveur par la mesure de sin (2b) dans LHCb

Poss, Stèphane 01 October 2009 (has links) (PDF)
L'objectif de la thèse est de proposer une procédure pour l'étalonnage de l'algorithme d'étiquetage de la saveur de l'expérience LHCb. Cet algorithme est fondamental pour de nombreuses mesures de paramètre de la violation de la symétrie CP. La mesure de référence est celle de sin(2b) car ce paramètre est très bien connu. Dans la première partie de ce document, nous présentons le cadre théorique du travail, avec une présentation de l'origine des observables de violation de la symétrie CP dans le Modèle Standard de la physique des particules. La deuxième partie présente le détecteur LHCb, avec une revue de ses sousdétecteurs. La troisième partie montre l'algorithme d'étiquetage de la saveur, avec une présentation des estimateurs choisis, ainsi que la procédure d'optimisation utilisée. Cette partie donne enfin les performances attendues. Le chapitre suivant présente l'étude de la sélection d'un canal de contrôle utilisé pour l'optimisation de l'algorithme. La cinquième partie présente la procédure d'extraction de la fraction de mauvais étiquetage depuis un autre canal de contrôle. Cette fraction de mauvais étiquetage est un paramètre fondamental de l'algorithme. Enfin, le dernier chapitre montre comment cette fraction de mauvais étiquetage est utilisée dans la mesure de sin(2b), et quels sont les conséquences d'une erreur sur cette fraction. On montre qu'avec une année de prise de données, la sensibilité à sin(2b) est suffisante pour contrôler l'algorithme. Mots clés : étalonnage, étiquetage de la saveur, LHCb, fraction de mauvqais étiquetage, violation de la symétrie CP, sin(2b), maximum de vraisemblance
38

Architecture et Apprentissage d'un Système Hybride Neuro-Markovien pour la Reconnaissance de l'Écriture Manuscrite En-Ligne

Caillault, Emilie 12 December 2005 (has links) (PDF)
Les travaux présentés dans le cadre de cette thèse portent sur l'étude, la conception, le développement et le test d'un système de reconnaissance de mots manuscrits non contraints en-ligne pour une application omni-scripteurs. Le système proposé repose sur une architecture hybride neuro-markovienne comportant d'une part, un réseau de neurones à convolution (TDNN et/ou SDNN), et d'autre part des modèles de Markov à états cachés (MMC). Le réseau de neurones a une vision globale et travaille au niveau caractère, tandis que le MMC s'appuie sur une description plus locale et permet le passage du caractère au niveau mot. Nous avons d'abord étudié le système de reconnaissance au niveau caractère isolé (digits, majuscules, minuscules) et optimisé les architectures des réseaux en termes de performances et de taille. La seconde partie du travail a porté sur le passage au niveau mot. Ici, l'effort a consisté avant tout à la définition d'un schéma d'apprentissage global au niveau mot qui permet d'assurer la convergence globale du système, en définissant une fonction d'objectif qui mixe des critères basés modèle générateur (typiquement par maximum de vraisemblance) et des critères discriminants (de type maximum d'information mutuelle). Les différentes résultats présentés (sur les bases MNIST, IRONOFF, UNIPEN) montrent l'influence des principaux paramètres du système, soit en termes de topologie, de sources d'information, de modèles d'apprentissage (nombre d'états, pondération des critères, durée).
39

Estimateurs cribles des processus autorégressifs Banachiques

Rachedi, Fatiha 17 November 2005 (has links) (PDF)
Le modèle autorégressif dans un espace de Banach (ARB) permet<br />de représenter des processus à temps continu. Nous considérons<br />l'estimation de l'opérateur d'autocorrelation d'un ARB(1). Les<br />méthodes classiques d'estimation (maximum de vraisemblance et<br />moindres carrées) s'avèrent inadéquates quand l'espace<br />paramétrique est de dimension infinie, Grenander (1983} a proposé<br />d'estimer le paramètre sur un sous espace de dimension en général<br />finie m, puis d'étudier la consistance de cet estimateur lorsque<br />la dimension m tend vers l'infini avec le nombres d'observations<br />à vitesse convenable. Cette méthode est dite méthode des cribles.<br />Notons que plus généralement il serait possible d'utiliser la<br />méthode des f-divergences. Nous définissons la méthode des<br />moindres carrées comme problème d'optimisation dans un espace de<br />Banach dans le cas ou l'opérateur est p-sommable,<br />p>1. Nous montrons la convergence de l'estimateur<br />crible et sa normalité asymptotique dans le cas d'un opérateur est<br />strictement -intégral. Nous utilisons la représentation duale<br />de la f-divergence pour définir l'estimateur du minimum des<br />f-divergences. Nous nous limitons ici à l'étude de<br />l'estimateur dit du minimum de KL-divergence (divergence de<br />Kullback-Leibler). Cet estimateur est celui<br /> du maximum de vraisemblance. Nous montrons par la suite qu'il<br /> converge presque surement vers la vraie valeur du paramètre<br />pour la norme des opérateurs p-sommables. La démonstration est<br />basée sur les techniques de Geman et Hwang (1982), utilisées pour<br />des observations indépendantes et identiquement distribuées, qu'on<br />a adapté au cas autorégressif.
40

Séparation de sources non-négatives. Application au traitement des signaux de spectroscopie

Moussaoui, Saïd 07 December 2005 (has links) (PDF)
Lors de l'analyse physico-chmique d'un échantillon d'une substance multi-composantes par des techniques spectroscopiques, les signaux mesurés sont des mélanges linéaires des spectres purs des différentes composantes de cette substance. L'objectif de l'analyse est d'identifier la composition de la substance via l'estimation des spectres purs et la détermination de leurs concentrations. C'est un problème de séparation de sources dans lequel les spectres purs sont les signaux sources et les coefficients de mélange permettent de déduire les proportions des différentes composantes. La contrainte principale est la non-négativité des signaux sources et des coefficients de mélange. Il s'agit donc d'un problème de séparation de sources non-négatives.<br /><br />La séparation de sources est un problème fondamental en traitement du signal dont une hypothèse forte est celle de l'indépendance statistique des signaux sources. Compte tenu du recouvrement entre les spectres purs, leur corrélation mutuelle devient parfois importante. Dans une telle situation, l'application d'une méthode fondée sur l'hypothèse d'orthogonalité s'avère infructueuse. Par ailleurs, une analyse des solutions admissibles sous la contrainte de non-négativité montre que cette contrainte toute seule ne permet d'obtenir une solution unique que dans certains cas particuliers. Ces deux constats motivent le développement de deux méthodes qui considèrent conjointement l'hypothèse d'indépendance et l'information de non-négativité. La première méthode est issue de l'approche de séparation par maximum de vraisemblance et la deuxième se fonde sur une inférence bayésienne. Une évaluation numérique des performances des méthodes développées à l'aide de données synthétiques et le traitement de signaux expérimentaux permettent, d'une part, de mettre en évidence les avantages de ces méthodes par rapport aux approches usuelles et, d'autre part, de déceler leurs limitations. Des applications au traitement de signaux réels issus de trois types de spectroscopies (Infrarouge, Raman et Ultraviolet-Visible) illustrent l'apport de la séparation de sources non-négatives à l'analyse physico-chimique.

Page generated in 0.4722 seconds