• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 20
  • 9
  • Tagged with
  • 29
  • 29
  • 12
  • 12
  • 10
  • 9
  • 8
  • 7
  • 7
  • 7
  • 7
  • 6
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Modèles paramétriques pour la tomographie sismique bayésienne / Parametric models for bayesian seismic tomography

Belhadj, Jihane 02 December 2016 (has links)
La tomographie des temps de première arrivée vise à retrouver un modèle de vitesse de propagation des ondes sismiques à partir des temps de première arrivée mesurés. Cette technique nécessite la résolution d’un problème inverse afin d’obtenir un modèle sismique cohérent avec les données observées. Il s'agit d'un problème mal posé pour lequel il n'y a aucune garantie quant à l'unicité de la solution. L’approche bayésienne permet d’estimer la distribution spatiale de la vitesse de propagation des ondes sismiques. Il en résulte une meilleure quantification des incertitudes associées. Cependant l’approche reste relativement coûteuse en temps de calcul, les algorithmes de Monte Carlo par chaînes de Markov (MCMC) classiquement utilisés pour échantillonner la loi a posteriori des paramètres n'étant efficaces que pour un nombre raisonnable de paramètres. Elle demande, de ce fait, une réflexion à la fois sur la paramétrisation du modèle de vitesse afin de réduire la dimension du problème et sur la définition de la loi a priori des paramètres. Le sujet de cette thèse porte essentiellement sur cette problématique.Le premier modèle que nous considérons est basé sur un modèle de mosaïque aléatoire, le modèle de Jonhson-Mehl, dérivé des mosaïques de Voronoï déjà proposées en tomographie bayésienne. Contrairement à la mosaïque de Voronoï, les cellules de Johsnon-mehl ne sont pas forcément convexes et sont bornées par des portions d’hyperboloïdes, offrant ainsi des frontières lisses entre les cellules. Le deuxième modèle est, quant à lui, décrit par une combinaison linéaire de fonctions gaussiennes, centrées sur la réalisation d'un processus ponctuel de Poisson. Pour chaque modèle, nous présentons un exemple de validation sur des champs de vitesse simulés. Nous appliquons ensuite notre méthodologie à un modèle synthétique plus complexe qui sert de benchmark dans l'industrie pétrolière. Nous proposons enfin, un modèle de vitesse basé sur la théorie du compressive sensing pour reconstruire le champ de vitesse. Ce modèle, encore imparfait, ouvre plusieurs pistes de recherches futures.Dans ce travail, nous nous intéressons également à un jeu de données réelles acquises dans le contexte de la fracturation hydraulique. Nous développons dans ce contexte une méthode d'inférence bayésienne trans-dimensionnelle et hiérarchique afin de traiter efficacement la complexité du modèle à couches. / First arrival time tomography aims at inferring the seismic wave propagation velocity using experimental first arrival times. In our study, we rely on a Bayesian approach to estimate the wave velocity and the associated uncertainties. This approach incorporates the information provided by the data and the prior knowledge of the velocity model. Bayesian tomography allows for a better estimation of wave velocity as well asassociated uncertainties. However, this approach remains fairly expensive, and MCMC algorithms that are used to sample the posterior distribution are efficient only as long as the number of parameters remains within reason. Hence, their use requires a careful reflection both on the parameterization of the velocity model, in order to reduce the problem's dimension, and on the definition of the prior distribution of the parameters. In this thesis, we introduce new parsimonious parameterizations enabling to accurately reproduce the wave velocity field with the associated uncertainties.The first parametric model that we propose uses a random Johnson-Mehl tessellation, a variation of the Voronoï tessellation. The second one uses Gaussian kernels as basis functions. It is especially adapted to the detection of seismic wave velocity anomalies. Each anomaly isconsidered to be a linear combination of these basis functions localized at the realization of a Poisson point process. We first illustrate the tomography results with a synthetic velocity model, which contains two small anomalies. We then apply our methodology to a more advanced and more realistic synthetic model that serves as a benchmark in the oil industry. The tomography results reveal the ability of our algorithm to map the velocity heterogeneitieswith precision using few parameters. Finally, we propose a new parametric model based on the compressed sensing techniques. The first results are encouraging. However, the model still has some weakness related to the uncertainties estimation.In addition, we analyse real data in the context of induced microseismicity. In this context, we develop a trans-dimensional and hierarchical approach in order to deal with the full complexity of the layered model.
12

Apport de l'épidémiologie dans le choix des outils d'aide à la prise de décision sanitaire en santé animale : evaluation des tests de dépistage en santé animale / Contribution of epidemiology to the choice of diagnostic tools for sanitary decision making in animal health : Evaluation of screening tests in animal health

Praud, Anne 06 November 2012 (has links)
L’étude et le choix des stratégies décisionnelles en santé animale nécessite de disposer d’informations sur l’efficacité des outils disponibles, qu’il s’agisse d’un test unique, d’une association de plusieurs tests ou d’un ensemble de critères cliniques et épidémiologiques. La validation des tests de dépistage ou de diagnostic constitue donc un prérequis à la conception de protocoles d’aide à la prise de décisions sanitaires. Lorsqu’il existe une référence fournissant une information sur le statut infectieux des individus étudiés, l’estimation des caractéristiques des tests peut être effectuée de manière directe. En santé animale, il est toutefois fréquent de ne pas disposer de cette information, lorsqu’aucun test ne référence n’est disponible ou lorsqu’il n’a pas pu être mis en œuvre, pour des raisons pratiques, économiques ou éthiques. Dans ce cas, l’étude des tests requiert l’utilisation de méthodes statistiques adaptées, telles l’utilisation de modèles à classe latente implémentés par une approche bayésienne. Nous avons choisi, au cours de nos travaux, de nous intéresser à l’estimation de la part d’incertitude liée à l’utilisation de tests en tant qu’outils d’aide à la prise de décision. Nous exposons dans un premier chapitre les enjeux et les modalités de la lutte contre les maladies animales, les outils épidémiologiques disponibles pour l’élaboration de stratégies décisionnelles et les méthodes permettant l’évaluation de ces outils et leur comparaison. Les trois chapitres suivants constituent une application de ces méthodes, dans des contextes différents correspondant à trois types de situations dans lesquelles il existe un besoin d’aide à la décision sanitaire en santé animale : le dépistage de la brucellose porcine chez les porcs reproducteurs, le dépistage de l’épididymite contagieuse du bélier chez les béliers destinés à l’export et le dépistage de la tuberculose bovine dans les départements de Côte d’Or et de Dordogne et dans la région camarguaise. Le dernier chapitre de ce manuscrit consiste en une discussion générale sur les modalités de choix d’un outil d’aide à la décision sanitaire. / Knowing the efficacy of a diagnostic tool, whether it is a test used alone, a sequence of several tests or a group of clinical criteria, is essential to study and choose decision strategies. The validation of diagnostic and screening tests is thus necessary to conceive decision schemes. When a gold standard is available, the characteristics of a test can be estimated directly. However, the true individual disease status of the animals is often unknown, particularly in absence of a gold standard or when the gold standard cannot be used because of economical, practical or ethical constraints. In these cases, specific statistical methods like latent class models implemented through a Bayesian approach must be used. Our work aimed at estimating the uncertainty due to the use of diagnostic tests as decision tools. The first chapter presents the issues and practical details of the struggle against animal disease and the epidemiological tools available to estimate the characteristics of the tests and to compare them. In the three following chapters, these methods are applied to three different contexts in which the conception and the evaluation of decision tools are needed: the screening of porcine brucellosis in breeding hogs, the screening of Brucella ovis infection in exported rams and the screening of bovine tuberculosis in Côte d’Or, Dordogne and Camargue (France). The last chapter consists in a global discussion about how to choose a decision tool.
13

Fiabilité des réponses fournies par un réseau logique pair-à-pair

Nguyen, Gia Hien 24 November 2008 (has links) (PDF)
Cette thèse contribue à l'amélioration de la fiabilité des réponses fournies par les systèmes pair-à-pair sémantiques de plusieurs façons. La première partie de la thèse a pour but de garantir de ne produire que des réponses bien-fondées quand le réseau global d'un tel système est inconsistant. Deux algorithmes ont été proposés. Le premier détecte des causes d'inconsistances. Il termine, est décentralisé, complet, correct. Le deuxième profite des résultats du premier pour garantir de ne raisonner que de manière bien-fondée. Il termine, est décentralisé, correct. Des résultats prometteurs ont été obtenus à partir des expérimentations. La seconde partie de la thèse considère le problème de modéliser la confiance des pairs en des réponses obtenues. Basé sur un modèle probabiliste, le modèle de confiance proposé a une sémantique claire et permet aux pairs d'estimer la confiance en des réponses obtenues avec une bonne précision même avec peu observations.
14

Séparation de sources non-négatives. Application au traitement des signaux de spectroscopie

Moussaoui, Saïd 07 December 2005 (has links) (PDF)
Lors de l'analyse physico-chmique d'un échantillon d'une substance multi-composantes par des techniques spectroscopiques, les signaux mesurés sont des mélanges linéaires des spectres purs des différentes composantes de cette substance. L'objectif de l'analyse est d'identifier la composition de la substance via l'estimation des spectres purs et la détermination de leurs concentrations. C'est un problème de séparation de sources dans lequel les spectres purs sont les signaux sources et les coefficients de mélange permettent de déduire les proportions des différentes composantes. La contrainte principale est la non-négativité des signaux sources et des coefficients de mélange. Il s'agit donc d'un problème de séparation de sources non-négatives.<br /><br />La séparation de sources est un problème fondamental en traitement du signal dont une hypothèse forte est celle de l'indépendance statistique des signaux sources. Compte tenu du recouvrement entre les spectres purs, leur corrélation mutuelle devient parfois importante. Dans une telle situation, l'application d'une méthode fondée sur l'hypothèse d'orthogonalité s'avère infructueuse. Par ailleurs, une analyse des solutions admissibles sous la contrainte de non-négativité montre que cette contrainte toute seule ne permet d'obtenir une solution unique que dans certains cas particuliers. Ces deux constats motivent le développement de deux méthodes qui considèrent conjointement l'hypothèse d'indépendance et l'information de non-négativité. La première méthode est issue de l'approche de séparation par maximum de vraisemblance et la deuxième se fonde sur une inférence bayésienne. Une évaluation numérique des performances des méthodes développées à l'aide de données synthétiques et le traitement de signaux expérimentaux permettent, d'une part, de mettre en évidence les avantages de ces méthodes par rapport aux approches usuelles et, d'autre part, de déceler leurs limitations. Des applications au traitement de signaux réels issus de trois types de spectroscopies (Infrarouge, Raman et Ultraviolet-Visible) illustrent l'apport de la séparation de sources non-négatives à l'analyse physico-chimique.
15

Une approche bayésienne de l'inversion. Application à l'imagerie de diffraction dans les domaines micro-onde et optique

Ayasso, Hacheme 10 December 2010 (has links) (PDF)
Dans ce travail, nous nous intéressons à l'imagerie de diffraction dans des configurations à deux ou trois dimensions avec pour objectif la reconstruction d'une image (fonction contraste) d'un objet inconnu à l'aide de plusieurs mesures du champ qu'il diffracte. Ce champ résulte de l'interaction entre l'objet et un champ incident connu dont la direction de propagation et la fréquence peuvent varier. La difficulté de ce problème réside dans la non-linéarité du modèle direct et le caractère mal posé du problème inverse qui nécessite l'introduction d'une information a priori (régularisation). Pour cela, nous utilisons une approche bayésienne avec une estimation conjointe du contraste de l'objet, des courants induits et des autres paramètres du modèle. Le modèle direct est décrit par deux équations intégrales couplées exprimant les champs électriques observé et existant à l'intérieur de l'objet, dont les versions discrètes sont obtenues à l'aide de la méthode des moments. Pour l'inversion, l'approche bayésienne permet de modéliser notre connaissance a priori sur l'objet sous forme probabiliste. Les objets que nous étudions ici sont connus pour être constitués d'un nombre fini de matériaux homogènes répartis en régions compactes. Cette information a priori est introduite dans l'algorithme d'inversion à l'aide d'un mélange de gaussiennes, où chaque gaussienne représente une classe de matériaux, tandis que la compacité des régions est prise en compte au travers d'un modèle de Markov caché. La nature non linéaire du modèle direct et l'utilisation de cet a priori nous amènent à des estimateurs qui n'ont pas de formes explicites. Une approximation est donc nécessaire et deux voies sont possibles pour cela: une approche numérique, par exemple MCMC, et une approche analytique comme l'approche bayésienne variationnelle. Nous avons testé ces deux approches qui ont donné de bons résultats de reconstruction par rapport aux méthodes classiques. Cependant, l'approche bayésienne variationnelle permet de gagner énormément en temps de calcul par rapport à la méthode MCMC.
16

Modélisation de données pharmacologiques précliniques et cliniques d'efficacité des médicaments anti-angiogéniques en cancérologie / Modeling of preclinical and clinical pharmacological data for the efficacy of antiangiogenic compounds in oncology

Ouerdani, Aziz 27 May 2016 (has links)
En l’espace d’une quarantaine d’année, les connaissances sur l’angiogenèse tumorale ont littéralement explosé. Dans les années 1970, Judah Folkman démontre que les tumeurs ont besoin d’être vascularisées pour continuer à proliférer. Peu de temps après, les protagonistes principaux de l’angiogenèse tumorale ont été découverts, de même que les mécanismes dans lesquels ils sont impliqués. La décennie suivante marque le début des recherches sur les molécules à visée anti-angiogénique et c’est en 2004 que le bevacizumab (Avastin, Roche), premier médicament anti-angiogénique utilisé en oncologie, voit le jour. Parallèlement à cela, l’essor de la modélisation à effets-mixtes couplée aux progrès des outils informatiques ont permis de développer des méthodes d’analyses de données de plus en plus performantes. Dès 2009 L’agence de régulation FDA (Food and Drug Administration) aux Etats-Unis a identifié le rôle central de la modélisation numérique pour mieux analyser les données d’efficacité et de toxicité, préclinique et clinique en cancérologie. Le but de ce projet est d’étudier les effets de différents inhibiteurs de l’angiogenèse sur la dynamique tumorale, en se basant sur une approche populationnelle. Les modèles développés seront des modèles à base d’équations différentielles ordinaires intègrant des données et des informations issues de la littérature. L’objectif de ces modèles est de caractériser la dynamique des tailles tumorales chez les animaux et chez les patients, afin de comprendre les effets des traitements anti-angiogéniques et apporter un soutien pour le développement de ces molécules ou pour la prise de décisions thérapeutiques par les cliniciens. / Within the last 40 years, knowledge of tumor angiogenesis has literally exploded. In the seventies, Judah Folkman demonstrated that tumors need to be vascularized to continue to proliferate. Shortly after, the main protagonists of tumor angiogenesis have been discovered, as well as the mechanisms in which they are involved. The next decade is the beginning of the research on molecules with anti-angiogenic effects and in 2004 bevacizumab (Avastin, Roche), the first antiangiogenic drug used in oncology, was available for treating solid cancer patients. Along with this, the increasing interest of mixed-effects modeling coupled with advances in computer tools allowed developing more efficient methods of data analysis. In 2009, the regulatory agency FDA (Food and Drug Administration) in the United States has identified the central role of numerical modeling to better analyze the efficacy and toxicity preclinical and clinical oncology data. The aim of this project is to study the effects of different angiogenesis inhibitors on tumor dynamics, based on a population approach. The developed models are models based on ordinary differential equations and that integrate data and information from the literature. The objective of these models is to characterize the dynamics of tumor sizes in animals and patients in order to understand the effects of anti-angiogenic treatments and provide support for the development of these molecules, or to help clinicians for therapeutic decision making.
17

Simultaneous characterization of objects temperature and radiative properties through multispectral infrared thermography / Caractérisation conjointe de la température et des propriétés radiatives des objets par thermographie infrarouge multispectrale

Toullier, Thibaud 06 November 2019 (has links)
L'utilisation de caméras infrarouges bas coûts pour la surveillance long-terme d'infrastructures est prometteuse grâce aux dernières avancées technologiques du domaine. Une mesure précise de la température des surfaces observées in-situ se heurte au manque de connaissance des propriétés radiatives de la scène. L'utilisation d'une instrumentation multi-capteurs permet d'affiner le modèle de mesure afin d'obtenir une estimation plus précise de la température. A contrario, il est montré qu'il est toujours possible d'exploiter des données climatiques en ligne pour pallier un manque de capteur. Des méthodes bayésiennes d'estimation conjointe d'émissivité et de température sont ensuite développées et comparées aux méthodes de la littérature. Un simulateur d'échanges radiatifs diffus de scènes 3D a été implémenté afin de tester ces différentes méthodes. Ce logiciel utilise l'accélération matérielle de la machine pour réduire les temps de calcul. Les résultats numériques obtenus mettent en perspective une utilisation avancée de la thermographie infrarouge multi-spectrale pour la surveillance de structures. Cette estimation conjointe permet alors d'obtenir un estimé de la température par thermographie infrarouge avec une incertitude connue. / The latest technological improvements in low-cost infrared cameras have brought new opportunities for long-term infrastructures monitoring. The accurate measurement of surfaces' temperatures is facing the lack of knowledge of radiatives properties of the scene. By using multi-sensors instrumentation, the measurement model can be refined to get a better estimate of the temperature. To overcome a lack of sensors instrumentation, it is shown that online and free available climatic data can be used. Then, Bayesian methods to estimate simultaneously the emissivity and temperature have been developed and compared to literature's methods. A radiative exchange simulator of 3D scenes have been developed to compare those different methods on numerical data. This software uses the hardware acceleration as well as a GPGPU approach to reduce the computation time. As a consequence, obtained numerical results emphasized an advanced use of multi-spectral infrared thermography for the monitoring of structures. This simultaneous estimation enables to have an estimate of the temperature by infrared thermography with a known uncertainty.
18

Approche bayésienne pour la localisation de sources en imagerie acoustique / Bayesian approach in acoustic source localization and imaging

Chu, Ning 22 November 2013 (has links)
L’imagerie acoustique est une technique performante pour la localisation et la reconstruction de puissance des sources acoustiques en utilisant des mesures limitées au réseau des microphones. Elle est largement utilisée pour évaluer l’influence acoustique dans l’industrie automobile et aéronautique. Les méthodes d’imagerie acoustique impliquent souvent un modèle direct de propagation acoustique et l’inversion de ce modèle direct. Cependant, cette inversion provoque généralement un problème inverse mal-posé. Par conséquent, les méthodes classiques ne permettent d’obtenir de manière satisfaisante ni une haute résolution spatiale, ni une dynamique large de la puissance acoustique. Dans cette thèse, nous avons tout d’abord nous avons créé un modèle direct discret de la puissance acoustique qui devient alors à la fois linéaire et déterminé pour les puissances acoustiques. Et nous ajoutons les erreurs de mesures que nous décomposons en trois parties : le bruit de fond du réseau de capteurs, l’incertitude du modèle causée par les propagations à multi-trajets et les erreurs d’approximation de la modélisation. Pour la résolution du problème inverse, nous avons tout d’abord proposé une approche d’hyper-résolution en utilisant une contrainte de parcimonie, de sorte que nous pouvons obtenir une plus haute résolution spatiale robuste à aux erreurs de mesures à condition que le paramètre de parcimonie soit estimé attentivement. Ensuite, afin d’obtenir une dynamique large et une plus forte robustesse aux bruits, nous avons proposé une approche basée sur une inférence bayésienne avec un a priori parcimonieux. Toutes les variables et paramètres inconnus peuvent être estimées par l’estimation du maximum a posteriori conjoint (JMAP). Toutefois, le JMAP souffrant d’une optimisation non-quadratique d’importants coûts de calcul, nous avons cherché des solutions d’accélération algorithmique: une approximation du modèle direct en utilisant une convolution 2D avec un noyau invariant. Grâce à ce modèle, nos approches peuvent être parallélisées sur des Graphics Processing Unit (GPU) . Par ailleurs, nous avons affiné notre modèle statistique sur 2 aspects : prise en compte de la non stationarité spatiale des erreurs de mesures et la définition d’une loi a priori pour les puissances renforçant la parcimonie en loi de Students-t. Enfin, nous ont poussé à mettre en place une Approximation Variationnelle Bayésienne (VBA). Cette approche permet non seulement d’obtenir toutes les estimations des inconnues, mais aussi de fournir des intervalles de confiance grâce aux paramètres cachés utilisés par les lois de Students-t. Pour conclure, nos approches ont été comparées avec des méthodes de l’état-de-l’art sur des données simulées, réelles (provenant d’essais en soufflerie chez Renault S2A) et hybrides. / Acoustic imaging is an advanced technique for acoustic source localization and power reconstruction using limited measurements at microphone sensor array. This technique can provide meaningful insights into performances, properties and mechanisms of acoustic sources. It has been widely used for evaluating the acoustic influence in automobile and aircraft industries. Acoustic imaging methods often involve in two aspects: a forward model of acoustic signal (power) propagation, and its inverse solution. However, the inversion usually causes a very ill-posed inverse problem, whose solution is not unique and is quite sensitive to measurement errors. Therefore, classical methods cannot easily obtain high spatial resolutions between two close sources, nor achieve wide dynamic range of acoustic source powers. In this thesis, we firstly build up a discrete forward model of acoustic signal propagation. This signal model is a linear but under-determined system of equations linking the measured data and unknown source signals. Based on this signal model, we set up a discrete forward model of acoustic power propagation. This power model is both linear and determined for source powers. In the forward models, we consider the measurement errors to be mainly composed of background noises at sensor array, model uncertainty caused by multi-path propagation, as well as model approximating errors. For the inverse problem of the acoustic power model, we firstly propose a robust super-resolution approach with the sparsity constraint, so that we can obtain very high spatial resolution in strong measurement errors. But the sparsity parameter should be carefully estimated for effective performance. Then for the acoustic imaging with large dynamic range and robustness, we propose a robust Bayesian inference approach with a sparsity enforcing prior: the double exponential law. This sparse prior can better embody the sparsity characteristic of source distribution than the sparsity constraint. All the unknown variables and parameters can be alternatively estimated by the Joint Maximum A Posterior (JMAP) estimation. However, this JMAP suffers a non-quadratic optimization and causes huge computational cost. So that we improve two following aspects: In order to accelerate the JMAP estimation, we investigate an invariant 2D convolution operator to approximate acoustic power propagation model. Owing to this invariant convolution model, our approaches can be parallelly implemented by the Graphics Processing Unit (GPU). Furthermore, we consider that measurement errors are spatially variant (non-stationary) at different sensors. In this more practical case, the distribution of measurement errors can be more accurately modeled by Students-t law which can express the variant variances by hidden parameters. Moreover, the sparsity enforcing distribution can be more conveniently described by the Student's-t law which can be decomposed into multivariate Gaussian and Gamma laws. However, the JMAP estimation risks to obtain so many unknown variables and hidden parameters. Therefore, we apply the Variational Bayesian Approximation (VBA) to overcome the JMAP drawbacks. One of the fabulous advantages of VBA is that it can not only achieve the parameter estimations, but also offer the confidential interval of interested parameters thanks to hidden parameters used in Students-t priors. To conclude, proposed approaches are validated by simulations, real data from wind tunnel experiments of Renault S2A, as well as the hybrid data. Compared with some typical state-of-the-art methods, the main advantages of proposed approaches are robust to measurement errors, super spatial resolutions, wide dynamic range and no need for source number nor Signal to Noise Ration (SNR) beforehand.
19

Reconstruction de profils moléculaires : modélisation et inversion d'une chaîne de mesure protéomique

Strubel, Grégory 01 December 2008 (has links) (PDF)
Des systèmes basés sur la chromatographie et la spectrométrie de masse sont utilisés pour analyser les échantillons biologiques comme l'urine ou le sang. Cette thèse propose une méthode, qui à partir des données, mesure la concentration de biomarqueurs. Dans la première partie du travail, nous élaborons un modèle décrivant chaque module de la chaîne d'analyse. Cependant, pour s'abstraire des fluctuations expérimentales, notre méthode doit évaluer certains paramètres instrument en plus des concentrations. La seconde partie consiste à traiter ce problème d'estimation non linéaire dans le cadre des approches statistiques bayésiennes. Cette démarche nous permet d'introduire de l'information supplémentaire, sous la forme de lois de probabilité, afin de régulariser le problème. La méthode est structurée autour d'un estimateur de la moyenne a posteriori. Sa mise en œuvre algorithmique utilise une boucle de Gibbs incluant un échantillonneur de Metropolis-Hastings.
20

Développement de méthodes de traitement de signaux spectroscopiques : estimation de la ligne de base et du spectre de raies

Mazet, Vincent 01 December 2005 (has links) (PDF)
Cette thèse s'inscrit dans le cadre d'une collaboration entre le CRAN (UMR 7039) et le LCPME (UMR 7564) dont l'objectif est de développer des méthodes d'analyse de signaux spectroscopiques.<br /><br />Dans un premier temps est proposée une méthode déterministe qui permet d'estimer la ligne de base des spectres par le polynôme qui minimise une fonction-coût non quadratique (fonction de Huber ou parabole tronquée). En particulier, les versions asymétriques sont particulièrement bien adaptées pour les spectres dont les raies sont positives. Pour la minimisation, on utilise l'algorithme de minimisation semi-quadratique LEGEND.<br /><br />Dans un deuxième temps, on souhaite estimer le spectre de raies : l'approche bayésienne couplée aux techniques MCMC fournit un cadre d'étude très efficace. Une première approche formalise le problème en tant que déconvolution impulsionnelle myope non supervisée. En particulier, le signal impulsionnel est modélisé par un processus Bernoulli-gaussien à support positif ; un algorithme d'acceptation-rejet mixte permet la simulation de lois normales tronquées. Une alternative intéressante à cette approche est de considérer le problème comme une décomposition en motifs élémentaires. Un modèle original est alors introduit ; il a l'intérêt de conserver l'ordre du système fixe. Le problème de permutation d'indices est également étudié et un algorithme de ré-indexage est proposé.<br /><br />Les algorithmes sont validés sur des spectres simulés puis sur des spectres infrarouge et Raman réels.

Page generated in 0.064 seconds