• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 57
  • 7
  • 2
  • Tagged with
  • 63
  • 32
  • 27
  • 20
  • 17
  • 16
  • 13
  • 13
  • 11
  • 10
  • 9
  • 8
  • 7
  • 7
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Proposition d'une approche de segmentation d'images hyperspectrales

Gorretta, Nathalie 25 February 2009 (has links) (PDF)
L'imagerie hyper-spectrale (IHS) consiste à créer et à analyser des images de la même scène pour une succession de longueurs d'onde dans un domaine spectral donné. De telles images apportent des informations sur la constitution chimique des objets et permettent ainsi de distinguer des objets de même couleur mais de compositions chimiques différentes. <br />Cependant, quel que soit le domaine d'application, la plupart des méthodes développées pour le traitement des images hyperspectrales analysent les données sans prendre en compte l'information spatiale. Les pixels sont alors traités individuellement comme un simple tableau de mesures spectrales sans arrangement particulier. Cependant, l'exploitation conjointe de l'information spectrale et spatiale disponibles, du fait entre autres, de l'apparition d'imageurs spectraux de meilleure résolution, apparaît aujourd'hui essentielle pour permettre le traitement d'images de contenu complexe.<br />Dans le cadre de nos travaux concernant l'IHS, nous nous sommes intéressés à cette<br />problématique. Nous avons ainsi proposé un schéma itératif générique appelé \emph{papillon} permettant de mêler les aspects spatiaux et spectraux de manière symétrique, de façon à ne pas privilégier un espace par rapport à l'autre et de manière conjointe, de façon à ce que l'information spatiale se nourrisse de l'information spectrale et vice-versa, pour avancer dans le processus de traitement de l'image. Pour ce faire, la combinaison spectro/spatiale proposée repose, d'une part, sur la construction d'un espace spectral adapté à l'information topologique (construction de variables latentes), et d'autre part, sur la génération d'une topologie sur l'espace spatial. Dans nos développements récents, la notion d'information topologique est limitée à la notion de région.\\<br />L'approche proposée apparaît comme une procédure générique dont le contenu et l'implémentation peuvent être choisis et adaptés aux images traitées. Dans le cadre de cette thèse, nous avons proposé une implémentation utilisant une étape de division suivie d'une étape de fusion. La construction d'un espace adapté pour chacune de ces deux étapes a été réalisée respectivement par la diagonalisation de la matrice de variance intra-région et inter-région. Nous avons également utilisé, pour l'étape de division, plusieurs approches de segmentation régions dont les coupes normalisées avec contrainte spatiale et une version modifiée de l'algorithme de partage des eaux ou LPE. <br />Pour finir, nous avons validé le fonctionnement de notre approche et illustré ces principales caractéristiques à l'aide d'images synthétiques et réelles.
2

Dosage du polymorphisme : spectrométrie IRTF et chimiométrie. Application aux formes polymorphes du CL20 (Hexaazahexanitroisowurtzitane / HNIW).

Dumas, Severine 20 June 2003 (has links) (PDF)
L'HexaazahexaNitroIsoWurtzitane (ou HNIW), dérivé hexanitré, encore appelé CL20, est une nouvelle molécule hautement énergétique, qui présente quatre formes polymorphes : α, β, γ et ε. La forme ε est la plus active et la commercialisation stipule de fournir un produit dont la teneur en forme ε soit supérieure à 95%, avec estimation des teneurs des autres formes ainsi que de l'impureté majoritaire (dérivé pentanitré). L'objet du présent travail est d'une part de caractériser les différentes formes polymorphes, et d'autre part de mettre au point, d'optimiser et de valider une méthode d'analyse quantitative du CL20 polymorphe par couplage spectro-métrie IRTF/chimiométrie, respectant les impératifs techniques et commerciaux et transférable sur site industriel. Les méthodes chimiométriques sont utilisées pour concevoir l'expérimentation et traiter l'information expérimentale nécessaire (étalonnage et validation).
3

Résolution et modélisation chimiométrique en spectroscopie moléculaire

Ruckebusch, Cyril 09 June 2008 (has links) (PDF)
Cette Habilitation à Diriger des Recherches présente les concepts et développements en chimiométrie pour la description, la résolution ou la modélisation des données des systèmes physico-chimiques étudiés par spectroscopie moléculaire. Les algorithmes de chimiométrie seront d'abord redéfinis dans un contexte mathématique et<br />statistique pour justifier l'utilisation qui en est faite en spectroscopie. L'accent sera mis ensuite sur les travaux de recherche et les activités de valorisation autour des deux axes suivants :<br /><br />- l'analyse des systèmes chimiques et physico-chimiques évolutifs, tels que les processus réactionnels photoinduits. L'idée est la description des données spectro-cinétiques par un modèle de structure algébrique bilinéaire, le problème consistant à estimer les contributions cinétiques et spectrales des constituants purs du système chimique. Nous montrons l'intérêt des méthodes multivariées de résolution de courbes pour l'analyse globale des données des systèmes multi-expériences et pour l'intégration d'informations physico-chimiques lors de la résolution. Le résultat<br />est une description adaptée et robuste des données permettant la caractérisation moléculaire des espèces transitoires inconnues. Nous envisageons également les développements vers les méthodes hybrides ou semiparamétriques, en lien avec les approches statistiques développées en traitement du signal.<br /><br />- l'analyse qualitative ou quantitative d'échantillons complexes, multi-composants et soumis à de nombreux facteurs d'influence, tels que les échantillons naturels ou manufacturés. L'idée est la modélisation d'une grandeur obtenue par une méthode de référence à partir d‘observations spectroscopiques des échantillons. L'objectif du modèle construit est la prédiction de cette grandeur lors d'observations ultérieures, pour bénéficier des caractéristiques métrologiques des techniques de spectroscopie. Nous montrons le potentiel des méthodes issues de l'apprentissage statistique. Les développements sont liés à l'écriture de termes de pénalisation de l'erreur empirique, notamment pour le contrôle de la complexité des modèles. Nous insistons sur les méthodes non-paramétriques telles que les machines à vecteurs de support à fonctions noyaux, pour nos applications en spectroscopie, lorsque la dimension des données est problématique.
4

Développements chimiométriques pour améliorer la robustesse des mesures spectrométriques appliquées aux agro-procédés

Roger, Jean-Michel 28 November 2005 (has links) (PDF)
Pour répondre aux besoins de l'agriculture de précision, le Cemagref développe des capteurs, notamment à base de spectrométrie infrarouge. Une analyse théorique rapide de ce principe de mesure montre qu'un des problèmes majeurs de ces capteurs a trait à la robustesse des modèles d'étalonnage. Une analyse détaillée de cette problématique nous a conduits à isoler trois voies de recherche :<br /><br />1/ La prise en compte des grandeurs d'influence. Selon qu'une grandeur d'influence, responsable d'un problème de robustesse, est mesurable ou non, différentes stratégies de correction du modèle d'étalonnage sont envisageables. Les grandes familles de méthodes ont été identifiées et comparées dans le cas de l'effet de la température sur la mesure du taux de sucres des pommes. Nous avons développé une méthode originale de correction de l'étalonnage : L'EPO (pour External Parameter Orthogonalisation) propose d'ôter de l'espace de mesure la partie influencée par la grandeur d'influence, au moyen d'une projection orthogonale. Cette opération, réalisée à partir de quelques mesures simples, permet de traiter des bases d'étalonnage existantes.<br /><br />2/ La maintenance de la robustesse. Les problèmes de robustesse interviennent lors de l'utilisation répétée des capteurs. Cette maintenance est traditionnellement réalisée par ré-étalonnage ou transfert d'étalonnage. Dans les deus cas, la mesure d'échantillons "standard" est nécessaire. Nous avons développé une méthode de correction d'étalonnage en ligne, qui ne nécessite pas ces standards : DOP (pour Dynamic Orthogonal Projection) utilise le principe de projection orthogonale de l'EPO, en identifiant le sous espace des perturbations à partir de la connaissance de quelques points de recalage.<br /><br />3/ La discrimination à partir des spectres. Cette opération, qui permet de réaliser des diagnostics à partir de la mesure spectrale, est nécessaire pour : détecter les mesures aberrantes, reconnaître des classes d'objets, réaliser des régressions locales, etc. Nous proposons une nouvelle méthode de discrimination, basée sur le parcours de fonctions numériques, nommées Fonctions Propres Focales. Certaines propriétés de ces fonctions permettent de parcourir une série d'espaces au pouvoir discriminant croissant. Des algorithmes de parcours classiques, avec arrêt d'apprentissage, peuvent ainsi être mis en oeuvre.
5

Développement d'une méthode PAT basée sur la technique NIR pour le suivi de l'uniformité d'un mélange particulaire pharmaceutique et l'évaluation de la taille moyenne des particules

Lapointe-Garant, Pierre-Philippe January 2009 (has links)
En 1992, le cas de Barr Laboratories vs. US Food and Drug Administration (FDA) est le sujet de l'heure dans l'industrie pharmaceutique. La FDA poursuit le manufacturier contractuel de produit pharmaceutique pour ses mauvaises pratiques de validation de procédés et de tests de routine. Le mélange des matières premières est particulièrement visé. Les procédures de validation y sont en effet négligées et les contrôles et évaluations de la qualité du produit fini sont alors restreints aux tests de quelques comprimés sur un lot parfois de plusieurs millions de comprimés. Un besoin est ainsi identifié : mettre en place un nouveau système d'évaluation de la qualité ou de contrôle de la production plus représentatif. C'est ainsi qu'en 2004 est lancée l'initiative des technologies d'analyse des procédés, ou"Process Analytical Technologies" ou PAT. Cette initiative, chapeautée par la FDA, prend rapidement de l'ampleur bien que restant à ce jour une recommandation plus qu'une loi. Dans la même veine, le projet de Recherche et Développement Coopératif (RDC) entre l'Université de Sherbrooke et Wyeth Pharmaceutiques sur l'étude des phénomènes granulaires d'écoulement et de ségrégation identifie ce même besoin important pour la continuation des travaux. C'est ainsi que naquit ce présent projet de maîtrise. Afin de faire suite aux recommandations de la FDA et afin de continuer les études sur les systèmes particulaires, un outil de suivi de la qualité en ligne doit être développé pour les mélangeurs utilisés dans l'industrie pharmaceutique. Cet outil devra éventuellement être viable pour la production de l'entreprise et servira de critère de relâche des produits finis. La technologie de la spectroscopie en proche infrarouge (NIR) a rapidement été identifiée pour ce besoin. Cette technologie possède les avantages nécessaires afin d'être installée sur le mélangeur et suivre la qualité de mélange en temps réel. Les travaux ici présentés ont été effectués entre janvier 2006 et septembre 2008 sur une véritable formulation pharmaceutique et ont été appliqués à l'échelle laboratoire tout comme à l'échelle de production conventionnelle. Les travaux ont permis d'identifier trois techniques d'analyse statistique viables pour le suivi de l'homogénéité de mélange en ligne : l'analyse de la variance, l'analyse de la distance et l'analyse quantitative. Ces trois techniques possèdent toutes leurs avantages et désavantages et le choix d'une de ces techniques dépend de la formule visée et du besoin du client. De plus, grâce à l'application d'un Design d'Expérience (DoE), les paramètres critiques ayant une influence sur le spectre NIR ont été évalués. La distribution de tailles de particules est un de ces facteurs ayant une influence importante. Son influence a été évaluée grâce à l'application du modèle de Kubelka-Munk. Les recommandations de ces travaux ont été transmises à l'entreprise Wyeth Pharmaceutiquess à Montréal et seront appliquées pour la future implantation de la technologie NIR pour le suivi de l'homogénéité de mélange lors des procédés de mélanges granulaires pharmaceutiques.
6

Mise au point de la spectroscopie de fluorescence pour la taxonomie des Pseudomonads. Application à la caractérisation d'isolats d'ateliers carnés

Tourkya, Belal 06 July 2009 (has links) (PDF)
Dans le champ des méthodologies dédiées à la caractérisation des microorganismes, les méthodes spectroscopiques comme la spectroscopie de fluorescence apparaisent des outils particulièrement sensibles. Leur puissance est renforcée par l'utilisation d'outils chimiométriques qui autorisent le traitement de l'ensemble des informations spectrales. Ce mémoire présente les étapes de mise au point de la méthode pour la caractérisation des Pseudomonads qui constituent une des flores les plus adaptatives et présentant la plus grande diversité phénotypique et génotypique décrite à ce jour. Par l'utilisation de fluorophores intrinsèques (NADH, Acides aminés aromatiques + Acides nucléiques ou tryptophane) l'analyse de suspensions bactériennes préparées directement à partir de colonies permet d'obtenir plus de 90% de bonne classification pour des souches de référence même réparties en taxons proches. Cette méthode a permis, également, une identification aisée d'isolats et les résultats obtenus sont apparus cohérents avec ceux issus de PCR tout en apportant des informations complémentaires à ceux obtenus par identification sur galerie API 20 NE. LA méthode a été développée pour une lecture directe des colonies sur un milieu gélosé. Après différentes étapes de cadrage, la meilleure pertinence a été obtenue pour une lecture des colonies en fluorescence synchrone avec un décalage constant de 30 nm. L'analyse de la variance a montré une excellente répétabilité des résultats mais aussi des effets" position de la fibre optique vis à vis de la colonie" et durée d'incubation avant lecture (entre 48 et 72 heures) négligeables. Utilisée à des fins taxonomiques, la méthode s'est révélée très cohérente et complémentaire des méthodes relevant de la génomique. Elle permet d'analyser extrêmement rapidement et sans ajout de réactifs les proximités ou distance entre souches et de décrire les zones spectrales les plus identitaires. Enfin, nous avons aussi montré les potentialités de la spectroscopie de fluorescence pour la mise en place d'un outil de "traçabilité bactérienne" susceptible de répondre aux besoins des producteurs agroalimentaires dans leur démarche d'analyse des risques.
7

Développements informatiques de déréplication et de classification de données spectroscopiques pour le profilage métabolique d’extraits d'algues / Development of chemometric tools for the classification of spectroscopic data and dereplication of algae metabolites

Bakiri, Ali 31 May 2018 (has links)
L’émergence des méthodes de déréplication comme moyen d’identification rapide des substances naturelles connues implique le développement conjoint d’outils informatiques dédiés au traitement et à l’analyse des données spectrales. Dans ce contexte, les travaux présentés dans ce mémoire ont porté sur le développement de deux méthodes in silico de déréplication par résonance magnétique nucléaire (RMN). La première méthode, DerepCrud, permet l’identification des molécules naturelles à partir d’extraits naturels bruts en utilisant des données de RMN du 13C. La méthode permet de comparer des spectres de RMN 1D du 13C issus de l’analyse d’un extrait naturel à ceux des molécules naturelles répertoriées dans une base de données locale afin de pouvoir identifier les composés majoritaires. La deuxième méthode, BCNet, permet d’exploiter les données RMN bidimensionnelles (HMBC et HSQC) pour la déréplication de molécules naturelles. L’algorithme construit un réseau de corrélations HMBC formés par les signaux appartenant aux différentes molécules constituant un extrait puis isole les signaux de chaque molécule grâce à l’utilisation d’algorithmes de détection de communautés. Les molécules sont enfin identifiées en effectuant une recherche dans la base de données des corrélations HMBC. A la fin de la procédure, la présence des molécules identifiées est confirmée par une comparaison de leurs corrélations HSQC théoriques (aussi issues de la base de données) avec les corrélations expérimentales correspondantes afin de renforcer la précision de l’identification. / The emergence of dereplication strategies as a new tool for the rapid identification of the natural products from complex natural extracts has unveiled a great need for cheminformatic tools for the treatment and analysis of the spectral data. The present thesis deals with the development of in silico dereplication methods based on Nuclear Magnetic Resonance (NMR). The first method, DerepCrud, is based on 13C NMR spectroscopy. It identifies the major compounds contained in a crude natural extract without any need for fractionation. The principle of the method is to compare the 13C NMR spectrum of the analyzed mixture to a series of 13C NMR chemical shifts of natural compounds stored in a local database. The second method, BCNet, is designed to exploit the richness of 2D NMR data (HMBC and HSQC) for the dereplication of the natural products. BCNet traces back the network formed by the HMBC correlations of the molecules present in a naturel extract, then isolates the groups of correlations belonging to the individual molecules using a community detection algorithm. The molecules are identified by searching these correlations within a locally constructed database that associates natural product structures and 2D NMR peak positions. Finally, the HSQC correlations of the molecules identified during the previous step are compared to the experimental HSQC correlations of the studied extract in order to increase the quality of identification accuracy.
8

Analyse bidimensionnelle du transport ionique à travers une membrane échangeuse d'anions

Thibault, Christophe 08 July 2004 (has links) (PDF)
Thèse de Doctorat sur l'étude du transport ionique à travers une membrane échangeuse d'ions par cartographie par spectroscopie Raman confocale. Le but de ce travail était de déterminer expérimentalement par spectroscopie Raman les profils de concentration dans la membrane et ceci pour les expériences de dialyse et d'électrodialyse. Une cellule de transport et de mesures a été spécialement conçue pour nos besoins. Dans les cas les plus simples, nous avons pu tracer les profils de concentration en fonction des points sondés par le faisceau laser dans la membrane et aussi en fonction du temps. L'établissement d'un état stationnaire a aussi pu être observé. L'autre grande partie de ce travail reposait sur le traitement des données spectrales obtenues. Expérimentalement, on obtient un nombre très important de spectres. Afin de les traiter, nous avons utilisé la technique d'analyse en composantes principales qui un outil statistique puissant de traitement de données. Cet outil permet de savoir comment varient les différents paramètres, au cours des expériences, en analysant un grand nombre de spectres Raman. On peut alors déterminer l'évolution des concentrations des différentes espèces en fonction des paramètres expérimentaux. Plusieurs communications découlent de ce travail dont un article publié dans Desalination « Confocal Raman micro-spectroscopy and electrochemical investigation of anion transport through ion-exchange membrane ».
9

Imagerie chimique et chimiométrie pour l'analyse des formes pharmaceutiques solides

Gendrin, Christelle 13 November 2008 (has links) (PDF)
En associant informations spectrale et spatiale, l'imagerie proche-infrarouge permet l'identification et la localisation des espèces chimiques. Chaque mesure génère un cube de données contenant des milliers de spectres qui doivent être traités pour une interprétation objective des analyses.<br />La première problématique est l'extraction des cartes de distributions des composés chimiques. Dans le premier cas, la composition du médicament est connue et les longueurs d'onde spécifiques des composés ou les spectres de référence sont utilisés pour extraire les cartes de distributions. L'étude des histogrammes et un schéma de segmentation utilisant l'algorithme "Watershed" sont ensuite proposés pour les caractériser. Dans un deuxième temps le cas ou aucun a priori n'est connu est étudié. L'extraction simultanée de la concentration et des spectres purs à partir de la matrice de mélange doit alors être effectuée. Plusieurs algorithmes sont comparés: NMF, BPSS, MCR-ALS and PMF, les outils de rotation ont aussi été introduits pour explorer le domaine de solutions et PMF se montre alors le plus précis pour l'extraction.<br />La deuxième problématique est la quantification du principe actif dans des comprimés. Une première étude menée sur des mélanges binaires révèle les difficultés de la quantification sans a priori. Il est démontré ensuite que la quantification est la plus précise lorsqu'une gamme d'échantillons de concentration connue est utilisée pour établir le modèle mathématique à l'aide de l'algorithme PLS, cependant si une librairie spectrale constituée des spectres de référence est construite, alors l'algorithme PLS-DA donne une information semi-quantitative.
10

Imagerie par spectrométrie de masse MALDI et outils chimiométriques pour la cartographie de formes pharmaceutiques solides / MALDI mass spectrometry imaging and chemometric tools for mapping of pharmaceutical solid dosage forms

Gut, Yoann 28 April 2016 (has links)
L’agence européenne du médicament (EMA) stipule que les entreprises pharmaceutiques se doivent d’améliorer continuellement le contrôle de leur production afin de garantir la qualité des médicaments et préserver la santé des patients. Les outils analytiques classiques sont, par exemple, capables d’examiner l’intégralité d’un comprimé pharmaceutique pour contrôler la qualité et la quantité des substances actives utilisées et estimer leurs profils de libération dans l’organisme. Ils ne permettent cependant pas de cartographier la distribution des composés chimiques pourtant considérée comme un critère important pour la qualité du médicament. Des techniques d’imagerie chimique comme la MSI MALDI sont donc utilisées afin de déterminer par une analyse unique la répartition spatiale et la structure des composés constituant les médicaments. Toutefois, la MSI MALDI nécessite une préparation des échantillons relativement complexe et génère des données de grande taille difficilement exploitables. Ces caractéristiques, ainsi que l’absence de spectromètre de masse adapté à l’analyse de formes pharmaceutiques solides, complexifient la mise en place de la MSI MALDI au sein de laboratoires industriels. Les travaux réalisés durant cette thèse ont eu pour objectifs d’améliorer le protocole de préparation des échantillons, d’optimiser le système d’acquisition et de mettre en place les outils chimiométriques et informatiques nécessaires à l’analyse des images MALDI au sein de l’entreprise Technologie Servier. Les développements réalisés et les résultats obtenus ont finalement permis la résolution de problématiques inexplicables jusqu’alors par les techniques analytiques classiques. / European Medicines Agency (EMA) recommendations stipulate that pharmaceutical companies have to continually improve manufacturing efficiency to ensure drug product quality. The commonly used analytical tools provide information about drug substance quality and dosage or the drug release profile by dissolving the whole tablet. However these analytical tools are not able to highlight the distribution of chemical compounds contained in the tablet. This is why chemical imaging such as MALDI MSI are used to extract the spatial and spectral information from pharmaceutical solid dosage forms. This hyperspectral imaging technique needs complex sample preparation and generates huge dataset. These two features, as well as the lack of optimized mass spectrometers to study tablets, make difficult the implementation of the MALDI MSI in industrial laboratories. During this thesis, the sample preparation protocol has been improved, the mass spectrometer has been optimized to analyze tablets and chemometrics tools has been developed in order to implement MALDI MSI within Technologie Servier company.

Page generated in 0.0368 seconds