• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 83
  • 27
  • 6
  • 1
  • Tagged with
  • 117
  • 117
  • 106
  • 57
  • 54
  • 43
  • 33
  • 24
  • 16
  • 15
  • 15
  • 14
  • 13
  • 12
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Diagnostic de systèmes non linéaires par analyse en composantes principales à noyau / Diagnosis of nonlinear systems using kernel Principal Component Analysis

Anani, Kwami Dodzivi 21 March 2019 (has links)
Dans cette thèse, le diagnostic d'un système non linéaire a été réalisé par une analyse de données. Initialement conçue pour analyser les données liées par des relations linéaires, l'Analyse en Composantes Principales (ACP) est couplée aux méthodes à noyau pour détecter, localiser et estimer l'amplitude des défauts sur des systèmes non linéaires. L'ACP à noyau consiste à projeter les données par l'intermédiaire d'une application non linéaire dans un espace de dimension élevée dénommé espace des caractéristiques où l'ACP linéaire est appliquée. Ayant fait la projection à l'aide de noyaux, la détection peut facilement être réalisée dans l'espace des caractéristiques. Cependant, l'estimation de l'amplitude du défaut nécessite la résolution d'un problème d'optimisation non linéaire. Une étude de contributions permet de localiser et d'estimer ces amplitudes. La variable ayant la plus grande contribution est susceptible d'être affectée par un défaut. Dans notre travail, nous avons proposé de nouvelles méthodes pour les phases de localisation et d'estimation des défauts pour lesquelles les travaux existants ont des limites. La nouvelle méthode proposée est basée sur les contributions sous contraintes permettant d'obtenir une reconstruction parcimonieuse des variables. L'efficacité des méthodes proposées est montrée sur un réacteur à agitation continue (CSTR). / In this thesis, the diagnosis of a nonlinear system was performed using data analysis. Initially developed to analyze linear system, Principal Component Analysis (PCA) is coupled with kernel methods for detection, isolation and estimation of faults' magnitude for nonlinear systems. Kernel PCA consists in projecting data using a nonlinear mapping function into a higher dimensional space called feature space where the linear PCA is applied. Due to the fact that the projections are done using kernels, the detection can be performed in the feature space. However, estimating the magnitude of the fault requires the resolution of a nonlinear optimization problem. The variables' contributions make it possible to isolate and estimate these magnitudes. The variable with the largest contribution may be considered as faulty. In our work, we proposed new methods for the isolation and estimation phases for which previous work has some limitations. The new proposed method in this thesis is based on contributions under constraints. The effectiveness of the developed methods is illustrated on the simulated continuous stirred tank reactor (CSTR).
42

Characterization of chemical markers for the discrimination of East Asian handmade papers using pyrolysis, gas chromatography and mass spectrometry / Caractérisation de marqueurs chimiques pour l'identification des papiers traditionnels asiatiques en utilisant la pyrolyse, la chromatographie gazeuse et la spectrométrie de masse

Han, Ung Bin 11 July 2018 (has links)
Cette thèse a été conduite afin d’explorer le potentiel d’une nouvelle méthodologie utilisant la pyrolyse, la chromatographie gazeuse et la spectrométrie de masse pour la caractérisation et l’identification des fibres papetières utilisées dans la fabrication des papiers asiatiques traditionnels à partir de la caractérisation des métabolites de ces fibres. Cette méthodologie utilise un processus d’échantillonnage facilité nécessitant une très petite quantité d’échantillons (de l’ordre de quelques dizaines de µg). Après la pyrolyse des échantillons de papiers et la séparation chromatographique des composés formés, des distributions caractéristiques pour les métabolites des fibres papetières (considérant leur présence et leur intensité) ont été observées dans une région définie comme région d’intérêt dans les chromatogrammes: ces distributions se sont révélées spécifiques pour la caractérisation des papiers fabriqués à partir de différents types de fibres et ont été utilisées pour distinguer l’origine des différentes fibres papetières couramment utilisées dans la fabrication de papiers asiatiques traditionnels. Premièrement, les problèmes rencontrés dans l’étude des papiers faits à la main ont été présentés, comme l’origine de la fabrication du papier, l’incohérence de certains résultats dans l’identification des fibres (reportés dans différentes études scientifiques), les limites de la microscopie pour l’identification des fibres papetières d’origines botaniques similaires et les risques d’imprécision dans le référencement des échantillons. Tous ces problèmes montrent la nécessité d’explorer de nouvelles méthodes pour (1) améliorer la fiabilité de l’identification des fibres papetières des papiers asiatiques traditionnels, (2) valider et confirmer les résultats obtenus par l’analyse microscopique. À cette fin, dans un premier temps, des papiers asiatiques de référence ont été étudiés. Les résultats expérimentaux ont montré que les différentes fibres papetières utilisées pour la fabrication des papiers étudiés montraient des différences dans les distributions de leurs marqueurs spécifiques : par exemple, les fibres d’origine de la famille Moraceae montrent une distribution caractéristiques de composés triterpèniques alors que les fibres d’origine de la famille Thymelaeaceae montrent une distribution caractéristiques de composés de type stigmastanes. De leur côté, les fibres des plantes appartenant au groupe Ma montrent peu de métabolites caractéristiques. Les différences observées dans la distribution de ces métabolites ont été attestées par la comparaison entre distributions obtenues à partir des fibres végétales et celles des papiers faits à la main attestant de l’origine commune de ces métabolites issus des tissus végétaux d’origine. Ainsi, la méthodologie étudiée se révèle prometteuse en tant que méthode de chimiotaxonomie pour l’identification des fibres inconnues de papiers faits à la main. Avec les exemples d'applications fournies au cours du travail expérimental, le couplage de la pyrolyse, de la chromatographie en phase gazeuse et de la spectrométrie de masse (avec l’utilisation de la Py-GC/MS et de la Py-GCxGC/MS) a montré sa capacité à distinguer les fibres d'une même famille (qui peuvent présenter des caractéristiques similaires en microscopie) et peut ainsi constituer une méthode efficace d'identification des fibres et de validation des résultats d'identification obtenus par l'observation microscopique. Dans la présente thèse, les caractéristiques de la chromatographie gazeuse intégralement bidimensionnelle GCxGC, ses avantages pour les applications dans le domaine du patrimoine culturel et son apport potentiel pour le traitement des données 1D ont été discutées (...) / This study was conducted to explore a new methodology for handmade fiber characterizationand identification using pyrolysis, gas chromatography and mass spectrometry. It employseasy sampling process with minor quantity of samples required. After pyrolysis of handmadepapers, a featured metabolites distribution patterns (presence plus intensity) eluting in the defined region of interest (ROI) was observed to be characteristic for handmade papers of different material origins. The method utilizes these metabolites distribution patterns as markers to discriminate different fiber origins. Firstly, the problems encountered in the investigation of handmade papers were introduced such as the origin of papermaking, the inconsistency in the fiber identification results sometimes gained by different scholars, the limits of microscopy in identifying fibers from similar species and the likely imprecision of the reference sample labeling. All these problems showed the necessity to explore a new method in order to (i) make precise fiber identification of handmade papers and (ii) to validate or confirm the identification results obtained by microscopy. Then, modern reference handmade papers were firstly studied. The result revealed that different plant fibers used for papermaking have different marker distributions in the ROI, forinstance, the Moraceae family with a featured distribution of terpene compounds and theThymelaeaceae family with a featured distribution of stigmasta compounds. The fibers fromthe ma group usually revealed few compounds in the ROI. This metabolites difference in theROI was attested from the plant tissues with their similar distribution in handmade papers and plant raw fibers. Thus, the chosen methodology offers promise as a method of chemotaxonomy for unknown handmade paper fiber identification. With the examples ofapplications provided during the experimental work, the coupling of pyrolysis, gaschromatography and mass spectrometry (through the use of Py-GC/MS and Py-GCxGC/MS)showed its ability to distinguish fibers from the same plant family (that may present similar microscopic features) and thus, can constitutes an effective method for fiber identification as well as to validate the identification results of the microscopic observation. In the present thesis, the features of GCxGC and the benefits for cultural heritage applications and its help for the ID data treatment were discussed. The tested Py-GCxGC/MS methodology has been for the first time proposed in the cultural heritage field and it harbors the potential to promote the research in this domain, enhancing our capacity to handle small quantities of complex samples while providing an exhaustive response on its composition.
43

Spectroscopie infrarouge déportée : mise au point d'un biocapteur pour l'imagerie métabolique et la sécurité microbiologique

Keirsse, Julie 10 July 2003 (has links) (PDF)
Un biocapteur à base de fibre optique en verre de chalcogénures, transparente dans un large domaine du moyen infrarouge (MIR), a été développé. Il permet l'enregistrement de spectres MIR par spectroscopie déportée. Le principe de la mesure est basé sur le concept de la spectroscopie par ondes évanescentes. Pour améliorer la sensibilité, les fibres utilisées sont effilées sur quelques centimètres et ont un profil en diamètre de 450-100-450 µm. La zone effilée sera mise en contact avec l'échantillon à analyser. Différents états métaboliques (physiologique ou pathologique) dans le foie et le sérum ont été analysés. Les coupes de foies et les sérums ont été mis directement en contact avec la partie senseur de la fibre, et des spectres MIR ont ainsi été collectés. L'objectif de ces études est d'identifier deux états métaboliques différents (sain et pathologique) d'un même échantillon. Des modifications spectrales peuvent être mises en évidence et reliées à une ou des altération(s) du métabolisme des lipides, glucides et/ou protides. Ces modifications peuvent être des différences d'intensité et/ou des décalages en nombre d'onde de bandes d'absorption. Tous les résultats sont corrélés avec les dosages sanguins et les colorations histologiques des échantillons analysés. Le développement d'un biofilm bactérien a été suivi in situ et en temps réel. Proteus mirabilis est un micro-organisme pathogène, opportuniste des voies urinaires, qui a développé un comportement multi-cellulaires complexe, corrélé dans l'espace et le temps, ce qui lui permet de coloniser de nouvelles surfaces. Durant le processus de différenciation, le changement de l'état végétatif à celui migrant (pathogène) est accompagné par des modifications des constituants membranaires. Les spectres MIR, enregistrés pendant le développement d'un biofilm à P. mirabilis, permettent de détecter en temps réel une contamination de surface, mais aussi les modifications biochimiques des constituants de la membrane bactérienne. Tous les spectres ont été traités par Analyse en Composantes Principales (ACP), d'une part pour une reconnaissance non-supervisée d'une pathologie, et d'autre part, déterminer la distribution spatiale des phénotypes de P. mirabilis au sein du biofilm
44

Analyses factorielles des distributions marginales de processus

Boumaza, Rachid 04 January 1999 (has links) (PDF)
On définit la mesure d'affinité de deux densités de probabilité de p-vecteurs aléatoires par le produit scalaire de ces deux densités dans l'espace des fonctions de carré intégrable. On la calcule pour différents types de densités. On présente les propriétés asymptotiques de cette mesure d'affinité dans le cas de densités gaussiennes ; on montre en particulier la normalité asymptotique de cette mesure lorsque les paramètres de ces densités sont estimés par le maximum de vraisemblance. On utilise cette mesure d'affinité pour définir l'analyse en composantes principales de T densités de probabilité (ou des fonctions caractéristiques associées) avec l'objectif d'apprécier l'évolution de ces densités en les visualisant dans des espaces de dimension réduite. On en montre les liens avec la méthode Statis Dual (sur matrices de variance) et on en propose une estimation convergente. On montre les représentations obtenues sur des données de cardiologie et sur des données de processus gaussiens en en faisant varier les paramètres. Aux densités précédentes indicées par t (t=1,...,T) on ajoute une variable qualitative Y définie sur l'ensemble des indices. Cette variable engendrant une partition des densités en Q catégories, on définit l'analyse discriminante de ces densités et on propose quatre règles d'affectation d'une nouvelle densité gaussienne à l'une des Q catégories. Deux règles sont de type probabiliste (vraisemblance maximale) et s'appuient sur le caractère asymptotiquement gaussien de la mesure d'affinité ; deux règles sont de type géométrique (distance minimale) et s'appuient sur la distance induite par la mesure d'affinité. On applique cette méthode à des données archéologiques (mesures de pierres de châteaux d'Alsace), l'objectif étant de dater ces châteaux.
45

Etude méthodologique de l'analyse en composantes principales de processus bidimensionnels : effets des approximations numériques et de l'échantillonnage et utilisation pour la simulation de champs aléatoires : application au traitement des températures mensuelles de surface de la mer sur l'Atlantique intertropical

Braud, Isabelle 10 April 1990 (has links) (PDF)
Le point de départ de ce mémoire est la technique d'Analyse en Composantes Principales de Processus (ACPP), extension à des champs spatialement et/ou temporellement continus de l'Analyse en Composantes Principales (ACP) classique. Elle conduit à rechercher les fonctions propres d'un noyau de covariance, solutions d'une équation intégrale de Fredholm et permet ainsi de tenir compte explicitement de la forme et de la taille du domaine d'étude. Dans le chapitre l, après un rappel de la méthode et la présentation de l'approximation numérique utilisée lorsqu'on travaille avec un échantillon de taille fInie et un processus discrétisé spatialement, on s'attache à montrer les liens de cette technique avec la recherche de modes normaux de systèmes dynamiques puis avec les techniques d'interpolation optimale et la géostatistique. On montre ainsi que l'ACPP peut s'interpréter comme un cas particulier de krigeage s'appuyant sur un modèle de covariance spécifique, non nécessairement stationnaire. Dans le chapitre 2, afIn de quantifIer les erreurs sur l'estimation des fonctions propres, dues à l'échantillonnage statistique et à la discrétisation spatiale, une solution analytique, pour un modèle particulier de covariance et un domaine circulaire, est proposée puis comparée aux solutions numériques. Le chapitre 3 pose ensuite les principes de l'utilisation de l'ACPP pour la simulation de champs bidimensionnels et analyse la sensibilité de la méthode au choix des paramètres en terme de restitution d'une covariance cible. La technique est aussi comparée à d'autres méthodes (Bandes tournantes, méthodes matricielles), puis utilisée pour la simulation de champs non stationnaires. Enfin, le chapitre 4 illustre tous ces développements méthodologiques sur des données de température mensuelle de surface de la mer sur l'Atlantique intertropical entre 1964 et 1987.
46

Analyse des champs spatiaux par utilisation de la télédétection : estimation de la durée quotidienne d'insolation en France à l'aide d'images du satellite Météosat et de mesures sol

Galle, Sylvie 21 May 1987 (has links) (PDF)
L'insolation est étudiée, à l'échelle synoptique (la France) à l'aide d'un ensemble de mesures de la durée quotidienne d'insolation réalisées au sol et par télédétection satellitaire. L'objectif poursuivi est d'analyser une série de données suffi* samment longue pour caractériser de manière statistique le comportement climatologique de l'insolation dans l'espace. Les données sont fournies par 88 héliographes du réseau synoptique français ainsi que par le programme " Cactus " de la Météorologie Nationale, qui utilise les images visibles du satellite Météosat. L'étude porte sur une année de données. La similarité de la structure spatiale des mesures du sol et du satellite est montrée par analyse objective, et par analyse en composantes principales de processus. La fine perception de la variabilité spatiale du satellite est alors utilisée pour optimiser un réseau de mesures au sol. Les performances du programme Cactus sont comparées avec celles de méthodes d'interpolation classiques (basées sur 23 héliographes), pour l'estimation du rapport d'insolation. Elles se sont révélées plus performantes en terme de cofluctuation. Il apparaît cependant une tendance du satellite à exagérer les valeurs extrêmes. L'étalonnage des mesures satellitaires par des mesures sol a pour but de conjuguer les qualités de précision des hélio* graphes, et la définition spatiale du satellite. Une approche géostatistique est proposée. L'effet recherché est observé à partir d'une certaine densité du réseau d'étalonnage
47

Statistiques et réseaux de neurones pour un système de diagnostic : application au diagnostic de pannes automobiles

Poulard, Hervé 09 May 1996 (has links) (PDF)
Ce travail a été réalisé dans le cadre d'une convention CIFRE entre le LAAS-CNRS et la société ACTIA qui développe des outils d'aide au diagnostic de pannes automobiles. Le but était l'utilisation des réseaux de neurones artificiels pour la conception d'une nouvelle méthode de diagnostic de pannes automobiles sans modèle, ni information symbolique mais avec seulement des observations du système en bon et en mauvais fonctionnement. C'est donc une approche du diagnostic de système complexe par reconnaissance de formes. Après avoir mis au point le système d'acquisition, nous avons conçu une première maquette qui a démontré la faisabilité d'un tel système et l'intérêt des réseaux de neurones, mais qui a soulevé de nombreux problèmes. L'utilisation particulière des réseaux de neurones dans cette application a nécessité l'usage d'algorithmes de construction. Après une étude théorique des structures de l'hypercube qui n'a pas abouti à un algorithme de construction mais qui a fourni plusieurs résultats, nous avons développé une famille d'algorithmes pour la construction des réseaux de neurones binaires. La base de ces outils est une nouvelle méthode d'apprentissage d'unités à seuil très performante dénommée Barycentric Correction Procedure (BCP). L'aboutissement est un algorithme novateur car très général (entrées quelconques et sorties multiples), rapide et avec un bon pouvoir de généralisation. Nous avons finalement mis au point une nouvelle méthodologie de diagnostic, dans laquelle l'utilisation de méthodes statistiques et d'analyse de données en collaboration avec les réseaux neuronaux paru nécessaire. Cette méthodologie utilise donc des techniques très diverses : analyse en composantes principales, estimation de densité de probabilité, classification automatique, calcul d'enveloppes convexes, génération géométrique de bases d'apprentissage, construction de réseaux de neurones binaires, réseaux de neurones gaussiens et méthodes de diagnostic simples. Cette méthodologie a été appliquée avec succès au problème de la détection de pannes automobiles et a aussi montré des potentialités pour le diagnostic préventif. Elle est de plus assez générique pour avoir de nombreuses applications potentielles.
48

Source separation analysis of visual cortical dynamics revealed by voltage sensitive dye imaging

Yavuz, Esin 19 October 2012 (has links) (PDF)
Ce travail consiste en une analyse statistique de la séparation des sources des enregistrements d'imagerie VSD afin de 1) séparer le signal neuronal des artefacts, et 2) d'étudier la dynamique des motifs spatio-temporels de l'activité créés par les populations neuronales qui partagent des statistiques communes. À cette fin, nous avons effectué des enregistrements en imagerie VSD des zones 17 et 18 du cortex du chat anesthésié et paralysé, en réponse à des réseaux sinusoïdaux de luminance en mouvement et en plein champ. Nous avons développé une méthode d'analyse pour l'imagerie VSD qui sépare la réponse neuronale des artefacts, et extrait les motifs de l'activité qui sont fonctionnellement liés à des populations différentiables. Notre méthode de débruitage permet d'effectuer des analyses sur des essais unitaires, par exemple pour étudier la variabilité intrinsèque de chaque réponse de la population neuronale enregistrée pour une même stimulation. En outre, nous avons pu séparer des populations de neurones qui montrent différents profils de réponse à l'orientation et/ou à la direction des stimuli à l'aide de la PCA et de l'ICA. La compression et la projection de l'activité de V1 sur trois axes de composantes principales nous a permis d'étudier la dynamique des états corticaux et de démontrer la séparabilité des trajectoires d'état en fonction de l'orientation. Nos résultats indiquent que le codage neuronal de la préférence à l'orientation au niveau de la population plutôt que des canaux individuels est plus efficace. Nous espérons à l'avenir fournir un cadre de mesure pour la quantification et l'interprétation des réponses à des stimuli plus naturels
49

Contrôle santé des structures composites : approche expérimentale et statistique

Rafik, Hajrya 06 July 2012 (has links) (PDF)
L'industrie aéronautique utilise des matériaux toujours plus performants pour ses avions et systèmes spatiaux. Ainsi, pour réaliser les communications, les avionneurs souhaiteraient aller vers une réelle intégration des structures antennaires à la structure de l'avion et donc de passer de la structure antennaire vue comme équipement embarqué à la structure antennaire devenue équipement intégré. Notre travail de thèse se situe dans le cadre du projet MSIE (Matériaux et Structures Intelligentes pour l'Electromagnétisme). L'objectif de ce projet est de répondre aux demandes du secteur aéronautique, en évaluant le concept de nouveaux matériaux susceptibles de permettre la réalisation de structures antennaires conformées, compactes et reconfigurables. Cette adaptabilité suppose que ces structures soient reconfigurables et donc capables, une fois munies de capteurs/actionneurs, de réaliser un contrôle actif de la directivité, du rendement et du gain des structures antennaires. Il est alors apparu nécessaire d'adjoindre à ces futures structures, une fonction de Contrôle santé ou Structural Health Monitoring "SHM", de manière à pouvoir détecter d'éventuels endommagements (impact, délaminage entre le réseau d'antennes et la structure composite, rupture des fibres, etc....) susceptibles de se produire au cours du vol ou au cours du vieillissement de la structure. C'est dans le développement de la fonction SHM que s'inscrit ce travail de thèse. A cet effet, nous avons réalisé des dispositifs expérimentaux en tenant compte des demandes de l'industriel. Ces dispositifs comportent des structures composites antennaires munies de capteurs et d'actionneurs piézoélectriques. A travers les informations transmises par les capteurs, nous avons développé deux méthodes de détection de l'endommagement à base d'Analyse en Composantes Principales (ACP) et d'Analyse en Composantes Indépendantes (ACI). Ces deux méthodes sont des approches statistiques qui ne nécessitent pas la connaissance du modèle mécanique de la structure à surveiller. Il s'agit de méthodes traitant des observations vectorielles (multivariées) transmises par les capteurs piézoélectriques, afin d'en extraire des caractéristiques de fonctionnement de la structure à l'état sain et de la structure dans un état inconnu. La comparaison entre ces caractéristiques nous a permis de calculer pour chacune des deux méthodes, un résidu indicateur d'endommagement. Nous avons complété ce résidu par une robustification de la prise de décision et cela par le calcul d'une borne, au-delà de laquelle l'endommagement est détecté.
50

Stratégies de commande intégrée intelligente de procédés de traitement des eaux usées par la digestion anaérobie

Carlos Hernandez, Salvador 11 July 2005 (has links) (PDF)
La digestion anaérobie est efficace pour traiter d'effluents fortement chargés de<br />matière organique. Des bactéries anaérobies transforment les polluants en un biogaz<br />énergétiquement valorisable (composé principalement de méthane et de dioxyde de<br />carbone). Néanmoins, ce bioprocédé est sensible aux variations des conditions opératoires<br />et il contient de variables difficiles à mesurer ce qui impose une grande diversité de<br />sujets de recherche. Dans ce contexte, nous proposons un observateur d'état flou pour<br />l'estimation de variables à accès difficile. Les variables floues utilisés par l'observateur<br />sont choisies à partir d'une analyse en composantes principales. Par ailleurs, les lois<br />de commande pour la digestion anaérobie sont actuellement conçues pour résoudre un<br />problème à la fois. Ainsi, nous élaborons une stratégie de commande intelligente (basée<br />sur la commande floue) qui combine les avantages de différentes actions de commande<br />pour atteindre plusieurs objectifs à la fois. Enfn, nous avons mise en place une étape<br />expérimentale de manière à valider notre démarche.

Page generated in 0.1138 seconds