Spelling suggestions: "subject:"3analyse dess composantes principales"" "subject:"3analyse deus composantes principales""
21 |
Analyse en composantes principales et interpolation de processus en vue d'applications en hydrométéorologie : méthodes et simulationBouhaddou, Omar 01 March 1984 (has links) (PDF)
Nous étudions une méthode d'interpolation de processus fondée sur l'analyse en composantes principales. Nous la situons par rapport à des techniques courantes telles le krigeage. Afin de cerner ses possibilités d'utilisation pratiques (en particulier en vue d'applications en hydrometeorologie) nous proposons un plan d'expérimentation de la méthode par simulation.
|
22 |
Transport et caractérisation des matières en suspension dans le bassin versant de la Seine : identification de signatures naturelles et anthropiquesTessier, Laure 23 June 2003 (has links) (PDF)
La plupart des polluants responsables de la dégradation des cours d'eau sont contrôlés par le<br />comportement des Matières En Suspension (MES). Si leur rôle dans le transport des polluants<br />n'est plus à démontrer, en revanche, l'identification de leurs sources et puits reste<br />problématique. L'objet de ce travail a été de développer une méthodologie permettant de<br />préciser lorigine des MES et de suivre leur transfert sur le bassin de la Seine. Cette<br />méthodologie combine :<br />-lidentification d'une large palette d'éléments (analyse par activation neutronique) ne<br />se limitant pas aux seuls polluants (Na, K, Ca, Sc, Cr, Fe, Co, Zn, As, Br, Rb, Sr, Ag, Sb, Cs,<br />Ba, Hf, Ta, Au, Terres Rares, Th),<br />-un échantillonnage par trappes à sédiments sur lensemble du bassin et avec un suivi<br />régulier sur la période 1999-2002 (33 stations exploitées),<br />-un traitement statistique de linformation recueillie (analyse en composantes<br />principales).<br />Cette méthodologie a permis de préciser à quelle échelle les signatures multiélémentaires<br />portées par les MES se différencient les unes des autres, et à quelle logique obéissent les<br />différences observées. Ainsi, signatures naturelles et signatures anthropiques ont pu être<br />distinguées. Les premières témoignent des différences de lithologie existant sur le bassin<br />(Cs/Sc, Ca, Hf, Na, Terres Rares lourdes/Terres Rares légères). Parmi les secondes, certaines<br />marquent des zones de contamination étendue (Zn/7Be, Sb, Cr, Au, Ag) tandis que d'autres<br />identifient une pollution plus localisée (Th/La).<br />Grâce à cette méthodologie, il est donc possible de préciser lorigine des MES et de suivre<br />leur transfert de lamont vers laval. Ces résultats offrent donc la possibilité dun meilleur<br />contrôle des transferts de sédiments, outil indispensable aux gestionnaires et usagers de l'eau.
|
23 |
Segmentation d'image médicales volumiques à l'aide de maillages déformables contraintsMontagnat, Johan 06 September 1996 (has links) (PDF)
La segmentation d'organes abdominaux dans des images médicales volumiques est rendue difficile par le bruit et le faible contraste de ces images. Les techniques de segmentation classiques à base d'extraction de contours ou de seuillage donnent des résultats insuffisants. Dans ce rapport, nous utilisons des modèles déformables pour segmenter les images. En introduisant un modèle de l'organe voulu dans le processus de segmentation, nous bénéficions d'une connaissance a priori de la forme à retrouver. Nous utilisons des images de contour bruitées pour déformer localement le modèle. Les données de contours étant incomplètes, il est nécessaire de contraindre le modèle pour qu'il se déforme régulièrement. Nos maillages simplexes bénéficient d'un mécanisme de mémoire de forme agissant de façon régularisante sur les déformations. Nous utilisons des transformations globales pour disposer davantage de contraintes. Un modèle hybride fournit un compromis entre complexité de calcul des transformations globales et nombre de degrés de liberté du modèle. Nous étudions également l'utilisation d'un ensemble d'apprentissage pour construire un modèle plus robuste tirant parti de l'information statistique des déformations possibles. L'information statistique peut être utilisée pour contraindre d'avantage les déformations ou pour paramétrer de façon plus fine le processus de déformation.
|
24 |
Détection et localisation de défauts par analyse en composantes principalesHARKAT, Mohamed-Faouzi 30 June 2003 (has links) (PDF)
Les travaux présentés dans ce mémoire sont axés sur la détection et la localisation de défauts en utilisant l'analyse en composantes principales (ACP). Dans le premier chapitre les principes fondamentaux de l'analyse en composantes principales linéaire sont présentés. L'ACP est utilisée pour la modélisation des processus en fonctionnement normal. Dans le deuxième chapitre le problème de détection et localisation de défauts par ACP linéaire est abordé. A partir de l'analyse des indices de détection classiques, un nouvel indice de détection de défaut basé sur les dernières composantes principales a été développé. Pour la localisation de défauts, les méthodes classiques, utilisant par exemple le principe de reconstruction ou encore le calcul des contributions à l'indice de détection, ont été adaptées à l'indice de détection proposé. Le troisième chapitre est consacré à l'ACP non-linéaire (ACPNL). Une extension de l'ACP pour des systèmes non-linéaires, combinant l'algorithme des courbes principales et les réseaux RBF, est proposée. Pour la détermination du nombre de composantes à retenir dans le modèle ACPNL, une extension du critère basé sur la variance de l'erreur de reconstruction a été proposée. Une application réalisée dans le cadre d'une collaboration avec le réseau de surveillance de la qualité de l'air en Lorraine AIRLOR fait l'objet du quatrième chapitre. Cette application concerne la détection et la localisation de défauts de capteurs de ce réseau en utilisant la procédure de détection et de localisation développée dans le cas linéaire.
|
25 |
Obtention de modèles cinétiques réduits de combustion - Application à un mécanisme du kérosèneLuche, Jocelyn 05 November 2003 (has links) (PDF)
La modélisation de la chimie de combustion de mélanges d'hydrocarbures (alcanes, aromatiques et naphténiques), représentatifs de combustibles industriels nécessite l'utilisation de schémas cinétiques détaillés complexes. La raideur du système différentiel associé rend impossible tout couplage avec des codes industriels en raison de son coût de calcul prohibitif. Une solution possible consiste à diminuer la taille de ces mécanismes. La présente étude se propose donc de réduire, sans dégrader son caractère prédictif initial, un mécanisme détaillé du kérosène (225 espèces et 3493 réactions irréversibles) dans les conditions du réacteur parfaitement agité (PSR) sur un vaste domaine de pression, richesse et température. La méthode utilisée se déroule en trois étapes. Les deux premières consistent à simplifier le modèle initial par élimination des espèces (méthode des flux atomiques) puis des réactions (analyse des composantes principales de la matrice des vitesses) inutiles à la description du processus de combustion. Le mécanisme squelettique obtenu est ensuite réduit par la mise en état stationnaire de certaines espèces dont les concentrations peuvent être explicitées en fonction des espèces différentielles au sein d'un système algébro-différentiel. La technique d'itérations internes, utilisée pour la résolution des expressions algébriques, est couplée à un accélérateur de convergence afin de réduire significativement le temps de calcul nécessaire aux simulations. Les programmes utilisés, au cours de cette procédure de réduction, ont été automatisés afin d'en rendre l'utilisation simple et rapide. Cette méthodologie a rendu possible l'analyse détaillée des voies réactionnelles de consommation des 3 réactifs initiaux ainsi que l'évaluation de la sensibilité des réactions impliquées. On peut ainsi, sans connaissances cinétiques particulières, élaborer des schémas réduits présentant une diminution d'un facteur 15 (globalement) à 50 (localement) du temps de calcul. Plus de 65% des profils de fractions molaires des espèces sont correctement reproduits avec une déviation relative par rapport au modèle initiale inférieure à 10%.
|
26 |
Caractérisation et classification des phases stationnaires utilisées pour l'analyse CPL de produits pharmaceutiquesLe Mapihan, Katell 01 October 2004 (has links) (PDF)
Lors du développement d'une nouvelle méthode de séparation, choisir la colonne CPL appropriée parmi les plus de 600 disponibles commercialement constitue un challenge d'autant plus difficile à relever que le mélange à séparer implique des produits basiques, rendant nécessaire le besoin d'une caractérisation et d'une classification objectives des phases stationnaires. Aucun des tests proposés dans la littérature n'étant apparu satisfaisant, nous avons développé et caractérisé notre propre procédure chromatographique en faisant appel notamment à l'outil chimiométrique. Notre méthodologie permet d'établir des cartographies interprétées des phases stationnaires testées, à la fois en fonction de la nature et de la teneur en solvant organique utilisé. Les classifications obtenues mettent aussi en évidence des différences notables de comportement chromatographiques et de mécanismes de rétention suivant les colonnes testées, différences qui sont relatées de façon synthétique par la construction de leur carte d'identité.
|
27 |
Analyse Inverse en Géotechnique: développement d'une méthode à base d'algorithmes génétiques.Levasseur, Séverine 05 October 2007 (has links) (PDF)
La plupart des essais géotechniques in situ ne permettent pas d'identifier directement les paramètres constitutifs des couches de sol. L'utilisation de calculs par éléments finis pour dimensionner les ouvrages est ainsi limitée par une mauvaise connaissance des propriétés mécaniques des sols. C'est dans ce contexte que se pose la problématique d'analyse inverse en géotechnique : quelles informations concernant les paramètres constitutifs du sol est-il possible d'obtenir à partir de mesures in situ ? <br />L'objectif de ce travail est de développer une méthode d'analyse inverse permettant d'identifier l'ensemble des paramètres constitutifs d'un sol à partir de mesures géotechniques in situ. La procédure est basée sur un processus d'optimisation par algorithme génétique. L'ensemble des solutions identifiées sont ensuite décrites mathématiquement par une étude statistique de type analyse en composantes principales. Cette étude montre que ce type d'optimisation par algorithme génétique permet d'estimer différentes solutions approchées pour les problèmes inverses de géotechnique. Si toutes les solutions d'un problème ne sont pas identifiées directement par l'algorithme génétique, leur exploitation par une analyse en composantes principales permet d'estimer l'ensemble des solutions du problème inverse. Cette méthode est développée sur des exemples d'ouvrages de soutènement et d'essais pressiométriques.
|
28 |
Sécurisation des smart cards par masquage de signal informationnel sur canal secondaireChaillan, Fabien Jauffret, Claude Courmontagne, Philippe. January 2006 (has links)
Reproduction de : Thèse de doctorat : Traitement du Signal : Toulon : 2006. / Titre provenant du cadre-titre. Bibliographie p.221-224.
|
29 |
Optimisation de la qualité et du confort des produits textiles par exploitation de données physiques et de la connaissance humaineKoehl, Ludovic Zeng, Xianyi January 2007 (has links)
Reproduction de : Habilitation à diriger des recherches : Sciences physiques. Automatique et informatique industrielle : Lille 1 : 2006. / N° d'ordre (Lille 1) : 545. Titre provenant de la page de titre du document numérisé. Bibliogr. p. 82-85. Liste des publications et communications.
|
30 |
Utilisation de méta-modèles multi-fidélité pour l'optimisation de la production des réservoirs / Use of multi-fidelity meta-models for optimizing reservoir productionThenon, Arthur 20 March 2017 (has links)
Les simulations d'écoulement sur des modèles représentatifs d'un gisement pétrolier sont généralement coûteuses en temps de calcul. Une pratique courante en ingénierie de réservoir consiste à remplacer ces simulations par une approximation mathématique, un méta-modèle. La méta-modélisation peut fortement réduire le nombre de simulations nécessaires à l'analyse de sensibilité, le calibrage du modèle, l'estimation de la production, puis son optimisation. Cette thèse porte sur l'étude de méta-modèles utilisant des simulations réalisées à différents niveaux de précision, par exemple pour des modèles de réservoir avec des maillages de résolutions différentes. L'objectif est d'accélérer la construction d'un méta-modèle prédictif en combinant des simulations coûteuses avec des simulations rapides mais moins précises. Ces méta-modèles multi-fidélité, basés sur le co-krigeage, sont comparés au krigeage pour l'approximation de sorties de la simulation d'écoulement. Une analyse en composantes principales peut être considérée afin de réduire le nombre de modèles de krigeage pour la méta-modélisation de réponses dynamiques et de cartes de propriétés. Cette méthode peut aussi être utilisée pour améliorer la méta-modélisation de la fonction objectif dans le cadre du calage d'historique. Des algorithmes de planification séquentielle d'expériences sont finalement proposés pour accélérer la méta-modélisation et tirer profit d'une approche multi-fidélité. Les différentes méthodes introduites sont testées sur deux cas synthétiques inspirés des benchmarks PUNQ-S3 et Brugge. / Performing flow simulations on numerical models representative of oil deposits is usually a time consuming task in reservoir engineering. The substitution of a meta-model, a mathematical approximation, for the flow simulator is thus a common practice to reduce the number of calls to the flow simulator. It permits to consider applications such as sensitivity analysis, history-matching, production estimation and optimization. This thesis is about the study of meta-models able to integrate simulations performed at different levels of accuracy, for instance on reservoir models with various grid resolutions. The goal is to speed up the building of a predictive meta-model by balancing few expensive but accurate simulations, with numerous cheap but approximated ones. Multi-fidelity meta-models, based on co-kriging, are thus compared to kriging meta-models for approximating different flow simulation outputs. To deal with vectorial outputs without building a meta-model for each component of the vector, the outputs can be split on a reduced basis using principal component analysis. Only a few meta-models are then needed to approximate the main coefficients in the new basis. An extension of this approach to the multi-fidelity context is proposed. In addition, it can provide an efficient meta-modelling of the objective function when used to approximate each production response involved in the objective function definition. The proposed methods are tested on two synthetic cases derived from the PUNQ-S3 and Brugge benchmark cases. Finally, sequential design algorithms are introduced to speed-up the meta-modeling process and exploit the multi-fidelity approach.
|
Page generated in 0.119 seconds