• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2
  • 1
  • 1
  • Tagged with
  • 4
  • 4
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Inversion d'un système par krigeage : application à la synthèse des catalyseurs à haut débit

Bettinger, Régis 22 October 2009 (has links) (PDF)
Ce travail concerne la modélisation du processus de synthèse (construction) de supports de catalyseurs obtenus par réaction silice-alumine. La synthèse est caractérisée par 5 variables d'entrée et 2 variables de sortie (la surface spécifique et le volume mesoporeux du support de catalyseur). Chaque combinaison des valeurs de sortie ayant une application potentielle, on voudrait savoir en synthétiser le plus grand nombre, c'est-a-dire connaitre les variables d'entrée permettant de construire un catalyseur ayant une surface et un volume donnes quelconques. Les limites atteignables des deux sorties du système sont inconnues. Ne disposant pas de suffisamment d'essais pour pouvoir espérer construire un modèle fiable sur l'ensemble du domaine de variation des variables d'entrée, nous choisissons une approche par plans d'expérience séquentiels avec modélisation par krigeage, permettant d'éviter une trop grande dispersion des variables d'entrée tout en assurant une exploration du domaine accessible pour les variables de sortie. Les essais sont choisis séquentiellement en se servant de l'information apportée par les essais précédents et traitée par le modèle de krigeage. Cette façon de procéder est a priori plus efficace que celle consistant a utiliser un plan d'expériences fixe au départ et comprenant la totalité des essais disponibles. Des critères d'ajout séquentiel de points d'expérimentation (définissant les valeurs des variables d'entrée) sont proposes, qui favorisent une forte dispersion des sorties correspondantes et prennent en compte les incertitudes associées aux prédictions par krigeage. Enfin, les critères retenus, l'un à base de distance et l'autre à base d'entropie, sont testes sur des données simulées afin de vérifier la bonne répartition finale des valeurs des réponses. Des rappels sur la modélisation par processus gaussien, la régression/interpolation par krigeage et ses liens avec les méthodes de type splines et SVM, ainsi que la planification d'expériences sont présentes en essayant de concilier rigueur et clarté.
2

Warping and sampling approaches to non-stationary gaussian process modelling. / Planification adaptative d'expériences et krigeage non stationnaire : application à la prise en compte des incertitudes dans les études mécaniques en sûreté nucléaire.

Marmin, Sebastien 12 December 2017 (has links)
Cette thèse traite de l'approximation de fonctions coûteuses à évaluer et présentant un comportement hétérogène selon les régions du domaine d'entrées. Dans beaucoup d’applications industrielles comme celles issues de la sûreté nucléaire et menées à l’IRSN, les codes de calcul de simulation physique ont des coûts numériques importants et leurs réponses sont alors approchées par un modèle. Les modèles par processus gaussien (PG) sont répandus pour construire des plans d'expériences au budget d'évaluations limité. Alors que les méthodes de planifications standard explorent le domaine en partant souvent d'une hypothèse de stationnarité et en utilisant des critères d'échantillonnages basés sur la variance, nous abordons sous deux aspects le problème d'adapter la planification d'expériences par PG aux fonctions à variations hétérogènes : d'une part sur la modélisation, en proposant une nouvelle famille de covariances (WaMI-GP) qui généralise deux noyaux existants (noyaux à indice multiple et noyaux à déformation tensorielle), et d'autre part sur la planification, en définissant et calculant de nouveaux critères d'échantillonnage à partir des dérivées du PG et dédiés à l'exploration de régions à grandes variations. Une analyse théorique de la nouvelle famille de PG ainsi que des expériences numériques montrent à la fois une certaine souplesse de modélisation et un nombre modéré de paramètres de modèle à estimer. Par ailleurs, un travail sur le couplage entre ondelettes et PG a conduit au développement d'un modèle non stationnaire, appelé ici wav-GP, qui utilise l'échelle locale pour approcher la dérivées de la déformation de manière itérative et non paramétrique. Les applications de wav-GP sur deux cas d'étude mécaniques fournissent des résultats prometteurs pour la prédiction de fonctions ayant un comportement hétérogène. D'autres part, nous formulons et calculons de nouveaux critères de variance qui reposent sur le champs de la norme du gradient du PG, et cela quelques soient les propriétés de (non) stationnarité du modèle. Les critères et les modèles sont comparés avec des méthodes de références sur des cas d'étude en ingénierie. Il en résulte que certains des critères par gradient proposés sont plus efficaces que les critères de variance plus conventionnels, mais qu'il est encore mieux de combiner le modèle WaMI-GP avec ces critères de variance. Ce modèle est souvent le plus compétitif dans des situations où les évaluations sont séquentielles et à nombre réduit. D'autres contributions s'inscrivant dans le thème de l'optimisation globale concernent en particulier le critère d'échantillonnage d'amélioration espérée (connu en anglais comme le critère d'expected improvement) et sa version multipoint pour l'évaluation en parallèle par paquet. Des formules analytiques et des approximations rapides sont établies pour une version généralisée du critère et pour son gradient. / This work deals with approximating expensive-to-evaluatefunctions exhibiting heterogeneous sensitivity to input perturbationsdepending on regions of the input space. Motivated by real test caseswith high computational costs coming mainly from IRSN nuclear safetystudies, we resort to surrogate models of the numerical simulatorsusing Gaussian processes (GP). GP models are popular for sequentialevaluation strategies in design of experiments under limited evaluationbudget. While it is common to make stationarity assumptions for theprocesses and use sampling criteria based on its variance forexploration, we tackle the problem of accommodating the GP-based designto the heterogeneous behaviour of the function from two angles: firstvia a novel class of covariances (WaMI-GP) that simultaneouslygeneralises existing kernels of Multiple Index and of tensorised warpedGP and second, by introducing derivative-based sampling criteriadedicated to the exploration of high variation regions. The novel GPclass is investigated both through mathematical analysis and numericalexperiments, and it is shown that it allows encoding muchexpressiveness while remaining with a moderate number of parameters tobe inferred. Moreover, exploiting methodological links between waveletsanalysis and non-stationary GP modelling, we propose a new non-stationary GP (Wav-GP) with non-parametric warping. The key point is aniterated estimation of the so-called local scale that approximates thederivative of the warping. Wav-GP is applied to two mechanical casestudies highlighting promising prediction performance. Independently ofnon-stationarity assumptions, we conduct derivations for new variance-based criteria relying on the norm of the GP gradient field. Criteriaand models are compared with state-of-the-art methods on engineeringtest cases. It is found on these applications that some of the proposedgradient-based criteria outperform usual variance-based criteria in thecase of a stationary GP model, but that it is even better to usevariance-based criteria with WaMI-GP, which dominates mostly for smalldesigns and in sequential set up. Other contributions in samplingcriteria address the problem of global optimisation, focusing on theexpected improvement criterion and its multipoint version for parallelbatch evaluations. Closed form formulas and fast approximations areestablished for a generalised version of the criterion and its gradient. Numerical experiments illustrate that the proposed approachesenable substantial computational savings.
3

Contributions à la planification d'expériences robuste à l'erreur structurelle

Roger, Morgan 26 November 2007 (has links) (PDF)
Nous traitons le problème de planification d'expériences robuste à l'erreur structurelle pour la régression, lorsque la structure de régression est paramétrique et linéaire par rapport aux paramètres. L'erreur structurelle est modélisée par un processus stochastique, gaussien ou plus généralement qui possède un moment d'ordre deux. On considère principalement le cas de l'estimation des paramètres par moindres carrés avec comme critère de performance du prédicteur l'intégrale de l'erreur quadratique de prédiction (IEQP), mais la démarche reste valable pour les moindres carrés pondérés et pour toute fonctionnelle linéaire de l'erreur de prédiction. Les critères d'optimalité retenus sont fondés sur l'espérance totale (par rapport à la loi conjointe du bruit et l'erreur structurelle) de l'IEQP et le quantile de l'IEQP, qu'on optimise pour les protocoles exacts à l'aide d'une méthode par essaim de particules. L'optimisation du quantile a nécessité de développer une méthode numérique efficace pour l'approximation du quantile d'une somme de carrés de variables gaussiennes centrées corrélées. Le problème de la dépendance des protocoles vis-à-vis des hyperparamètres (introduits par la fonction de covariance du processus stochastique) est traité par une approche de type maximin de l'efficacité, et aboutit à la définition d'un nouveau critère d'optimalité, dont l'optimisation est rendue possible par l'emploi d'une interpolation dans l'évaluation du critère. Les protocoles optimaux obtenus prouvent leurs bonnes performances vis-à-vis d'autres critères et se comparent favorablement à d'autres protocoles issus de critères de la littérature. L'application de la démarche à la conception d'un débitmètre robuste aux singularités de conduite permet d'illustrer comment introduire des connaissances a priori précises sur la nature de l'erreur structurelle, ici des données issues de codes aux éléments finis.
4

Théorie et applications en ordonnancement : contraintes de ressources et tâches agrégées en catégories

Lehoux, Vassilissa 06 September 2007 (has links) (PDF)
Le thème de ce mémoire est l'ordonnancement dans les ateliers de production. L'objectif est d'étudier différents modèles classiques en analysant les liens et différences entre ces modèles et les problèmes pratiques associés. Les méthodes utilisées sont l'analyse de problèmes de nos partenaires industriels, l'étude de la complexité des problèmes ou de la structure des solutions et la proposition de méthodes de résolution exactes ou approchées. Le premier axe de cette thèse est l'étude de problèmes d'ordonnancement avec contraintes de ressources d'entrée/sortie. Les environnements considérés sont les flowshops robotisés et le nouveau modèle d'indisponibilité des opérateurs. Le second axe abordé concerne l'ordonnancement avec high multiplicity où les pièces sont agrégées en catégories. La description complète d'un ordonnancement (c'est-à-dire les instants de fabrication des tâches) n'est que pseudo-polynomiale de la taille de l'instance.

Page generated in 0.1559 seconds