• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 4
  • 3
  • Tagged with
  • 5
  • 5
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Utilisation de simulateurs multi-fidélité pour les études d'incertitudes dans les codes de caclul / Assessment of uncertainty in computer experiments when working with multifidelity simulators.

Zertuche, Federico 08 October 2015 (has links)
Les simulations par ordinateur sont un outil de grande importance pour les mathématiciens appliqués et les ingénieurs. Elles sont devenues plus précises mais aussi plus compliquées. Tellement compliquées, que le temps de lancement par calcul est prohibitif. Donc, plusieurs aspects de ces simulations sont mal compris. Par exemple, souvent ces simulations dépendent des paramètres qu'ont une valeur inconnue.Un metamodèle est une reconstruction de la simulation. Il produit des réponses proches à celles de la simulation avec un temps de calcul très réduit. Avec ce metamodèle il est possible d'étudier certains aspects de la simulation. Il est construit avec peu de données et son objectif est de remplacer la simulation originale.Ce travail est concerné avec la construction des metamodèles dans un cadre particulier appelé multi-fidélité. En multi-fidélité, le metamodèle est construit à partir des données produites par une simulation objective et des données qu'ont une relation avec cette simulation. Ces données approximées peuvent être générés par des versions dégradées de la simulation ; par des anciennes versions qu'ont été largement étudiées ou par une autre simulation dans laquelle une partie de la description est simplifiée.En apprenant la différence entre les données il est possible d'incorporer l'information approximée et ce ci peut nous conduire vers un metamodèle amélioré. Deux approches pour atteindre ce but sont décrites dans ce manuscrit : la première est basée sur des modèles avec des processus gaussiens et la seconde sur une décomposition à base d'ondelettes. La première montre qu'en estimant la relation il est possible d'incorporer des données qui n'ont pas de valeur autrement. Dans la seconde, les données sont ajoutées de façon adaptative pour améliorer le metamodèle.L'objet de ce travail est d'améliorer notre compréhension sur comment incorporer des données approximées pour produire des metamodèles plus précis. Travailler avec un metamodèle multi-fidélité nous aide à comprendre en détail ces éléments. A la fin une image globale des parties qui forment ce metamodèle commence à s'esquisser : les relations et différences entres les données deviennent plus claires. / A very important tool used by applied mathematicians and engineers to model the behavior of a system are computer simulations. They have become increasingly more precise but also more complicated. So much, that they are very slow to produce an output and thus difficult to sample so that many aspects of these simulations are not very well understood. For example, in many cases they depend on parameters whose value isA metamodel is a reconstruction of the simulation. It requires much less time to produce an output that is close to what the simulation would. By using it, some aspects of the original simulation can be studied. It is built with very few samples and its purpose is to replace the simulation.This thesis is concerned with the construction of a metamodel in a particular context called multi-fidelity. In multi-fidelity the metamodel is constructed using the data from the target simulation along other samples that are related. These approximate samples can come from a degraded version of the simulation; an old version that has been studied extensively or a another simulation in which a part of the description is simplified.By learning the difference between the samples it is possible to incorporate the information of the approximate data and this may lead to an enhanced metamodel. In this manuscript two approaches that do this are studied: one based on Gaussian process modeling and another based on a coarse to fine Wavelet decomposition. The fist method shows how by estimating the relationship between two data sets it is possible to incorporate data that would be useless otherwise. In the second method an adaptive procedure to add data systematically to enhance the metamodel is proposed.The object of this work is to better our comprehension of how to incorporate approximate data to enhance a metamodel. Working with a multi-fidelity metamodel helps us to understand in detail the data that nourish it. At the end a global picture of the elements that compose it is formed: the relationship and the differences between all the data sets become clearer.
2

Couplage optimisation à convergence partielle et stratégie multiparamétrique en calcul de structures / Coupling partially converged data and a multiparametric strategy for the optimization of assemblies

Courrier, Nicolas 08 December 2015 (has links)
Dans le cadre de calcul des assemblages de structures, les bureaux d'études sont à l'heure actuelle encore limités dans la possibilité de mener des travaux d'optimisation. En effet, la résolution numérique des assemblages nécessite la mise en œuvre de méthodes capables de prendre en compte différents types de non-linéarités (frottement, contact et jeux entre pièces). Le coût de calcul associé à ces méthodes est généralement trop important pour mener une optimisation globale nécessitant un trop grand nombre d'évaluations. Afin de pallier à ce problème, ce travail s'appuie sur une démarche d'optimisation à deux niveaux de modèles. Le premier niveau d'optimisation consiste à la création d'un métamodèle sur lequel est effectué une optimisation globale. Le second niveau d'optimisation consiste à mener à bien une optimisation locale sur le modèle mécanique réel. Cette optimisation locale s'appuie sur les résultats trouvés au premier niveau. Deux outils sont principalement utilisés au cours de cette thèse. Tout d'abord les simulations numériques sont réalisées à l'aide de la méthode LaTIn multiparamétrique qui assure la réduction des temps de calcul associés aux multiples résolutions du problème mécanique. L'autre outil plus largement développé au cours de ce travail s'appuie sur la construction de métamodèles multi-fidélité. En effet, la méthode LaTIn est une méthode de calcul itérative, il est alors possible d'avoir accès à un indicateur d'erreur servant de niveau de convergence pour les différents calculs numériques effectués. La construction de métamodèles multi-fidélité a pour particularité de pouvoir incorporé différentes sources d'informations qui sont dans ce travail dites "totalement convergé" lorsqu'un calcul est effectué à convergence et "partiellement convergé" lorsqu'un calcul est stoppé avant convergence. Différentes méthodes multi-fidélité sont testées dans ce travail sur plusieurs exemples mécaniques afin de déterminer les plus performantes. Deux cas industriels sont également traités. / Optimisation strategies on assembly design are often time expensive on industrial case. The main difficulties are due to the non-linearties of the calculation (contact, friction and gap between pieces). The computation cost can be too expensive to lead a global optimization with a large number of evaluation of the mechanical problem.In order to achieve this kind of optimization problems, this work purposes to use a two-levels models optimization strategy. THe first level is defined thanks to the construction of a metamodel which is used to lead a global optimization. On the second level, a local optimization is used on the real mechanical model thanks to the results got from the first level.Two main tools are used in this work. The first one is the multiparametric LaTIn method which enables to reduce drastically the computational time for solving several similar mechanical assembly design problems. The other tool is the one which is the most developped in this work is the constrcution of multi-fidelty surrogate models. Indeed, the LaTIn method in an iterative method, so it is possible to define an error indicator which can be used as a level of convergence of the calculation. The construction of multi-fidelity metamodels has for particularity to incorpore several kind of information which are named as "totally converged" if the calculation has been converged and "partially converged" if the calculation has been stopped premarturly.Different multi-fidélity methods have been investigated in this work on several mechnaical examples in the aim to define the most performant. Industrial case test are trated in this thesis.In order to achieve this kind of optimization problems with an acceptable computational time, this work propose to use a two-levels model optimization strategy based on two main tools: (1) the multiparametric strategy based on the LaTIn method that enables to reduce significantly the computational time for solving many similar mechanical assembly problems and (2) a cokriging metamodel built using responses and gradients computed by the mechanical solver on few sets of design parameters. The metamodel provides very inexpensive approximate responses of the objective function and it enables to achieve a global optimisation and to obtain the global optimum. The cokriging metamodel was reviewed in detail using analytical test functions and some mechanical benchmarks. The quality of the approximation and the building cost were compared with classical kriging approach. Moreover, a complete study of the multiparametric strategy was proposed using many mechanical benchmarks included many kinds and numbers of design parameters. The performance in term of computational time of the whole optimisation process was illustrated.
3

Utilisation de méta-modèles multi-fidélité pour l'optimisation de la production des réservoirs / Use of multi-fidelity meta-models for optimizing reservoir production

Thenon, Arthur 20 March 2017 (has links)
Les simulations d'écoulement sur des modèles représentatifs d'un gisement pétrolier sont généralement coûteuses en temps de calcul. Une pratique courante en ingénierie de réservoir consiste à remplacer ces simulations par une approximation mathématique, un méta-modèle. La méta-modélisation peut fortement réduire le nombre de simulations nécessaires à l'analyse de sensibilité, le calibrage du modèle, l'estimation de la production, puis son optimisation. Cette thèse porte sur l'étude de méta-modèles utilisant des simulations réalisées à différents niveaux de précision, par exemple pour des modèles de réservoir avec des maillages de résolutions différentes. L'objectif est d'accélérer la construction d'un méta-modèle prédictif en combinant des simulations coûteuses avec des simulations rapides mais moins précises. Ces méta-modèles multi-fidélité, basés sur le co-krigeage, sont comparés au krigeage pour l'approximation de sorties de la simulation d'écoulement. Une analyse en composantes principales peut être considérée afin de réduire le nombre de modèles de krigeage pour la méta-modélisation de réponses dynamiques et de cartes de propriétés. Cette méthode peut aussi être utilisée pour améliorer la méta-modélisation de la fonction objectif dans le cadre du calage d'historique. Des algorithmes de planification séquentielle d'expériences sont finalement proposés pour accélérer la méta-modélisation et tirer profit d'une approche multi-fidélité. Les différentes méthodes introduites sont testées sur deux cas synthétiques inspirés des benchmarks PUNQ-S3 et Brugge. / Performing flow simulations on numerical models representative of oil deposits is usually a time consuming task in reservoir engineering. The substitution of a meta-model, a mathematical approximation, for the flow simulator is thus a common practice to reduce the number of calls to the flow simulator. It permits to consider applications such as sensitivity analysis, history-matching, production estimation and optimization. This thesis is about the study of meta-models able to integrate simulations performed at different levels of accuracy, for instance on reservoir models with various grid resolutions. The goal is to speed up the building of a predictive meta-model by balancing few expensive but accurate simulations, with numerous cheap but approximated ones. Multi-fidelity meta-models, based on co-kriging, are thus compared to kriging meta-models for approximating different flow simulation outputs. To deal with vectorial outputs without building a meta-model for each component of the vector, the outputs can be split on a reduced basis using principal component analysis. Only a few meta-models are then needed to approximate the main coefficients in the new basis. An extension of this approach to the multi-fidelity context is proposed. In addition, it can provide an efficient meta-modelling of the objective function when used to approximate each production response involved in the objective function definition. The proposed methods are tested on two synthetic cases derived from the PUNQ-S3 and Brugge benchmark cases. Finally, sequential design algorithms are introduced to speed-up the meta-modeling process and exploit the multi-fidelity approach.
4

Méthodes avancées d'optimisation par méta-modèles – Applicationà la performance des voiliers de compétition / Advanced surrogate-based optimization methods - Application to racing yachts performance

Sacher, Matthieu 10 September 2018 (has links)
L’optimisation de la performance des voiliers est un problème difficile en raison de la complexité du systèmemécanique (couplage aéro-élastique et hydrodynamique) et du nombre important de paramètres à optimiser (voiles, gréement,etc.). Malgré le fait que l’optimisation des voiliers est empirique dans la plupart des cas aujourd’hui, les approchesnumériques peuvent maintenant devenir envisageables grâce aux dernières améliorations des modèles physiques et despuissances de calcul. Les calculs aéro-hydrodynamiques restent cependant très coûteux car chaque évaluation demandegénéralement la résolution d’un problème non linéaire d’interaction fluide-structure. Ainsi, l’objectif central de cette thèseest de proposer et développer des méthodes originales dans le but de minimiser le coût numérique de l’optimisation dela performance des voiliers. L’optimisation globale par méta-modèles Gaussiens est utilisée pour résoudre différents problèmesd’optimisation. La méthode d’optimisation par méta-modèles est étendue aux cas d’optimisations sous contraintes,incluant de possibles points non évaluables, par une approche de type classification. L’utilisation de méta-modèles à fidélitésmultiples est également adaptée à la méthode d’optimisation globale. Les applications concernent des problèmesd’optimisation originaux où la performance est modélisée expérimentalement et/ou numériquement. Ces différentes applicationspermettent de valider les développements des méthodes d’optimisation sur des cas concrets et complexes, incluantdes phénomènes d’interaction fluide-structure. / Sailing yacht performance optimization is a difficult problem due to the high complexity of the mechanicalsystem (aero-elastic and hydrodynamic coupling) and the large number of parameters to optimize (sails, rigs, etc.).Despite the fact that sailboats optimization is empirical in most cases today, the numerical optimization approach is nowconsidered as possible because of the latest advances in physical models and computing power. However, these numericaloptimizations remain very expensive as each simulation usually requires solving a non-linear fluid-structure interactionproblem. Thus, the central objective of this thesis is to propose and to develop original methods aiming at minimizing thenumerical cost of sailing yacht performance optimization. The Efficient Global Optimization (EGO) is therefore appliedto solve various optimization problems. The original EGO method is extended to cases of optimization under constraints,including possible non computable points, using a classification-based approach. The use of multi-fidelity surrogates isalso adapted to the EGO method. The applications treated in this thesis concern the original optimization problems inwhich the performance is modeled experimentally and/or numerically. These various applications allow for the validationof the developments in optimization methods on real and complex problems, including fluid-structure interactionphenomena.
5

Planification d’expériences numériques en multi-fidélité : Application à un simulateur d’incendies / Sequential design of numerical experiments in multi-fidelity : Application to a fire simulator

Stroh, Rémi 26 June 2018 (has links)
Les travaux présentés portent sur l'étude de modèles numériques multi-fidèles, déterministes ou stochastiques. Plus précisément, les modèles considérés disposent d'un paramètre réglant la qualité de la simulation, comme une taille de maille dans un modèle par différences finies, ou un nombre d'échantillons dans un modèle de Monte-Carlo. Dans ce cas, il est possible de lancer des simulations basse fidélité, rapides mais grossières, et des simulations haute fidélité, fiables mais coûteuses. L'intérêt d'une approche multi-fidèle est de combiner les résultats obtenus aux différents niveaux de fidélité afin d'économiser du temps de simulation. La méthode considérée est fondée sur une approche bayésienne. Le simulateur est décrit par un modèle de processus gaussiens multi-niveaux développé dans la littérature que nous adaptons aux cas stochastiques dans une approche complètement bayésienne. Ce méta-modèle du simulateur permet d'obtenir des estimations de quantités d'intérêt, accompagnés d'une mesure de l'incertitude associée. L'objectif est alors de choisir de nouvelles expériences à lancer afin d'améliorer les estimations. En particulier, la planification doit sélectionner le niveau de fidélité réalisant le meilleur compromis entre coût d'observation et gain d'information. Pour cela, nous proposons une stratégie séquentielle adaptée au cas où les coûts d'observation sont variables. Cette stratégie, intitulée "Maximal Rate of Uncertainty Reduction" (MRUR), consiste à choisir le point d'observation maximisant le rapport entre la réduction d'incertitude et le coût. La méthodologie est illustrée en sécurité incendie, où nous cherchons à estimer des probabilités de défaillance d'un système de désenfumage. / The presented works focus on the study of multi-fidelity numerical models, deterministic or stochastic. More precisely, the considered models have a parameter which rules the quality of the simulation, as a mesh size in a finite difference model or a number of samples in a Monte-Carlo model. In that case, the numerical model can run low-fidelity simulations, fast but coarse, or high-fidelity simulations, accurate but expensive. A multi-fidelity approach aims to combine results coming from different levels of fidelity in order to save computational time. The considered method is based on a Bayesian approach. The simulator is described by a state-of-art multilevel Gaussian process model which we adapt to stochastic cases in a fully-Bayesian approach. This meta-model of the simulator allows estimating any quantity of interest with a measure of uncertainty. The goal is to choose new experiments to run in order to improve the estimations. In particular, the design must select the level of fidelity meeting the best trade-off between cost of observation and information gain. To do this, we propose a sequential strategy dedicated to the cases of variable costs, called Maximum Rate of Uncertainty Reduction (MRUR), which consists of choosing the input point maximizing the ratio between the uncertainty reduction and the cost. The methodology is illustrated in fire safety science, where we estimate probabilities of failure of a fire protection system.

Page generated in 0.0409 seconds