• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 8
  • 3
  • Tagged with
  • 11
  • 5
  • 4
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

AMELIORATION DE LA PRECISION ET COMPENSATION DES INCERTITUDES DES METAMODELES POUR L'APPROXIMATION DE SIMULATEURS NUMERIQUES

Picheny, Victor 15 December 2009 (has links) (PDF)
Cette thèse est consacrée à la planification et l'exploitation d'expériences numériques à l'aide de modèles de remplacement (métamodèles), et plus particulièrement à la prise en compte des incertitudes induites par l'utilisation de ces métamodèles. Dans un premier temps, différentes méthodes sont proposées pour compenser ces incertitudes en biaisant les modèles afin de limiter le risque d'erreur 'défavorable' (méthodes conservatives). Cette étude s'appuie sur des applications en mécanique des structures, et en particulier, l'optimisation d'un système soumis a des contraintes de fiabilité. Cette thèse propose également deux contributions au domaine de la planification d'expériences numériques. D'une part, une méthode a été développée pour construire des plans permettant de minimiser l'erreur du modèle dans une région cible de l'espace de conception. Enfin, nous avons proposé des résultats pour la planification optimale des calculs dans le cas de simulateurs à réponse bruitées.
2

Méthodes d'interpolation à noyaux pour l'approximation de fonctions type boîte noire coûteuses

Barbillon, Pierre 22 November 2010 (has links) (PDF)
Cette thèse se place dans le cadre des expériences simulées auxquelles on a recours lorsque des expériences physiques ne sont pas réalisables. Une expérience simulée consiste à évaluer une fonction déterministe type boîte-noire coûteuse qui décrit un modèle physique. Les entrées de ce modèle, entachées d'incertitude, forment un vecteur aléatoire. Cela implique que les sorties que nous souhaitons étudier sont aléatoires. Une technique standard pour rendre possibles de nombreux traitements statistiques, est de remplacer la fonction type boîte-noire par un métamodèle d'évaluation quasi-instantanée l'approchant. Nous nous concentrons plus particulièrement sur les métamodèles d'interpolateurs à noyaux dont nous étudions la construction et l'utilisation. Dans ce cadre, une première contribution est la proposition d'une définition plus générale de noyau conditionnellement positif qui permet une vraie généralisation du concept de noyau défini positif et des théorèmes associés. Nous donnons ensuite, dans une deuxième contribution, un algorithme de construction de plans d'expérience dans des domaines éventuellement non hypercubiques suivant un critère maximin pertinent pour ces métamodèles. Dans une troisième contribution, nous traitons un problème statistique inverse en utilisant un métamodèle d'interpolateurs à noyaux dans un algorithme stochastique EM puisque le modèle liant les entrées aux sorties est de type boîte-noire coûteux. Enfin, nous proposons aussi, dans la dernière contribution, l'utilisation d'un tel métamodèle pour développer deux stratégies d'estimation et de majoration de probabilités d'événements rares dépen\-dant d'une fonction type boîte-noire coûteuse.
3

Stratégie multiparamétrique et métamodèles pour l'optimisation multiniveaux de structures / Multilevel optimisation of structures using a multiparametric strategy and metamodels

Laurent, Luc 02 December 2013 (has links)
Bien que de plus en plus employée au sein des bureaux d'études dans le cadre de la conception mécanique, l'optimisation reste à l'heure actuelle encore relativement peu utilisée dans le cadre des assemblages de structures. La résolution mécanique de ce type de problèmes nécessite la mise en oeuvre de méthodes numériques de résolution capables de prendre en compte des non-linéarités de type frottement et contact. Ces méthodes sont, en raison du temps de calcul, généralement incompatibles avec la recherche d'un optimum global nécessitant un nombre important de résolutions. C'est pour pallier à ce problème que ce travail propose l'emploi d'une approche d'optimisation bi-niveaux de modèles faisant intervenir deux outils: (1) la stratégie multiparamétrique, basée sur la méthode LaTIn, assure d'importantes réductions des temps de calcul associés aux multiples résolutions du problème mécanique et (2) un métamodèle de type cokrigeage construit à partir d'un nombre limité de réponses et gradients calculés par le solveur mécanique. Ce métamodèle est alors capable de fournir à coût extrêmement faible des réponses approchées de la fonction objectif. Une optimisation globale est ensuite réalisée sur ce dernier, assurant l'obtention d'un optimum global. Le métamodèle de cokrigeage est étudié en détail sur des exemples analytiques et mécaniques comportant divers nombres de paramètres. Par ailleurs, une étude complète de l'emploi de la stratégie multiparamétrique est proposée et de nombreux exemples d'assemblages sont considérés, permettant ainsi d'illustrer les performances significatives de la procédure d'optimisation proposée. / Optimisation strategies on assembly design are often relatively time expensive because of the large number of non-linear calculations (due to contact or friction problems) required to localize the optimum of an objective function. In order to achieve this kind of optimization problems with an acceptable computational time, this work propose to use a two-levels model optimization strategy based on two main tools: (1) the multiparametric strategy based on the LaTIn method that enables to reduce significantly the computational time for solving many similar mechanical assembly problems and (2) a cokriging metamodel built using responses and gradients computed by the mechanical solver on few sets of design parameters. The metamodel provides very inexpensive approximate responses of the objective function and it enables to achieve a global optimisation and to obtain the global optimum. The cokriging metamodel was reviewed in detail using analytical test functions and some mechanical benchmarks. The quality of the approximation and the building cost were compared with classical kriging approach. Moreover, a complete study of the multiparametric strategy was proposed using many mechanical benchmarks included many kinds and numbers of design parameters. The performance in term of computational time of the whole optimisation process was illustrated.
4

Stratégie multiparamétrique et métamodèles pour l'optimisation multiniveaux de structures

Laurent, Luc 02 December 2013 (has links) (PDF)
Bien que de plus en plus employée au sein des bureaux d'études dans le cadre de la conception mécanique, l'optimisation reste à l'heure actuelle encore relativement peu utilisée dans le cadre des assemblages de structures. La résolution mécanique de ce type de problèmes nécessite la mise en oeuvre de méthodes numériques de résolution capables de prendre en compte des non-linéarités de type frottement et contact. Ces méthodes sont, en raison du temps de calcul, généralement incompatibles avec la recherche d'un optimum global nécessitant un nombre important de résolutions. C'est pour pallier à ce problème que ce travail propose l'emploi d'une approche d'optimisation bi-niveaux de modèles faisant intervenir deux outils: (1) la stratégie multiparamétrique, basée sur la méthode LaTIn, assure d'importantes réductions des temps de calcul associés aux multiples résolutions du problème mécanique et (2) un métamodèle de type cokrigeage construit à partir d'un nombre limité de réponses et gradients calculés par le solveur mécanique. Ce métamodèle est alors capable de fournir à coût extrêmement faible des réponses approchées de la fonction objectif. Une optimisation globale est ensuite réalisée sur ce dernier, assurant l'obtention d'un optimum global. Le métamodèle de cokrigeage est étudié en détail sur des exemples analytiques et mécaniques comportant divers nombres de paramètres. Par ailleurs, une étude complète de l'emploi de la stratégie multiparamétrique est proposée et de nombreux exemples d'assemblages sont considérés, permettant ainsi d'illustrer les performances significatives de la procédure d'optimisation proposée.
5

Utilisation des méthodes de Krigeage pour le dimensionnement en fatigue des structures éoliennes posées en mer. / Kriging based methods for the structural damage assessment of offshore wind turbines

Huchet, Quentin 13 December 2018 (has links)
Dans le contexte actuel de transition énergétique, les acteurs de la production électrique (dont EDF) s'orientent de plus en plus vers les technologies "bas carbone", permettant de développer leur mix énergétique et d'assurer une production toujours plus respectueuse de l'environnement. Parmi l'ensemble des alternatives progressivement industrialisées au cours de ces dernières décennies, l'énergie éolienne voit son développement s'accélérer. De nouveaux projets voient le jour, notamment avec le développement de parcs éoliens posés en mer le long des côtes françaises.Afin de garantir une sécurité maximale des installations vis-à-vis des défaillances mécaniques, les ingénieurs doivent mettre en place un ensemble de vérifications ayant pour but d'assurer l'intégrité structurelle pendant une durée de vie donnée. Cette étape, nécessaire à la certification et donc à l'industrialisation du projet, exige un investissement numérique important. Dans le cas particulier de l'estimation de l'endommagement à durée de vie, un ensemble complet d'analyses doit être effectué afin de simuler les réactions structurelles en différents points de la conception et ce, pour l'ensemble des conditions environnementales de chargement possibles (cas de charge). Au total, quelques milliers de simulations correspondant à l'ensemble des situations probables sont à prévoir pour la seule estimation de l'endommagement à durée de vie. De plus, la prise en compte des différents phénomènes physiques du problème (aérodynamique, hydrodynamique, mécanique élastique), ainsi que la considération des non-linéarités des réponses liées à l'asservissement de la turbine, impliquent l'utilisation de codes de résolution temporels et multi-physiques coûteux pour chacune des situations de chargement à simuler.Afin de réduire l'investissement lié à l'estimation de cet endommagement, l'utilisation de méthodes numériques de substitution (également appelées métamodèles) est une alternative prometteuse. Ces méthodologies ont montré leur efficacité dans divers domaines de l'ingénierie permettant d'approcher, par diverses hypothèses statistiques, la réponse de modèles numériques en ne considérant qu'un nombre réduit de simulations.Ce travail de thèse s'est focalisé sur le développement d'outils numériques pour le dimensionnement efficace des structures éoliennes en mer et plus particulièrement sur l'utilisation des métamodèles de Krigeage (ou méthode de régression par processus gaussien) pour l'estimation de l'endommagement mécanique. Sous certaines hypothèses, cette méthode de substitution se prête particulièrement bien à l'approximation des réponses de modèles physiques, notamment grâce à la mise en place facilitée d'architectures itératives d'enrichissement ("active learning strategy"). Deux domaines ont principalement été étudiés : l'estimation rapide des quantités d'endommagement structurel par le développement de la méthode "Adaptive Kriging for Damage Assessment" (AK-DA) et les possibilités d'utilisation de cette dernière dans le cadre d'études de la fiabilité conceptuelle au regard de la tenue à l'endommagement. L'applicabilité de ces méthodes a été illustrée via l'utilisation d'exemples numériques inspirés du contexte industriel et de ses contraintes. / The mechanical certification of wind turbine structures is required for the funding of newoffshore projects on the French coasts. In order to ensure a maximal safety level of installations,a series of structural analyzes are required by the certification bodies. Amongst all, thedamage based computations represent an important numerical effort for EDF. The presentedworks focus on the applicability and the performances of Kriging metamodels for the estimationof the lifetime cumulated damage of offshore wind turbine structures (AK-DA approach)and the damage based reliability assessment of new designs (AK-MCS/AK-DA coupling).
6

Predictive numerical simulations for rebuilding freestream conditions in atmospheric entry flows / Simulations numériques prédictives pour la reconstruction des conditions en amont dans les écoulements de rentrée atmosphérique

Cortesi, Andrea Francesco 16 February 2018 (has links)
Une prédiction fidèle des écoulements hypersoniques à haute enthalpie est capitale pour les missions d'entrée atmosphérique. Cependant, la présence d'incertitudes est inévitable, sur les conditions de l'écoulement libre comme sur d'autres paramètres des modèles physico-chimiques. Pour cette raison, une quantification rigoureuse de l'effet de ces incertitudes est obligatoire pour évaluer la robustesse et la prédictivité des simulations numériques. De plus, une reconstruction correcte des paramètres incertains à partir des mesures en vol peut aider à réduire le niveau d'incertitude sur les sorties. Dans ce travail, nous utilisons un cadre statistique pour la propagation directe des incertitudes ainsi que pour la reconstruction inverse des conditions de l'écoulement libre dans le cas d'écoulements de rentrée atmosphérique. La possibilité d'exploiter les mesures de flux thermique au nez du véhicule pour la reconstruction des variables de l'écoulement libre et des paramètres incertains du modèle est évaluée pour les écoulements de rentrée hypersoniques. Cette reconstruction est réalisée dans un cadre bayésien, permettant la prise en compte des différentes sources d'incertitudes et des erreurs de mesure. Différentes techniques sont introduites pour améliorer les capacités de la stratégie statistique de quantification des incertitudes. Premièrement, une approche est proposée pour la génération d'un métamodèle amélioré, basée sur le couplage de Kriging et Sparse Polynomial Dimensional Decomposition. Ensuite, une méthode d'ajoute adaptatif de nouveaux points à un plan d'expériences existant est présentée dans le but d'améliorer la précision du métamodèle créé. Enfin, une manière d'exploiter les sous-espaces actifs dans les algorithmes de Markov Chain Monte Carlo pour les problèmes inverses bayésiens est également exposée. / Accurate prediction of hypersonic high-enthalpy flows is of main relevance for atmospheric entry missions. However, uncertainties are inevitable on freestream conditions and other parameters of the physico-chemical models. For this reason, a rigorous quantification of the effect of uncertainties is mandatory to assess the robustness and predictivity of numerical simulations. Furthermore, a proper reconstruction of uncertain parameters from in-flight measurements can help reducing the level of uncertainties of the output. In this work, we will use a statistical framework for direct propagation of uncertainties and inverse freestream reconstruction applied to atmospheric entry flows. We propose an assessment of the possibility of exploiting forebody heat flux measurements for the reconstruction of freestream variables and uncertain parameters of the model for hypersonic entry flows. This reconstruction is performed in a Bayesian framework, allowing to account for sources of uncertainties and measurement errors. Different techniques are introduced to enhance the capabilities of the statistical framework for quantification of uncertainties. First, an improved surrogate modeling technique is proposed, based on Kriging and Sparse Polynomial Dimensional Decomposition. Then a method is proposed to adaptively add new training points to an existing experimental design to improve the accuracy of the trained surrogate model. A way to exploit active subspaces in Markov Chain Monte Carlo algorithms for Bayesian inverse problems is also proposed.
7

Développement d'une méthodologie pour l'optimisation multicritère de scénarios d'évolution du parc nucléaire / Methodology implementation for multiobjective optimisation for nuclear fleet evolution scenarios

Freynet, David 30 September 2016 (has links)
La question de l’évolution du parc nucléaire français peut être considérée via l’étude de scénarios électronucléaires. Ces études présentent un rôle important, compte-tenu des enjeux, de l’ampleur des investissements, des durées et de la complexité des systèmes concernés, et fournissent des éléments d’aide au processus décisionnel. Elles sont menées à l’aide du code COSI (développé au CEA/DEN), qui permet de calculer les inventaires et les flux de matières transitant dans le cycle (réacteurs nucléaires et installations associées), via notamment le couplage avec le code d’évolution CESAR. Les études actuelles menées avec COSI nécessitent de définir les paramètres d’entrée des scénarios simulés, de sorte à satisfaire différents critères comme minimiser la consommation d’uranium naturel, la production de déchets, etc. Ces paramètres portent notamment sur les quantités et l’ordonnancement des combustibles usés au retraitement ou encore le nombre, la filière et les dates de mises en service des réacteurs à déployer. Le présent travail vise à développer, valider et appliquer une méthodologie d’optimisation couplée à COSI pour la recherche de scénarios électronucléaires optimaux pour un problème multicritère. Cette méthodologie repose en premier lieu sur la réduction de la durée d’évaluation d’un scénario afin de permettre l’utilisation de méthodes d’optimisation en un temps raisonnable. Dans ce cadre, des métamodèles d’irradiation par réseaux de neurones sont établis à l’aide de la plateforme URANIE (développée au CEA/DEN) et sont implémentés dans COSI. L’objet du travail est ensuite d’utiliser, adapter et comparer différentes méthodes d’optimisation, telles que l’algorithme génétique et l’essaim particulaire disponibles dans la plateforme URANIE, afin de définir une méthodologie adéquate pour ce sujet d’étude spécifique. La mise en place de cette méthodologie suit une approche incrémentale qui fait intervenir des ajouts successifs de critères, contraintes et variables de décision dans la définition du problème d’optimisation. Les variables ajoutées au problème, qui décrivent la cinétique de déploiement des réacteurs et la stratégie de retraitement des combustibles usés, sont choisies en fonction de leur sensibilité sur les critères définis. Cette approche permet de faciliter l’interprétation des scénarios optimaux, la détection d’éventuelles difficultés liées au processus d’optimisation, et finalement d’émettre des recommandations d’utilisation de la méthodologie mise en place en fonction de la nature du problème. Les études d'optimisation s’appuient sur un scénario de déploiement de réacteurs à neutrons rapides avec recyclage du plutonium, inspiré des études menées dans le cadre de la loi de 2006 sur la gestion des matières et déchets radioactifs. Une illustration des possibilités de la méthodologie est réalisée sur ce scénario, et permet notamment de démontrer le caractère optimal du scénario issu des études menées selon cette loi vis-à-vis de la limitation de l’entreposage de matières fissiles. Ce résultat souligne l’importance de la mise en œuvre d’une gestion dynamique du plutonium via le recours au combustible MOX pour le déploiement progressif des RNR. / The issue of the evolution French nuclear fleet can be considered through the study of nuclear transition scenarios. These studies are of paramount importance as their results can greatly affect the decision making process, given that they take into account industrial concerns, investments, time, and nuclear system complexity. Such studies can be performed with the COSI code (developed at the CEA/DEN), which enables the calculation of matter inventories and fluxes across the fuel cycle (nuclear reactors and associated facilities), especially when coupled with the CESAR depletion code. The studies today performed with COSI require the definition of the various scenarios’ input parameters, in order to fulfil different objectives such as minimising natural uranium consumption, waste production and so on. These parameters concern the quantities and the scheduling of spent fuel destined for reprocessing, and the number, the type and the commissioning dates of deployed reactors.This work aims to develop, validate and apply an optimisation methodology coupled with COSI, in order to determine optimal nuclear transition scenarios for a multi-objective platform. Firstly, this methodology is based on the acceleration of scenario evaluation, enabling the use of optimisation methods in a reasonable time-frame. With this goal in mind, artificial neural network irradiation surrogate models are created with the URANIE platform (developed at the CEA/DEN) and are implemented within COSI. The next step in this work is to use, adapt and compare different optimisation methods, such as URANIE’s genetic algorithm and particle swarm methods, in order to define a methodology suited to this type of study. This methodology development is based on an incremental approach which progressively adds objectives, constraints and decision variables to the optimisation problem definition. The variables added, which are related to reactor deployment and spent fuel reprocessing strategies, are chosen according to their sensitivity to the defined objectives. This approach makes optimal scenarios interpretation easier, makes it possible to identify potential difficulties with the optimisation process, and then to provide recommendations on the use of the deployed methodology according to the problem type. The optimisation studies consider a fast reactor deployment scenario with plutonium recycling, which is inspired by studies carried out in the scope of the 2006 Act for Waste Management. An illustration of the possibilities of this methodology is provided with this scenario, demonstrating the optimality of the scenario inspired by the studies that were carried out for the 2006 Act, regarding stored fissile materials limitation. This result highlights the importance of dynamic plutonium management through MOX fuel usage during fast reactor deployment.
8

Conception, modélisation et dimensionnement d'un système de levé de soupape à trois positions discrètes pour un moteur essence automobile / Design, modeling and dimensionning of an electromagnetic variable valve lift 3-stage tappet in an automotive engine

Duchaud, Jean-Laurent 26 June 2015 (has links)
La réduction de la consommation des véhicules est un enjeu majeur pour les constructeurs. Parmi les stratégies employées, l’utilisation de lois de levée de soupape variables est en voie de démocratisation.Le premier objectif de cette thèse est de présenter la recherche et le pré dimensionnement d’un mécanisme offrant à la soupape trois levées distinctes : une pour la pleine charge, une pour les faibles charges et une permettant de désactiver un ou plusieurs cylindres pour les charges intermédiaires. Le pré dimensionnement comprend notamment les conditions d’usinabilité des cames, le calcul des ressorts de distribution et la contrainte de pression de contact entre les cames et les poussoirs.Le mode de fonctionnement de ce mécanisme est piloté par la position de deux actionneurs électromagnétiques choisis pour leur temps de réponse faible. Le deuxième objectif de la thèse est de proposer une optimisation afin de réduire leurs dimensions et faciliter leur intégration. Cette optimisation nécessite une modélisation multi-physique (magnétique, électrique, mécanique) du comportement de l’actionneur et permet de définir le profil de commande et les ressorts.Compte tenu du nombre de paramètres d’entrée et du temps de calcul d’une itération, l’optimisation présente un coût de calcul important. Nous présentons donc deux algorithmes de création de modèles de substitution par krigeage. Le premier permet d’approximer une fonction fine dans tout le domaine d’étude à un coût limité. Le second est inclus dans une boucle d’optimisation et n’utilise le modèle fin que lorsque l’approximation n’est pas suffisamment fiable. Ils permettent tout deux de réduire le coût d’optimisation. / Abstract : As the constraint on vehicle consumption tightens, variable valve lift strategies are used to increase engines efficiency. This thesis focuses on issues related to the design of a three-stage electromagnetic valve tappet. First of all, the tappet has to fit inside the engine and has to offer three different valve lifts: a full lift for high speed and torque requirements, a low lift for small loads and a lift allowing cylinder deactivation for medium loads. The tappet dimensioning includes, for example, cams feasibility, spring parameters and contact pressure between cams and tappets. Valve lift selection is made by two electromagnetic actuators in order to obtain a short transition time. Their size, however, hinders their integration. Hence, we realize an optimization aiming to reduce its volume and define the command profile and its return springs. This optimization requires a multi-physics model (electric, magnetic and dynamic) to simulate the actuator behavior. Due to the parameter number and the computational time needed per iteration, the optimization is expensive. Hence we suggest two metamodels algorithms to be used in the optimization. The first algorithm, off-line, is able to create iteratively a predictor precise in the entire domain studied with a lesser cost than Latin Hypercube Sample. The second, in-line, refines the predictor inside the optimization loops and uses it when the predicted error is small.
9

Codèle : Une Approche de Composition de Modèles pour la Construction de Systèmes à Grande Échelle

Nguyen, Thi Thanh Tam 22 December 2008 (has links) (PDF)
Depuis "toujours", en Génie Logiciel comme dans toutes les ingénieries, afin réduire la complexité et pour améliorer la réutilisation, le produit à construire est divisé en parties construites indépendamment et ensuite assemblées. L'approche récente de l'Ingénierie Dirigée par les Modèles (IDM, ou MDE pour Model-Driven Engineering), fait de même, en proposant "simplement" que les parties à construire et à assembler soient des modèles et non pas des programmes. C'est ainsi que le problème de la composition de modèles est devenu un thème important de l'IDM, et le sujet de cette thèse. En effet, un système logiciel réel est bien trop complexe pour pouvoir être décrit par un seul modèle. De nombreux modèles devront être créés pour le spécifier, soit à divers niveaux d'abstraction, soit selon divers points de vue, soit encore selon des domaines fonctionnels differents et complémentaires. Dans ce travail, nous partons de l'hypothèse que de tels domaines métiers existent. Un domaine est un champ d'expertise avec 1) les savoir-faire et les connaissances capturés et formalisés sous la forme d'un langage de modélisation dédié au domaine (un Domain-Specific Modeling Language (DSML)), et 2) des outils et des environnements supportant le développement d'applications dans ce domaine. Une application, dans un domaine, est décrite par un modèle (conforme au métamodèle du domaine). Dans ce travail, nous faisons aussi l'hypothèse que ces domaines sont exécutables ; les modèles du domaine sont exécutés par une machine virtuelle du domaine. En IDM, comme dans les autres approches du Génie Logiciel, la réutilisation impose que le processus d'assemblage des parties puisse se faire sans avoir à modifier celles-ci, ni bien sur l'environnement qui les a produit ou qui les exécute. Appliqué à notre contexte, cela signifie qu'il faut être capable de composer des modèles sans les modifier et sans modifier ni l'éditeur ni la machine virtuelle du domaine dont ils sont issus. C'est le problème que nous abordons dans notre travail. Nous montrons que pour atteindre cet objectif, il faut d'abord composer les domaines c'est à dire composer leurs métamodèles et leurs machines virtuelles, puis les modèles. Nous montrons dans ce travail comment ces compositions peuvent être réalisées sans modifier les éléments compos és, en utilisant des relations dites horizontales entre les métamodèles, et des liens entre les modèles. Cette approche est validée d'abord par la réalisation d'un certain nombre de domaines composites, et par de nombreuses compositions de modèles opérationnelles. Une partie importante du travail a consisté à définir Codèle, un langage de composition de modèles et de métamodèles, et à réaliser l'environnement d'assistance correspondant. Codèle assiste les ingénieurs pour composer de façon systématique les domaines, et rend automatique ou semi-automatique la composition de tous modèles provenant de ces domaines. Nous présentons l'outil Codèle et nous évaluons son usage dans divers projets.
10

Métamodèles adaptatifs pour l'optimisation fiable multi-prestations de la masse de véhicules / Adaptive surrogate models for the reliable lightweight design of automotive body structures

Moustapha, Maliki 27 January 2016 (has links)
Cette thèse s’inscrit dans le cadre des travaux menés par PSA Peugeot Citroën pour l’allègement de ses véhicules. Les optimisations masse multi-prestations réalisées sur le périmètre de la structure contribuent directement à cette démarche en recherchant une allocation d’épaisseurs de tôles à masse minimale qui respectent des spécifications physiques relatives à différentes prestations (choc, vibro-acoustique, etc.). Ces spécifications sont généralement évaluées à travers des modèles numériques à très haute-fidélité qui présentent des temps de restitution particulièrement élevés. Le recours à des fonctions de substitution, connues sous le nom de métamodèles, reste alors la seule alternative pour mener une étude d’optimisation tout en respectant les délais projet. Cependant la prestation qui nous intéresse, à savoir le choc frontal, présente quelques particularités (grande dimensionnalité, fortes non-linéarités, dispersions physique et numérique) qui rendent sa métamodélisation difficile.L’objectif de la thèse est alors de proposer une approche d’optimisation basée sur des métamodèles adaptatifs afin de dégager de nouveaux gains de masse. Cela passe par la prise en compte du choc frontal dont le caractère chaotique est exacerbé par la présence d’incertitudes. Nous proposons ainsi une méthode d’optimisation fiabiliste avec l’introduction de quantiles comme mesure de conservatisme. L’approche est basée sur des modèles de krigeage avec enrichissement adaptatif afin de réduire au mieux le nombre d’appels aux modèles éléments finis. Une application sur un véhicule complet permet de valider la méthode. / One of the most challenging tasks in modern engineering is that of keeping the cost of manufactured goods small. With the advent of computational design, prototyping for instance, a major source of expenses, is reduced to its bare essentials. In fact, through the use of high-fidelity models, engineers can predict the behaviors of the systems they design quite faithfully. To be fully realistic, such models must embed uncertainties that may affect the physical properties or operating conditions of the system. This PhD thesis deals with the constrained optimization of structures under uncertainties in the context of automotive design. The constraints are assessed through expensive finite element models. For practical purposes, such models are conveniently substituted by so-called surrogate models which stand as cheap and easy-to-evaluate proxies. In this PhD thesis, Gaussian process modeling and support vector machines are considered. Upon reviewing state-of-the-art techniques for optimization under uncertainties, we propose a novel formulation for reliability-based design optimization which relies on quantiles. The formal equivalence of this formulation with the traditional ones is proved. This approach is then coupled to surrogate modeling. Kriging is considered thanks to its built-in error estimate which makes it convenient to adaptive sampling strategies. Such an approach allows us to reduce the computational budget by running the true model only in regions that are of interest to optimization. We therefore propose a two-stage enrichment scheme. The first stage is aimed at globally reducing the Kriging epistemic uncertainty in the vicinity of the limit-state surface. The second one is performed within iterations of optimization so as to locally improve the quantile accuracy. The efficiency of this approach is demonstrated through comparison with benchmark results. An industrial application featuring a car under frontal impact is considered. The crash behavior of a car is indeed particularly affected by uncertainties. The proposed approach therefore allows us to find a reliable solution within a reduced number of calls to the true finite element model. For the extreme case where uncertainties trigger various crash scenarios of the car, it is proposed to rely on support vector machines for classification so as to predict the possible scenarios before metamodeling each of them separately.

Page generated in 0.4217 seconds