31 |
Optimisation des corrections de forme dans les engrenages droits et hélicoïdaux : Approches déterministes et probabilistesGhribi, Dhafer 21 February 2013 (has links) (PDF)
Cette thèse a pour objectif de mener une optimisation des corrections de forme des engrenages cylindriques, droits et hélicoïdaux. Le travail se décompose en quatre parties principales. Dans la première partie, on présente un état de l'art sur les différents types de corrections de forme proposées dans la littérature. Une analyse des travaux d'optimisation, menés jusqu'à présent, est conduite. La deuxième partie est focalisée sur une approche déterministe visant à cerner l'influence des corrections de dentures sur les principaux critères de performance. Dans ce contexte, on propose un développement analytique qui caractérise les fluctuations d'erreur de transmission quasi-statique permettant d'obtenir des relations approchées originales. En présence de plusieurs paramètres de corrections, un algorithme génétique est utilisé afin d'identifier, en un temps réduit, les solutions optimales. Nous proposons, en troisième partie, une étude probabiliste pour caractériser les corrections robustes. Ainsi, on définit une fonction objectif de robustesse faisant intervenir des paramètres statistiques. Après une étape de validation, l'estimation de ces paramètres est effectuée en utilisant les formules de quadrature de Gauss. Plusieurs études paramétriques sont ensuite menées et qui reflètent entre autre l'influence des classes de qualité, la forme de la correction, etc. Enfin, on a conduit une optimisation multicritère en utilisant un algorithme d'optimisation spécifique : " NSGA-II ".
|
32 |
Perfectionnement d'un algorithme adaptatif d'Optimisation par Essaim Particulaire : application en génie médical et en électroniqueCooren, Yann 27 November 2008 (has links) (PDF)
Les métaheuristiques sont une famille d'algorithmes stochastiques destinés à résoudre des problèmes d 'optimisation difficile . Utilisées dans de nombreux domaines, ces méthodes présentent l'avantage d'être généralement efficaces, sans pour autant que l'utilisateur ait à modifier la structure de base de l'algorithme qu'il utilise. Parmi celles-ci, l'Optimisation par Essaim Particulaire (OEP) est une nouvelle classe d'algorithmes proposée pour résoudre les problèmes à variables continues. Les algorithmes d'OEP s'inspirent du comportement social des animaux évoluant en essaim, tels que les oiseaux migrateurs ou les poissons. Les particules d'un même essaim communiquent de manière directe entre elles tout au long de la recherche pour construire une solution au problème posé, en s'appuyant sur leur expérience collective. Reconnues depuis de nombreuses années pour leur efficacité, les métaheuristiques présentent des défauts qui rebutent encore certains utilisateurs. Le réglage des paramètres des algorithmes est un de ceux-ci. Il est important, pour chaque problème posé, de trouver le jeu de paramètres qui conduise à des performances optimales de l'algorithme. Cependant, cette tâche est fastidieuse et coûteuse en temps, surtout pour les utilisateurs novices. Pour s'affranchir de ce type de réglage, des recherches ont été menées pour proposer des algorithmes dits adaptatifs . Avec ces algorithmes, les valeurs des paramètres ne sont plus figées, mais sont modifiées, en fonction des résultats collectés durant le processus de recherche. Dans cette optique-là, Maurice Clerc a proposé TRIBES, qui est un algorithme d'OEP mono-objectif sans aucun paramètre de contrôle. Cet algorithme fonctionne comme une boîte noire , pour laquelle l'utilisateur n'a qu'à définir le problème à traiter et le critère d'arrêt de l'algorithme. Nous proposons dans cette thèse une étude comportementale de TRIBES, qui permet d'en dégager les principales qualités et les principaux défauts. Afin de corriger certains de ces défauts, deux modules ont été ajoutés à TRIBES. Une phase d'initialisation régulière est insérée, afin d'assurer, dès le départ de l'algorithme, une bonne couverture de l'espace de recherche par les particules. Une nouvelle stratégie de déplacement, basée sur une hybridation avec un algorithme à estimation de distribution, est aussi définie, afin de maintenir la diversité au sein de l'essaim, tout au long du traitement. Le besoin croissant de méthodes de résolution de problèmes multiobjectifs a conduit les concepteurs à adapter leurs méthodes pour résoudre ce type de problème. La complexité de cette opération provient du fait que les objectifs à optimiser sont souvent contradictoires. Nous avons élaboré une version multiobjectif de TRIBES, dénommée MO-TRIBES. Nos algorithmes ont été enfin appliqués à la résolution de problèmes de seuillage d'images médicales et au problème de dimensionnement de composants de circuits analogiques
|
33 |
Optimisation avec prise en compte des incertitudes dans la mise en forme par hydroformageBen Abdessalem, Mohamed Anis 08 June 2011 (has links) (PDF)
Le procédé d'hydroformage est largement utilisé dans les industries automobile et aéronautique. L'optimisation déterministe a été utilisée pour le contrôle et l'optimisation du procédé durant la dernière décennie. Cependant,dans des conditions réelles, différents paramètres comme les propriétés matériaux,les dimensions géométriques, et les chargements présentent des aléas qui peuvent affecter la stabilité et la fiabilité du procédé. Il est nécessaire d'introduire ces incertitudes dans les paramètres et de considérer leur variabilité. L'objectif principal de cette contribution est l'évaluation de la fiabilité et l'optimisation du procédé d'hydroformage en présence d'incertitudes.La première partie de cette thèse consiste à proposer une approche générale pour évaluer la probabilité de défaillance spatiale du procédé d'hydroformage, principalement dans les régions critiques. Avec cette approche, il est possible d'éviter les instabilités plastiques durant une opération d'hydroformage. Cette méthode est basée sur des simulations de Monte Carlo couplée avec des métamodèles. La courbe limite de formage est utilisée comme critère de défaillance pour les instabilités plastiques potentielles.La seconde partie de cette thèse est l'optimisation avec prise en compte d'incertitudes dans le procédé d'hydroformage. En utilisant des exemples illustratifs, on montre que l'approche probabiliste est une méthode efficace pour l'optimisation du procédé pour diminuer la probabilité de défaillance et laisser le procédé insensible ou peu sensible aux sources d'incertitudes. La difficulté est liée à la considération des contraintes fiabilistes qui nécessitent d'énormes efforts de calcul et impliquent des problèmes numériques classiques comme la convergence, la précision et la stabilité. Pour contourner ce problème, la méthode de surface de réponse couplée à des simulations Monte Carlo est utilisée pour évaluer les contraintes probabilistes.L'approche probabiliste peut assurer la stabilité et la fiabilité du procédé et minimise considérablement le pourcentage des pièces défectueuses. Dans cette partie, deux méthodes sont utilisées : l'optimisation fiabiliste et l'optimisation robuste.La dernière partie consiste à optimiser le procédé avec une stratégie Multi-Objectif(MO) avec prise en compte d'incertitudes. Le procédé d'hydroformage est un problème MO qui consiste à optimiser plus d'une performance simultanément.L'objectif principal est d'étudier l'évolution du front de Pareto lorsque des incertitudes affectent les fonctions objectifs ou les paramètres. Dans cette partie, on propose une nouvelle méthodologie qui présente les solutions dans un nouvel espace et les classifie suivant leurs probabilités de défaillances. Cette classification permet d'identifier la meilleure solution et fournit une idée sur la fiabilité de chaque solution.
|
34 |
Optimisation multicritère pour une gestion globale des ressources : application au cycle du cuivre en France / Multicriteria optimization for a global resource management : application to French copper cycleBonnin, Marie 11 December 2013 (has links)
L'amélioration de la gestion des ressources naturelles est nécessaire pour répondre aux nombreux enjeux liés à leur exploitation. Ce travail propose une méthodologie d'optimisation de leur gestion, appliquée au cas du cuivre en France. Quatre critères permettant de juger les stratégies de gestion ont été retenus : le coût, les impacts environnementaux, la consommation énergétique et les pertes de ressources. La première étape de cette méthodologie est l'analyse de la situation actuelle, grâce à une modélisation du cycle français du cuivre de 2000 à 2009. Cet examen a montré que la France importe la quasi-totalité de ses besoins sous forme de cuivre raffiné, et a une industrie de recyclage peu développée. Suite à ces premiers résultats, la problématique du traitement des déchets de cuivre, et notamment de leur recyclage, a été étudiée. Une stratégie de modélisation des flux recyclés, basée sur la construction de flowsheets, a été développée. La formulation mathématique générale du problème a ensuite été définie : il s'agit d'un problème mixte, non-linéaire et a priori multiobjectif, qui a une contrainte égalité forte (la conservation de la masse). Une étude des méthodes d'optimisation a conduit à choisir un algorithme génétique (AG). Une alternative a également été envisagée pour résoudre le problème multiobjectif par programmation linéaire en le linéarisant "sous contrainte". Ce travail a mis en évidence la nécessité de développer une filière de recyclage efficace des déchets électriques et électroniques en France. Il a de plus montré que le cuivre contenu dans les déchets ne permet pas de couvrir la demande et qu'il est nécessaire d'importer du cuivre, de préférence sous forme de débris. / Improving the natural resources management is necessary to address the many issues related to their exploitation. This work proposes an optimization methodology for their management, applied to the case of copper in France. Four criteria are identified to assess management strategies: cost, environmental impacts, energy consumption and resource losses. The first step of this methodology is the analysis of the current situation, by modelling the French copper cycle from 2000 to 2009. This analysis showed that France imports almost all of its needs as refined copper, and has an underdeveloped recycling industry. Following these initial results, the problematic of copper wastes, including recycling, has been investigated. A recycled flow modelling strategy has been developed, based on the construction of flowsheets. The general mathematical formulation of the problem is then defined. It is a non-linear, mixed and a priori multiobjective problem, with a strong equality constraint (mass conservation). A review of optimization methods has led to choose a genetic algorithm (GA). An alternative was also proposed to solve the multiobjective problem with linear programming, by linearizing it under constraint. This work has highlighted the necessity of developing an effective recycling field of wastes from electric and electronic equipment in France. It also showed that the copper contained in wastes does not meet the demand, so that France needs to import copper, preferably as scraps.
|
35 |
Thermodynamic Insight for the Design and Optimization of Extractive Distillation of 1.0-1a Class Separation / Approche thermodynamique pour la conception et l'optimisation de la distillation extractive de mélanges à température de bulle minimale (1.0-1a)You, Xinqiang 07 September 2015 (has links)
Nous étudions la distillation extractive continue de mélanges azéotropiques à temperature de bulle minimale avec un entraineur lourd (classe 1.0-1a) avec comme exemples les mélanges acétone-méthanol avec l’eau et DIPE-IPA avec le 2-méthoxyethanol. Le procédé inclut les colonnes de distillation extractive et de régénération de l’entraineur en boucle ouverte et en boucle fermée. Une première stratégie d’optimisation consiste à minimiser la fonction objectif OF en cherchant les valeurs optimales du débit d’entraineur FE, les positions des alimentations en entraineur et en mélange NFE, NFAB, NFReg, les taux de reflux R1, R2 et les débits de distillat de chaque colonne D1, D2. OF décrit la demande en énergie par quantité de distillat et tient compte des différences de prix entre les utilités chaudes et froides et entre les deux produits. La deuxième stratégie est une optimisation multiobjectif qui minimise OF, le coût total annualisé (TAC) et maximise deux nouveaux indicateurs thermodynamiques d’efficacité de séparation extractive totale Eext et par plateau eext. Ils décrivent la capacité de la section extractive à séparer le produit entre le haut et le bas de la section extractive. L’analyse thermodynamique des réseaux de courbes de résidu ternaires RCM et des courbes d’isovolatilité montre l’intérêt de réduire la pression opératoire dans la colonne extractive pour les séparations de mélanges 1.0-1a. Une pression réduite diminue la quantité minimale d’entraineur et accroît la volatilité relative du mélange binaire azéotropique dans la région d’opération de la colonne extractive. Cela permet d’utiliser un taux de reflux plus faible et diminue la demande énergétique. La première stratégie d’optimisation est conduite avec des contraintes sur la pureté des produits avec les algorithmes SQP dans les simulateurs Aspen Plus ou Prosim Plus en boucle ouverte. Les variables continues optimisées sont : R1, R2 et FE (étape 1). Une étude de sensibilité permet de trouver les valeurs de D1, D2 (étape 2) et NFE, NFAB, NFReg (étape 3), tandis l’étape 1 est faite pour chaque jeu de variables discrètes. Enfin le procédé est resimulé en boucle fermée et TAC, Eext et eext sont calculés (étape 4). Les bilans matières expliquent l’interdépendance des débits de distillats et des puretés des produits. Cette optimisation permet de concevoir des procédés avec des gains proches de 20% en énergie et en coût. Les nouveaux procédés montrent une amélioration des indicateurs Eext et eext. Afin d’évaluer l’influence de Eext et eext sur la solution optimale, la seconde optimisation multiobjectif est conduite. L’algorithme génétique est peu sensible à l’initialisation, permet d’optimiser les variables discrètes N1, N2 et utilise directement le shéma de procédé en boucle fermée. L’analyse du front de Pareto des solutions met en évidence l’effet de FE/F et R1 sur TAC et Eext. Il existe un Eext maximum (resp. R1 minimum) pour un R1 donné (resp. Eext). Il existe aussi un indicateur optimal Eext,opt pour le procédé optimal avec le plus faible TAC. Eext,opt ne peut pas être utilisé comme seule fonction objectif d’optimisation mais en complément des autres fonctions OF et TAC. L’analyse des réseaux de profils de composition extractive explique la frontière du front de Pareto et pourquoi Eext augmente lorsque FE diminue et R1 augmente, le tout en lien avec le nombre d’étage. Visant à réduire encore TAC et la demande énergétique nous étudions des procédés avec intégration énergétique double effet (TEHI) ou avec des pompes à chaleur (MHP). En TEHI, un nouveau schéma avec une intégration énergétique partielle PHI réduit le plus la demande énergétique. En MHP, la recompression partielle des vapeurs VRC et bottom flash partiel BF améliorent les performances de 60% et 40% respectivement. Au final, le procédé PHI est le moins coûteux tandis que la recompression totale des vapeurs est la moins énergivore. / We study the continuous extractive distillation of minimum boiling azeotropic mixtures with a heavy entrainer (class 1.0-1a) for the acetone-methanol with water and DIPE-IPA with 2-methoxyethanol systems. The process includes both the extractive and the regeneration columns in open loop flowsheet and closed loop flowsheet where the solvent is recycled to the first column. The first optimization strategy minimizes OF and seeks suitable values of the entrainer flowrate FE, entrainer and azeotrope feed locations NFE, NFAB, NFReg, reflux ratios R1, R2 and both distillates D1, D2. OF describes the energy demand at the reboiler and condenser in both columns per product flow rate. It accounts for the price differences in heating and cooling energy and in product sales. The second strategy relies upon the use of a multi-objective genetic algorithm that minimizes OF, total annualized cost (TAC) and maximizes two novel extractive thermodynamic efficiency indicators: total Eext and per tray eext. They describe the ability of the extractive section to discriminate the product between the top and to bottom of the extractive section. Thermodynamic insight from the analysis of the ternary RCM and isovolatility curves shows the benefit of lowering the operating pressure of the extractive column for 1.0-1a class separations. A lower pressure reduces the minimal amount of entrainer and increases the relative volatility of original azeotropic mixture for the composition in the distillation region where the extractive column operates, leading to the decrease of the minimal reflux ratio and energy consumption. The first optimization strategy is conducted in four steps under distillation purity specifications: Aspen Plus or Prosim Plus simulator built-in SQP method is used for the optimization of the continuous variables: R1, R2 and FE by minimizing OF in open loop flowsheet (step 1). Then, a sensitivity analysis is performed to find optimal values of D1, D2 (step 2) and NFE, NFAB, NFReg (step 3), while step 1 is done for each set of discrete variables. Finally the design is simulated in closed loop flowsheet, and we calculate TAC and Eext and eext (step 4). We also derive from mass balance the non-linear relationships between the two distillates and how they relate product purities and recoveries. The results show that double digit savings can be achieved over designs published in the literature thanks to the improving of Eext and eext. Then, we study the influence of the Eext and eext on the optimal solution, and we run the second multiobjective optimization strategy. The genetic algorithm is usually not sensitive to initialization. It allows finding optimal total tray numbers N1, N2 values and is directly used with the closed loop flow sheet. Within Pareto front, the effects of main variables FE/F and R1 on TAC and Eext are shown. There is a maximum Eext (resp. minimum R1) for a given R1 (resp. Eext). There exists an optimal efficiency indicator Eext,opt which corresponds to the optimal design with the lowest TAC. Eext,opt can be used as a complementary criterion for the evaluation of different designs. Through the analysis of extractive profile map, we explain why Eext increases following the decrease of FE and the increase of R1 and we relate them to the tray numbers. With the sake of further savings of TAC and increase of the environmental performance, double-effect heat integration (TEHI) and mechanical heat pump (MHP) techniques are studied. In TEHI, we propose a novel optimal partial HI process aiming at the most energy saving. In MHP, we propose the partial VRC and partial BF heat pump processes for which the coefficients of performance increase by 60% and 40%. Overall, optimal partial HI process is preferred from the economical view while full VRC is the choice from the environmental perspective.
|
36 |
Développement d’une méthode d’optimisation multiobjectif pour la construction bois : prise en compte du confort des usagers, de l’impact environnemental et de la sécurité de l’ouvrage / Development of a multiobjective optimisation method for timber building : consideration of user comfort, environmental impact and structural safetyArmand Decker, Stéphanie 22 September 2015 (has links)
Les pays industrialisés cherchent aujourd’hui à réduire leur consommation d'énergie et à utiliser des matières premières de substitution, notamment renouvelables dont le bois fait partie. Pour promouvoir son usage, le développement de méthodes favorisant son recours dans les systèmes constructifs pour la construction multiétage est nécessaire.La conception d’un bâtiment est multicritère. Des objectifs contradictoires sont à optimiser simultanément. Des solutions de compromis Pareto-optimaux sont par exemple recherchées entre l’atteinte des meilleures performances d’usage et la limitation de l’impact environnemental du bâtiment. Ces travaux portent ainsi sur le développement d’une méthode d’optimisation multiobjectif de systèmes constructifs bois adaptés au multiétage.Des objectifs de maximisation du confort vibratoire des planchers et de minimisation des besoins de chauffage, d’inconfort thermique, de potentiel de réchauffement climatique et d’énergie grise sont pris en compte. La méthode repose sur un algorithme d’optimisation multiobjectif par essaim particulaire capable de proposer un ensemble de solutions non-dominées constituant le front de Pareto. L’espace des solutions est contraint par des exigences réglementaires nécessaires à la sécurité de l’ouvrage. L’ensemble des fonctions-objectif est modélisé sous forme de fonctions analytiques. Les sorties d’intérêt du modèle de simulation thermique dynamique sont substituées par des métamodèles.La méthode développée est mise en oeuvre sur un cas d’étude. Les résultats obtenus offrent une grande diversité dans un panel de 20 000 solutions optimales. Ces résultats constituent un support de discussion entre les différents acteurs d’un projet de construction. / Industrialised countries are seeking to reduce their energy consumption and to use alternative raw materials, including renewables such as wood. To promote its use, multi-storey timber constructive systems need the development of new design methods.Building required a multicriteria design where conflicting objectives must be optimised simultaneously. Research solutions have to achieve the best Pareto-compromise between use performance and environmental impact of the building. This work aims to develop a multiobjective optimisation method of timber multi-storey building.The objectives of maximising floor vibration comfort and minimising heating needs, thermal discomfort, global warming potential and embodied energy are taken into account. A multi-objective particle swarm optimization algorithm is used to obtain a set of non-dominated solutions which is the Pareto front. The solution space is constrained by regulatory requirements necessary for the safety of the structure. All objective-functions are modelled as analytic functions. Dynamic thermal simulation model outputs are replaced by metamodels.The developed method is implemented on a case study. The results offer a great diversity in a panel of 20 000 optimal solutions. These results provide a basis for discussion between the different actors of a construction project.
|
37 |
Planification inverse de la dose en hadronthérapie : prise en compte de la qualité du rayonnement pour une optimisation de la dose biologique / Inverse dose planning in hadrontherapy : taking into account the beam quality for an optimization of the biological doseSmekens, François 02 December 2011 (has links)
L'hadronthérapie est une modalité d'irradiation récente particulièrement attractive. Les ions, par leur profil caractéristique de dépôt de dose dans la matière et leur efficacité biologique accrue, sont des particules parfaitement adaptées pour le traitement du cancer. C’est une modalité émergente et les travaux de recherche et de développement qui en font l'objet se poursuivent de manière soutenue. Cependant, il n'existe à ce jour aucun outil permettant de quantifier pour le patient le gain clinique associé aux améliorations proposées, comme l’apport d’une gantry par exemple. Nous proposons dans ce travail de concevoir un module de planification inverse du traitement pour un but prospectif. Détachée des contraintes usuelles de précision et de temps de calcul, notre méthode d'optimisation se base sur un algorithme génétique afin d'approcher d'une solution globale vis-à-vis d'un grand nombre de paramètres balistiques (champs d’irradiation libres) et en associant les diverses régions d'intérêt dosimétrique. La stratégie d'optimisation retenue est progressivement complexifiée afin de prendre en compte de manière efficace les différents enjeux de la planification. La robustesse du plan vis-à-vis des incertitudes inhérentes au traitement, primordiale en hadronthérapie, est évaluée. Dans toutes les situations testées, il apparaît que l'inclusion dans l'optimisation de paramètres habituellement fixés manuellement permet une amélioration de la qualité de traitement. Nous proposons au terme de cette étude un outil prospectif d'optimisation au réglage simple et capable de mener des études comparées sur la pertinence de nouvelles modalités d’irradiation. / Hadrontherapy is a recent and particularly attractive modality. Characterized by a specific dose deposition profile in matter and by a high biological effectiveness, ions are found to be very well-suited for cancer treatment. As an emergent modality, the research in hadrontherapy is extremely active and promises many improvements for the future. However, there is no tool to date to quantify the clinical benefit for the patient related to the proposed improvements, the use of a gantry for example. In this work, we propose to use the treatment planning system, usually dedicated to clinical practice, in a prospective purpose. Suppressing the classical constraints of precision and time, our optimization method is based on a genetic algorithm designed to approach a global solution including a high number of balistic parameters (free irradiation fields) for all regions of dosimetric interest. The optimization strategy is progressively complicated in order to efficientely take into account the main issues of the inverse planning problem. The robustness of plans towards the uncertainties related to the application of the treatment, essential in hadrontherapy, is evaluated. The results show that the inclusion, in the optimization, of parameters usually fixed by the human planner leads systematically to an improved treatment quality. The final product of this work is a prospective optimization tool characterized by an easy set-up system and the ability to perform comparative studies on the relevance of new irradiation modalities.
|
38 |
Optimisation de la lubrification des paliers de tête de bielle : démarche méthodologique / Optimization of the conrod bearing lubrication : methodological approachLavie, Thomas 29 November 2012 (has links)
Le but de ce travail est de proposer une démarche structurée pour l'étude des liaisons lubrifiées bielle/vilebrequin. Bien que cette source de déperdition énergétique ne soit pas primordiale, il n'en est pas moins vrai que la maîtriser est un enjeu pour les motoristes. Les normes anti-pollution imposées aux constructeurs automobiles étant de plus en plus strictes, un effort doit être réalisé sur l’ensemble des composants afin de réduire de façon significative les pertes d’énergie dans les moteurs. La tendanceactuelle est à la diminution de la viscosité du lubrifiant, toutefois ce n'est pas sans conséquence sur l'intégrité des liaisons.La démarche proposée, qui s'appuie sur un logiciel TEHD consiste à utiliser la méthode des plans d’expériences afin de créer des métamodèles de la puissance dissipée et de la sévérité du cas traité. Une optimisation multi-objectifs (déperdition et sévérité) par algorithme évolutionnaire et utilisant les métamodèles est ensuite menée afin de déterminer les combinaisons de facteurs offrant les meilleurs compromis par rapport à ces deux objectifs. La méthodologie proposée s'avère pertinente puisque des modèles analytiques simples se substituent très avantageusement aux lourds calculs TEHD.Afin de valider le logiciel TEHD sur l'évaluation des puissances dissipées, une comparaison numérique/expérimentale est conduite sur un banc d’essais permettant de reproduire les conditions réelles de fonctionnement des bielles dans les moteurs. / The aim of this work is to propose a structured approach of the study of the lubricated connection between the conrod and the crankshaft. Although this source of energy loss is not the most significant one, improving this contact remains a challenging task for engine manufacturers. The anti-pollution standards imposed on automakers are increasingly stringent, an effort must be made on all components in order to significantly reduce energy loss in the engines. The current trend is to decrease the viscosity of thelubricant, however, it is not without consequences for the connections health. The proposed approach, which relies on a TEHD software is to use the design of experiments method to create surrogates of both power loss and severity for the treated case. A multi-objective optimization (power loss and severity) by evolutionary algorithm and using the surrogates, is then performed to determine the right combination of factors that provides the best compromise with respect to these two objectives. The proposed methodology is relevant because simple analytical models replace very favorably time consuming TEHD calculations.To validate the evaluation of power loss calculated with the TEHD software, a numerical/experimental comparison is performed on a test bench which reproduces the real operating conditions of the connecting rods.
|
39 |
Uncertainty quantification on pareto fronts and high-dimensional strategies in bayesian optimization, with applications in multi-objective automotive design / Quantification d’incertitude sur fronts de Pareto et stratégies pour l’optimisation bayésienne en grande dimension, avec applications en conception automobileBinois, Mickaël 03 December 2015 (has links)
Cette thèse traite de l’optimisation multiobjectif de fonctions coûteuses, aboutissant à laconstruction d’un front de Pareto représentant l’ensemble des compromis optimaux. En conception automobile, le budget d’évaluations est fortement limité par les temps de simulation numérique des phénomènes physiques considérés. Dans ce contexte, il est courant d’avoir recours à des « métamodèles » (ou modèles de modèles) des simulateurs numériques, en se basant notamment sur des processus gaussiens. Ils permettent d’ajouter séquentiellement des observations en conciliant recherche locale et exploration. En complément des critères d’optimisation existants tels que des versions multiobjectifs du critère d’amélioration espérée, nous proposons d’estimer la position de l’ensemble du front de Pareto avec une quantification de l’incertitude associée, à partir de simulations conditionnelles de processus gaussiens. Une deuxième contribution reprend ce problème à partir de copules. Pour pouvoir traiter le cas d’un grand nombre de variables d’entrées, nous nous basons sur l’algorithme REMBO. Par un tirage aléatoire directionnel, défini par une matrice, il permet de trouver un optimum rapidement lorsque seules quelques variables sont réellement influentes (mais inconnues). Plusieurs améliorations sont proposées, elles comprennent un noyau de covariance dédié, une sélection du domaine de petite dimension et des directions aléatoires mais aussi l’extension au casmultiobjectif. Enfin, un cas d’application industriel en crash a permis d’obtenir des gainssignificatifs en performance et en nombre de calculs requis, ainsi que de tester le package R GPareto développé dans le cadre de cette thèse. / This dissertation deals with optimizing expensive or time-consuming black-box functionsto obtain the set of all optimal compromise solutions, i.e. the Pareto front. In automotivedesign, the evaluation budget is severely limited by numerical simulation times of the considered physical phenomena. In this context, it is common to resort to “metamodels” (models of models) of the numerical simulators, especially using Gaussian processes. They enable adding sequentially new observations while balancing local search and exploration. Complementing existing multi-objective Expected Improvement criteria, we propose to estimate the position of the whole Pareto front along with a quantification of the associated uncertainty, from conditional simulations of Gaussian processes. A second contribution addresses this problem from a different angle, using copulas to model the multi-variate cumulative distribution function. To cope with a possibly high number of variables, we adopt the REMBO algorithm. From a randomly selected direction, defined by a matrix, it allows a fast optimization when only a few number of variables are actually influential, but unknown. Several improvements are proposed, such as a dedicated covariance kernel, a selection procedure for the low dimensional domain and of the random directions, as well as an extension to the multi-objective setup. Finally, an industrial application in car crash-worthiness demonstrates significant benefits in terms of performance and number of simulations required. It has also been used to test the R package GPareto developed during this thesis.
|
40 |
Perfectionnement d'un algorithme adaptatif d'optimisation par essaim particulaire : application en génie médical et en électronique / Improvement of an adaptive algorithm of Optimization by Swarm Particulaire : application in medical engineering and in electronicsCooren, Yann 27 November 2008 (has links)
Les métaheuristiques sont une famille d'algorithmes stochastiques destinés à résoudre des problèmes d 'optimisation difficile . Utilisées dans de nombreux domaines, ces méthodes présentent l'avantage d'être généralement efficaces, sans pour autant que l'utilisateur ait à modifier la structure de base de l'algorithme qu'il utilise. Parmi celles-ci, l'Optimisation par Essaim Particulaire (OEP) est une nouvelle classe d'algorithmes proposée pour résoudre les problèmes à variables continues. Les algorithmes d'OEP s'inspirent du comportement social des animaux évoluant en essaim, tels que les oiseaux migrateurs ou les poissons. Les particules d'un même essaim communiquent de manière directe entre elles tout au long de la recherche pour construire une solution au problème posé, en s'appuyant sur leur expérience collective. Reconnues depuis de nombreuses années pour leur efficacité, les métaheuristiques présentent des défauts qui rebutent encore certains utilisateurs. Le réglage des paramètres des algorithmes est un de ceux-ci. Il est important, pour chaque probléme posé, de trouver le jeu de paramètres qui conduise à des performances optimales de l'algorithme. Cependant, cette tâche est fastidieuse et coûteuse en temps, surtout pour les utilisateurs novices. Pour s'affranchir de ce type de réglage, des recherches ont été menées pour proposer des algorithmes dits adaptatifs . Avec ces algorithmes, les valeurs des paramètres ne sont plus figées, mais sont modifiées, en fonction des résultats collectés durant le processus de recherche. Dans cette optique-là, Maurice Clerc a proposé TRIBES, qui est un algorithme d'OEP mono-objectif sans aucun paramètre de contrôle. Cet algorithme fonctionne comme une boite noire , pour laquelle l'utilisateur n'a qu'à définir le problème à traiter et le critàre d'arrêt de l'algorithme. Nous proposons dans cette thèse une étude comportementale de TRIBES, qui permet d'en dégager les principales qualités et les principaux défauts. Afin de corriger certains de ces défauts, deux modules ont été ajoutés à TRIBES. Une phase d'initialisation régulière est insérée, afin d'assurer, dès le départ de l'algorithme, une bonne couverture de l'espace de recherche par les particules. Une nouvelle stratégie de déplacement, basée sur une hybridation avec un algorithme à estimation de distribution, est aussi définie, afin de maintenir la diversité au sein de l'essaim, tout au long du traitement. Le besoin croissant de méthodes de résolution de problèmes multiobjectifs a conduit les concepteurs à adapter leurs méthodes pour résoudre ce type de problème. La complexité de cette opération provient du fait que les objectifs à optimiser sont souvent contradictoires. Nous avons élaboré une version multiobjectif de TRIBES, dénommée MO-TRIBES. Nos algorithmes ont été enfin appliqués à la résolution de problèmes de seuillage d'images médicales et au problème de dimensionnement de composants de circuits analogiques / Metaheuristics are a new family of stochastic algorithms which aim at solving difficult optimization problems. Used to solve various applicative problems, these methods have the advantage to be generally efficient on a large amount of problems. Among the metaheuristics, Particle Swarm Optimization (PSO) is a new class of algorithms proposed to solve continuous optimization problems. PSO algorithms are inspired from the social behavior of animals living in swarm, such as bird flocks or fish schools. The particles of the swarm use a direct way of communication in order to build a solution to the considered problem, based on their collective experience. Known for their e ciency, metaheuristics show the drawback of comprising too many parameters to be tuned. Such a drawback may rebu some users. Indeed, according to the values given to the parameters of the algorithm, its performance uctuates. So, it is important, for each problem, to nd the parameter set which gives the best performance of the algorithm. However, such a problem is complex and time consuming, especially for novice users. To avoid the user to tune the parameters, numerous researches have been done to propose adaptive algorithms. For such algorithms, the values of the parameters are changed according to the results previously found during the optimization process. TRIBES is an adaptive mono-objective parameter-free PSO algorithm, which was proposed by Maurice Clerc. TRIBES acts as a black box , for which the user has only the problem and the stopping criterion to de ne. The rst objective of this PhD is to make a global study of the behavior of TRIBES under several conditions, in order to determine the strengths and drawbacks of this adaptive algorithm. In order to improve TRIBES, two new strategies are added. First, a regular initialization process is defined in order to insure an exploration as wide as possible of the search space, since the beginning of the optimization process. A new strategy of displacement, based on an hybridation with an estimation of distribution algorithm, is also introduced to maintain the diversity in the swarm all along the process. The increasing need for multiobjective methods leads the researchers to adapt their methods to the multiobjective case. The di culty of such an operation is that, in most cases, the objectives are con icting. We designed MO-TRIBES, which is a multiobjective version of TRIBES. Finally, our algorithms are applied to thresholding segmentation of medical images and to the design of electronic components
|
Page generated in 0.0176 seconds