• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 6
  • 2
  • Tagged with
  • 10
  • 10
  • 4
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Theory and application of joint interpretation of multimethod geophysical data

Kozlovskaya, E. (Elena) 12 April 2001 (has links)
Abstract This work is devoted to the theory of joint interpretation of multimethod geophysical data and its application to the solution of real geophysical inverse problems. The targets of such joint interpretation can be geological bodies with an established dependence between various physical properties that cause anomalies in several geophysical fields (geophysical multiresponse). The establishing of the relationship connecting the various physical properties is therefore a necessary first step in any joint interpretation procedure. Bodies for which the established relationship between physical properties is violated (single-response bodies) can be targets of separate interpretations. The probabilistic (Bayesian) approach provides the necessary formalism for addressing the problem of the joint inversion of multimethod geophysical data, which can be non-linear and have a non-unique solution. Analysis of the lower limit of resolution of the non-linear problem of joint inversion using the definition of e-entropy demonstrates that joint inversion of multimethod geophysical data can reduce non-uniqueness in real geophysical inverse problems. The question can be formulated as a multiobjective optimisation problem (MOP), enabling the numerical methods of this theory to be employed for the purpose of geophysical data inversion and for developing computer algorithms capable of solving highly non-linear problems. An example of such a problem is magnetotelluric impedance tensor inversion with the aim of obtaining a 3-D resistivity distribution. An additional area of application for multiobjective optimisation can be the combination of various types of uncertain information (probabilistic and non-probabilistic) in a common inversion scheme applicable to geophysical inverse problems. It is demonstrated how the relationship between seismic velocity and density can be used to construct an algorithm for the joint interpretation of gravity and seismic wide-angle reflection and refraction data. The relationship between the elastic and electrical properties of rocks, which is a necessary condition for the joint inversion of data obtained by seismic and electromagnetic methods, can be established for solid- liquid rock mixtures using theoretical modelling of the elastic and electrical properties of rocks with a fractal microstructure and from analyses of petrophysical data and borehole log data.
2

Controller Tuning by Means of Evolutionary Multiobjective Optimization: a Holistic Multiobjective Optimization Design Procedure

Reynoso Meza, Gilberto 23 June 2014 (has links)
This thesis is devoted toMultiobjective Optimization Design (MOOD) procedures for controller tuning applications, by means of EvolutionaryMultiobjective Optimization (EMO).With such purpose, developments on tools, procedures and guidelines to facilitate this process have been realized. This thesis is divided in four parts. The first part, namely Fundamentals, is devoted on the one hand, to cover the theorical background required for this Thesis; on the other hand, it provides a state of the art review on current applications of MOOD for controller tuning. The second part, Preliminary contributions on controller tuning, states early contributions using the MOOD procedure for controller tuning, identifying gaps on methodologies and tools used in this procedure. The contribution within this part is to identify the gaps between the three fundamental steps of theMOOD procedure: problemdefinition, search and decisionmaking. These gaps are the basis for the developments presented in parts III and IV. The third part, Contributions on MOOD tools, is devoted to improve the tools used in Part II. Although applications on the scope of this thesis are related to controller tuning, such improvements can also be used in other engineering fields. The first contribution regards the decision making process, where tools and guidelines for design concepts comparison in m-dimensional Pareto fronts are stated. The second contribution focuses on amending the gap between search process and decisionmaking. With this in mind, a mechanism for preference inclusion within the evolutionary process is developed. With this it is possible to calculate pertinent approximations of the Pareto front; furthermore, it allows to deal efficiently with many-objective and constrained optimization instances. Finally, in the fourth part, Final contributions on controller tuning, a stochastic sampling procedure for proportional-integral-derivative (PID) controllers is proposed, to guarantee that (1) any sampled controller will stabilize the closed loop and (2) any stabilizing controller could be sampled. Afterwards, two control engineering benchmarks are solved using this sampling strategy, the MOOD guidelines highlighted trough this Thesis for multivariable controller tuning and the tools developed in Part III. / Reynoso Meza, G. (2014). Controller Tuning by Means of Evolutionary Multiobjective Optimization: a Holistic Multiobjective Optimization Design Procedure [Tesis doctoral]. Editorial Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/38248 / Alfresco
3

A methodology for the integrated design of small satellite constellation deployment

Crisp, Nicholas Husayn January 2016 (has links)
A growing interest in distributed systems of small satellites has recently emerged due to their ability to perform a variety of new mission types, increasing technical capability, and reduced time and cost for development. However, the lack of available and dedicated small launch services currently restricts the establishment of these systems in orbit. Secondary payload launch opportunities and alternative deployment strategies can address the issue of access-to-orbit and support the delivery of the constellation to the correct orbit configuration following launch. Of these deployment strategies, the method of indirect plane separation, which utilises the natural precession of Earth orbits, is particularly applicable to the deployment of small satellite constellations due to the potential to significantly reduce propulsive requirements, albeit at the cost of increased deployment time. A review of satellite constellation design revealed that existing methods and tools are not suitable for the analysis of small satellite constellations and are not equipped to investigate alternative deployment strategies, despite the potential benefits of improved access-to-orbit, reduced system complexity, and reduced cost. To address the identified gaps in the design process, a methodology in which the analysis of small satellite constellation deployment is integrated into the system design framework is presented in this thesis. The corresponding system design-space is subsequently explored using a numerical optimisation method, which aids the identification of effective system designs and promotes the understanding of relationships between the design variables and output objectives. The primary objectives of this methodology are to ensure that the different opportunities for deployment of small satellite constellations are thoroughly examined during the design process and to support the development of improved mission and system designs. The presented methodology is demonstrated using a reduced order framework comprised of an analysis for the deployment of small satellite constellations, preliminary vehicle and propulsion system sizing processes, and system cost estimating relationships. Using this simplified mission design framework, the design space-exploration of three small satellite constellation mission case-studies is performed by application of a multiobjective genetic algorithm. Objectives of time-to-deploy, system mass, and system cost are used to direct the optimisation process and search for the most effective solutions in the system design-space. In order to perform the analysis of constellation deployment by the process of indirect plane separation, a simulation method using a semi-analytical propagation technique and time-varying atmospheric density model was developed and verified by comparison to the actual deployment of the FORMOSAT-3/COSMIC mission. The results of the case-studies presented illustrate the ability of the developed methodology to support the design process for satellite constellations and enable the identification of promising and improved system architectures for further development. Moreover, through the enumeration and quantification of the system design-space and tradespace, the methodology is shown to support the identification of relationships and trends between the design variables and selected output objectives, increasing the knowledge available to the system design team during the design process.
4

Modélisation et développement d'outils pour l'écoconception d'un procédé de concentration en industrie laitière : cas de l'évaporation du lait / Modelling and development of tools for the ecodesign of a dairy concentration process : the case of milk evaporation

Madoumier, Martial 30 March 2016 (has links)
L’application aux procédés agroalimentaires des approches d'écoconception combinant modélisation et optimisation multiobjectif est freinée par un manque de modèles de procédé intégrant les caractéristiques du produit. Ce travail consiste à développer un cadre méthodologique d'écoconception de procédés agroalimentaires combinant modélisation et optimisation, avec pour support l'exemple du procédé d'évaporation du lait. Le procédé est modélisé à l’aide d’un simulateur de procédés commercial, auquel sont intégrés des modèles de propriétés du produit et de coefficient d'échange sélectionnés dans la littérature. Le nettoyage est pris en compte à l’aide d’un outil de calcul des inventaires d'une séquence de nettoyage en place. Des critères économiques et environnementaux sont calculés pour analyser les solutions de conception du procédé.L'optimisation multiobjectif est réalisée à l'aide d'un algorithme génétique, et une méthode d'aide à la décision permet d'identifier les meilleures solutions de compromis. Les potentialités du cadre méthodologique sont illustrées dans trois études d’écoconception. Les perspectives de ce travail portent sur l’écoconception de la production de poudre de lait incluant des opérations à membranes et du séchage, l’utilisation de méthodes d’intégration énergétique, et la prise en compte de la qualité du produit.L'optimisation multiobjectif est réalisée à l'aide d'un algorithme génétique, et une méthode d'aide à la décision permet d'identifier les meilleures solutions de compromis. Les potentialités du cadre méthodologique sont illustrées dans tro / The application of eco-design approaches to food processes is yet hampered by a lack of process models which incorporate product attributes. This thesis consists in developing a methodological framework for the eco-design of food processes, which combines simulation and multiobjective optimisation. This development is supported by the example of the evaporation of milk. The process is modelled with a commercial process simulator, to which property models of the product and heat transfer coefficient models, selected from the literature, are integrated. Cleaning is taken into account with a simplified tool for the calculation of the inventories of a cleaning-in-place sequence.Economic and environmental criteria are computed, so as to analyse the different design solutions. Multiobjective optimisation is carried out with a genetic algorithm, and a multicriteria decision-making method identifies the solutions which offer the best compromise. The potential of the framework is demonstrated through three eco-design studies. This work paves the way for the eco-design of the milk powder production including membrane operations and drying, the use of energy integration methods, and the integration of product quality.
5

Développement d'une méthodologie pour l'optimisation multicritère de scénarios d'évolution du parc nucléaire / Methodology implementation for multiobjective optimisation for nuclear fleet evolution scenarios

Freynet, David 30 September 2016 (has links)
La question de l’évolution du parc nucléaire français peut être considérée via l’étude de scénarios électronucléaires. Ces études présentent un rôle important, compte-tenu des enjeux, de l’ampleur des investissements, des durées et de la complexité des systèmes concernés, et fournissent des éléments d’aide au processus décisionnel. Elles sont menées à l’aide du code COSI (développé au CEA/DEN), qui permet de calculer les inventaires et les flux de matières transitant dans le cycle (réacteurs nucléaires et installations associées), via notamment le couplage avec le code d’évolution CESAR. Les études actuelles menées avec COSI nécessitent de définir les paramètres d’entrée des scénarios simulés, de sorte à satisfaire différents critères comme minimiser la consommation d’uranium naturel, la production de déchets, etc. Ces paramètres portent notamment sur les quantités et l’ordonnancement des combustibles usés au retraitement ou encore le nombre, la filière et les dates de mises en service des réacteurs à déployer. Le présent travail vise à développer, valider et appliquer une méthodologie d’optimisation couplée à COSI pour la recherche de scénarios électronucléaires optimaux pour un problème multicritère. Cette méthodologie repose en premier lieu sur la réduction de la durée d’évaluation d’un scénario afin de permettre l’utilisation de méthodes d’optimisation en un temps raisonnable. Dans ce cadre, des métamodèles d’irradiation par réseaux de neurones sont établis à l’aide de la plateforme URANIE (développée au CEA/DEN) et sont implémentés dans COSI. L’objet du travail est ensuite d’utiliser, adapter et comparer différentes méthodes d’optimisation, telles que l’algorithme génétique et l’essaim particulaire disponibles dans la plateforme URANIE, afin de définir une méthodologie adéquate pour ce sujet d’étude spécifique. La mise en place de cette méthodologie suit une approche incrémentale qui fait intervenir des ajouts successifs de critères, contraintes et variables de décision dans la définition du problème d’optimisation. Les variables ajoutées au problème, qui décrivent la cinétique de déploiement des réacteurs et la stratégie de retraitement des combustibles usés, sont choisies en fonction de leur sensibilité sur les critères définis. Cette approche permet de faciliter l’interprétation des scénarios optimaux, la détection d’éventuelles difficultés liées au processus d’optimisation, et finalement d’émettre des recommandations d’utilisation de la méthodologie mise en place en fonction de la nature du problème. Les études d'optimisation s’appuient sur un scénario de déploiement de réacteurs à neutrons rapides avec recyclage du plutonium, inspiré des études menées dans le cadre de la loi de 2006 sur la gestion des matières et déchets radioactifs. Une illustration des possibilités de la méthodologie est réalisée sur ce scénario, et permet notamment de démontrer le caractère optimal du scénario issu des études menées selon cette loi vis-à-vis de la limitation de l’entreposage de matières fissiles. Ce résultat souligne l’importance de la mise en œuvre d’une gestion dynamique du plutonium via le recours au combustible MOX pour le déploiement progressif des RNR. / The issue of the evolution French nuclear fleet can be considered through the study of nuclear transition scenarios. These studies are of paramount importance as their results can greatly affect the decision making process, given that they take into account industrial concerns, investments, time, and nuclear system complexity. Such studies can be performed with the COSI code (developed at the CEA/DEN), which enables the calculation of matter inventories and fluxes across the fuel cycle (nuclear reactors and associated facilities), especially when coupled with the CESAR depletion code. The studies today performed with COSI require the definition of the various scenarios’ input parameters, in order to fulfil different objectives such as minimising natural uranium consumption, waste production and so on. These parameters concern the quantities and the scheduling of spent fuel destined for reprocessing, and the number, the type and the commissioning dates of deployed reactors.This work aims to develop, validate and apply an optimisation methodology coupled with COSI, in order to determine optimal nuclear transition scenarios for a multi-objective platform. Firstly, this methodology is based on the acceleration of scenario evaluation, enabling the use of optimisation methods in a reasonable time-frame. With this goal in mind, artificial neural network irradiation surrogate models are created with the URANIE platform (developed at the CEA/DEN) and are implemented within COSI. The next step in this work is to use, adapt and compare different optimisation methods, such as URANIE’s genetic algorithm and particle swarm methods, in order to define a methodology suited to this type of study. This methodology development is based on an incremental approach which progressively adds objectives, constraints and decision variables to the optimisation problem definition. The variables added, which are related to reactor deployment and spent fuel reprocessing strategies, are chosen according to their sensitivity to the defined objectives. This approach makes optimal scenarios interpretation easier, makes it possible to identify potential difficulties with the optimisation process, and then to provide recommendations on the use of the deployed methodology according to the problem type. The optimisation studies consider a fast reactor deployment scenario with plutonium recycling, which is inspired by studies carried out in the scope of the 2006 Act for Waste Management. An illustration of the possibilities of this methodology is provided with this scenario, demonstrating the optimality of the scenario inspired by the studies that were carried out for the 2006 Act, regarding stored fissile materials limitation. This result highlights the importance of dynamic plutonium management through MOX fuel usage during fast reactor deployment.
6

Optimisation spatio-temporelle d’efforts de recherche pour cibles manoeuvrantes et intelligentes / Spatio-temporal optimisation of search efforts for smart and reactive moving targets

Chouchane, Mathieu 17 October 2013 (has links)
Dans cette thèse, nous cherchons à répondre à une problématique formulée par la DGA Techniques navales pour surveiller une zone stratégique : planifier le déploiement spatial et temporel optimal d’un ensemble de capteurs de façon à maximiser les chances de détecter une cible mobile et intelligente. La cible est dite intelligente car elle est capable de détecter sous certaines conditions les menaces que représentent les capteurs et ainsi de réagir en adaptant son comportement. Les déploiements générés pouvant aussi avoir un coût élevé nous devons tenir compte de ce critère lorsque nous résolvons notre problématique. Il est important de noter que la résolution d’un problème de ce type requiert, selon les besoins, l’application d’une méthode d’optimisation mono-objectif voire multiobjectif. Jusqu’à présent, les travaux existants n’abordent pas la question du coût des déploiements proposés. De plus la plupart d’entre eux ne se concentrent que sur un seul aspect à la fois. Enfin, pour des raisons algorithmiques, les contraintes sont généralement discrétisées.Dans une première partie, nous présentons un algorithme qui permet de déterminer le déploiement spatio-temporel de capteurs le plus efficace sans tenir compte de son coût. Cette méthode est une application à l’optimisation de la méthode multiniveau généralisée.Dans la seconde partie, nous montrons d’abord que l’utilisation de la somme pondérée des deux critères permet d’obtenir des solutions sans augmenter le temps de calcul. Pour notre seconde approche, nous nous inspirons des algorithmes évolutionnaires d’optimisation multiobjectif et adaptons la méthode multiniveau généralisée à l’optimisation multiobjectif. / In this work, we propose a solution to a problem issued by the DGA Techniques navales in order to survey a strategic area: determining the optimal spatio-temporal deployment of sensors that will maximize the detection probability of a mobile and smart target. The target is said to be smart because it is capable of detecting the threat of the sensors under certain conditions and then of adapting its behaviour to avoid it. The cost of a deployment is known to be very expensive and therefore it has to be taken into account. It is important to note that the wide spectrum of applications within this field of research also reflects the need for a highly complex theoretical framework based on stochastic mono or multi-objective optimisation. Until now, none of the existing works have dealt with the cost of the deployments. Moreover, the majority only treat one type of constraint at a time. Current works mostly rely on operational research algorithms which commonly model the constraints in both discrete space and time.In the first part, we present an algorithm which computes the most efficient spatio-temporal deployment of sensors, but without taking its cost into account. This optimisation method is based on an application of the generalised splitting method.In the second part, we first use a linear combination of the two criteria. For our second approach, we use the evolutionary multiobjective optimisation framework to adapt the generalised splitting method to multiobjective optimisation. Finally, we compare our results with the results of the NSGA-II algorithm.
7

Optimisation avec prise en compte des incertitudes dans la mise en forme par hydroformage / Optimization with taking into account of uncertainties in hydroformig process

Ben Abdessalem, Mohamed Anis 08 June 2011 (has links)
Le procédé d'hydroformage est largement utilisé dans les industries automobile et aéronautique. L'optimisation déterministe a été utilisée pour le contrôle et l'optimisation du procédé durant la dernière décennie. Cependant,dans des conditions réelles, différents paramètres comme les propriétés matériaux,les dimensions géométriques, et les chargements présentent des aléas qui peuvent affecter la stabilité et la fiabilité du procédé. Il est nécessaire d'introduire ces incertitudes dans les paramètres et de considérer leur variabilité. L'objectif principal de cette contribution est l'évaluation de la fiabilité et l'optimisation du procédé d'hydroformage en présence d'incertitudes.La première partie de cette thèse consiste à proposer une approche générale pour évaluer la probabilité de défaillance spatiale du procédé d'hydroformage, principalement dans les régions critiques. Avec cette approche, il est possible d'éviter les instabilités plastiques durant une opération d'hydroformage. Cette méthode est basée sur des simulations de Monte Carlo couplée avec des métamodèles. La courbe limite de formage est utilisée comme critère de défaillance pour les instabilités plastiques potentielles.La seconde partie de cette thèse est l'optimisation avec prise en compte d'incertitudes dans le procédé d'hydroformage. En utilisant des exemples illustratifs, on montre que l'approche probabiliste est une méthode efficace pour l'optimisation du procédé pour diminuer la probabilité de défaillance et laisser le procédé insensible ou peu sensible aux sources d'incertitudes. La difficulté est liée à la considération des contraintes fiabilistes qui nécessitent d'énormes efforts de calcul et impliquent des problèmes numériques classiques comme la convergence, la précision et la stabilité. Pour contourner ce problème, la méthode de surface de réponse couplée à des simulations Monte Carlo est utilisée pour évaluer les contraintes probabilistes.L'approche probabiliste peut assurer la stabilité et la fiabilité du procédé et minimise considérablement le pourcentage des pièces défectueuses. Dans cette partie, deux méthodes sont utilisées : l'optimisation fiabiliste et l'optimisation robuste.La dernière partie consiste à optimiser le procédé avec une stratégie Multi-Objectif(MO) avec prise en compte d'incertitudes. Le procédé d'hydroformage est un problème MO qui consiste à optimiser plus d'une performance simultanément.L'objectif principal est d'étudier l'évolution du front de Pareto lorsque des incertitudes affectent les fonctions objectifs ou les paramètres. Dans cette partie, on propose une nouvelle méthodologie qui présente les solutions dans un nouvel espace et les classifie suivant leurs probabilités de défaillances. Cette classification permet d'identifier la meilleure solution et fournit une idée sur la fiabilité de chaque solution. / Hydroforming process is widely used in automotive and aerospace industries. Deterministic design optimization have been used to control and optimize this process in the last decade. However, under realistic conditions, different parameters such as material properties, geometric dimensions, and load exhibits unavoidable scatter that can affect the stability and the reliability of the process.It is interesting to introduce the uncertainties in parameter and to consider their variability. The main objective of this contribution is to evaluate the reliability and optimization of the hydroforming process in the presence of uncertainties.The first part of this thesis proposes a general approach to evaluate the spatial probability of failure in hydroforming process mainly in the critical region. With the proposed approach it is possible to avoid failure during hydroforming process.This method is based on Monte Carlo simulation coupled with metamodels, the forming limit curve is used as failure criteria for potential plastic instabilities.The second part of this thesis is the optimisation of the hydroforming process under uncertainties. Using illustrative examples, it is shown that probabilistic approach is an efficient method to optimize the process, to decrease the probability of failure and make the process insensitive or less sensitive to sources of variability. The difficulty lies in the considerations of the reliability constraints, which require a large computational effort and involve classical numerical problems, such as convergence,accuracy and stability. To overcome this problem, response surface method with Monte Carlo simulations were used to evaluate the probabilistic constraints.Probabilistic approach can ensure a stable and reliable process and decrease the percentage of defects parts significantly. Through this part, two methods were used : Reliability-Based Design Optimization and robust optimization.The last part consists of optimizing the process with Multi-Objective (MO) strategy taking account of the uncertainty. Metal forming process is MO problem that consists of optimizing more than one performance simultaneously. The main goal isto study the evolution of the Pareto front when some uncertainties can affect the objective functions or the parameters. In this part, a new methodology is proposed which presents the solutions in a new space and classify the whole solution with their probability of failure. This classification allows to identify the best solutionand can provide an idea about the reliability of each solution.
8

Développement d’une méthode d’optimisation multiobjectif pour la construction bois : prise en compte du confort des usagers, de l’impact environnemental et de la sécurité de l’ouvrage / Development of a multiobjective optimisation method for timber building : consideration of user comfort, environmental impact and structural safety

Armand Decker, Stéphanie 22 September 2015 (has links)
Les pays industrialisés cherchent aujourd’hui à réduire leur consommation d'énergie et à utiliser des matières premières de substitution, notamment renouvelables dont le bois fait partie. Pour promouvoir son usage, le développement de méthodes favorisant son recours dans les systèmes constructifs pour la construction multiétage est nécessaire.La conception d’un bâtiment est multicritère. Des objectifs contradictoires sont à optimiser simultanément. Des solutions de compromis Pareto-optimaux sont par exemple recherchées entre l’atteinte des meilleures performances d’usage et la limitation de l’impact environnemental du bâtiment. Ces travaux portent ainsi sur le développement d’une méthode d’optimisation multiobjectif de systèmes constructifs bois adaptés au multiétage.Des objectifs de maximisation du confort vibratoire des planchers et de minimisation des besoins de chauffage, d’inconfort thermique, de potentiel de réchauffement climatique et d’énergie grise sont pris en compte. La méthode repose sur un algorithme d’optimisation multiobjectif par essaim particulaire capable de proposer un ensemble de solutions non-dominées constituant le front de Pareto. L’espace des solutions est contraint par des exigences réglementaires nécessaires à la sécurité de l’ouvrage. L’ensemble des fonctions-objectif est modélisé sous forme de fonctions analytiques. Les sorties d’intérêt du modèle de simulation thermique dynamique sont substituées par des métamodèles.La méthode développée est mise en oeuvre sur un cas d’étude. Les résultats obtenus offrent une grande diversité dans un panel de 20 000 solutions optimales. Ces résultats constituent un support de discussion entre les différents acteurs d’un projet de construction. / Industrialised countries are seeking to reduce their energy consumption and to use alternative raw materials, including renewables such as wood. To promote its use, multi-storey timber constructive systems need the development of new design methods.Building required a multicriteria design where conflicting objectives must be optimised simultaneously. Research solutions have to achieve the best Pareto-compromise between use performance and environmental impact of the building. This work aims to develop a multiobjective optimisation method of timber multi-storey building.The objectives of maximising floor vibration comfort and minimising heating needs, thermal discomfort, global warming potential and embodied energy are taken into account. A multi-objective particle swarm optimization algorithm is used to obtain a set of non-dominated solutions which is the Pareto front. The solution space is constrained by regulatory requirements necessary for the safety of the structure. All objective-functions are modelled as analytic functions. Dynamic thermal simulation model outputs are replaced by metamodels.The developed method is implemented on a case study. The results offer a great diversity in a panel of 20 000 optimal solutions. These results provide a basis for discussion between the different actors of a construction project.
9

Conception multi-physique et multi-objectif des cœurs de RNR-Na hétérogènes : développement d’une méthode d’optimisation sous incertitudes / Multi-physics and multi-objective design of heterogeneous SFR core : development of an optimization method under uncertainty

Ammar, Karim 09 December 2014 (has links)
Depuis la fermeture de Phénix en 2010 le CEA ne possède plus de réacteur au sodium. Vus les enjeux énergétiques et le potentiel de la filière, le CEA a lancé un programme de démonstrateur industriel appelé ASTRID (Advanced Sodium Technological Reactor for Industrial Demonstration), réacteur d’une puissance de 600MW électriques (1500 MW thermiques). L’objectif du prototype est double, être une réponse aux contraintes environnementales et démontrer la viabilité industrielle :• De la filière RNR-Na, avec un niveau de sureté au moins équivalent aux réacteurs de 3ème génération, du type de l’EPR. ASTRID intégrera dès la conception le retour d’expérience de Fukushima ;• Du retraitement des déchets (transmutation d’actinide mineur) et de la filière qui lui serait liée.La sûreté de l’installation est prioritaire, aucun radioélément ne doit être rejeté dans l’environnement, et ce dans toutes les situations. Pour atteindre cet objectif, il est impératif d’anticiper l’impact des nombreuses sources d’incertitudes sur le comportement du réacteur et ce dès la phase de conception. C’est dans ce contexte que s’inscrit cette thèse dont l’ambition est le développement de nouvelles méthodes d’optimisation des cœurs des RNR-Na. L’objectif est d’améliorer la robustesse et la fiabilité des réacteurs en réponse à des incertitudes existantes. Une illustration sera proposée à partir des incertitudes associées à certains régimes transitoires dimensionnant. Nous utiliserons le modèle ASTRID comme référence pour évaluer l’intérêt des nouvelles méthodes et outils développés.L’impact des incertitudes multi-Physiques sur le calcul des performances d’un cœur de RNR-Na et l’utilisation de méthodes d’optimisation introduisent de nouvelles problématiques :• Comment optimiser des cœurs « complexes » (i.e associés à des espaces de conception de dimensions élevée avec plus de 20 paramètres variables) en prenant en compte les incertitudes ?• Comment se comportent les incertitudes sur les cœurs optimisés par rapport au cœur de référence ?• En prenant en compte les incertitudes, les réacteurs sont-Ils toujours considérés comme performants ?• Les gains des optimisations obtenus à l’issue d’optimisations complexes sont-Ils supérieurs aux marges d’incertitudes (qui elles-Mêmes dépendent de l’espace paramétrique) ?La thèse contribue au développement et à la mise en place des méthodes nécessaires à la prise en compte des incertitudes dans les outils de simulation de nouvelle génération. Des méthodes statistiques pour garantir la cohérence des schémas de calculs multi-Physiques complexes sont également détaillées.En proposant de premières images de cœur de RNR-Na innovants, cette thèse présente des méthodes et des outils permettant de réduire les incertitudes sur certaines performances des réacteurs tout en les optimisant. Ces gains sont obtenus grâce à l’utilisation d’algorithmes d’optimisation multi-Objectifs. Ces méthodes permettent d’obtenir tous les compromis possibles entre les différents critères d’optimisations comme, par exemple, les compromis entre performance économique et sûreté. / Since Phenix shutting down in 2010, CEA does not have Sodium Fast Reactor (SFR) in operating condition. According to global energetic challenge and fast reactor abilities, CEA launched a program of industrial demonstrator called ASTRID (Advanced Sodium Technological Reactor for Industrial Demonstration), a reactor with electric power capacity equal to 600MW. Objective of the prototype is, in first to be a response to environmental constraints, in second demonstrates the industrial viability of:• SFR reactor. The goal is to have a safety level at least equal to 3rd generation reactors. ASTRID design integrates Fukushima feedback;• Waste reprocessing (with minor actinide transmutation) and it linked industry.Installation safety is the priority. In all cases, no radionuclide should be released into environment. To achieve this objective, it is imperative to predict the impact of uncertainty sources on reactor behaviour. In this context, this thesis aims to develop new optimization methods for SFR cores. The goal is to improve the robustness and reliability of reactors in response to existing uncertainties. We will use ASTRID core as reference to estimate interest of new methods and tools developed.The impact of multi-Physics uncertainties in the calculation of the core performance and the use of optimization methods introduce new problems:• How to optimize “complex” cores (i.e. associated with design spaces of high dimensions with more than 20 variable parameters), taking into account the uncertainties?• What is uncertainties behaviour for optimization core compare to reference core?• Taking into account uncertainties, optimization core are they still competitive? Optimizations improvements are higher than uncertainty margins?The thesis helps to develop and implement methods necessary to take into account uncertainties in the new generation of simulation tools. Statistical methods to ensure consistency of complex multi-Physics simulation results are also detailed.By providing first images of innovative SFR core, this thesis presents methods and tools to reduce the uncertainties on some performance while optimizing them. These gains are achieved through the use of multi-Objective optimization algorithms. These methods provide all possible compromise between the different optimization criteria, such as the balance between economic performance and safety.
10

Evolutionary membrane computing: A comprehensive survey and new results

Zhang, G., Gheorghe, Marian, Pan, L.Q., Perez-Jimenez, M.J. 19 April 2014 (has links)
No / Evolutionary membrane computing is an important research direction of membrane computing that aims to explore the complex interactions between membrane computing and evolutionary computation. These disciplines are receiving increasing attention. In this paper, an overview of the evolutionary membrane computing state-of-the-art and new results on two established topics in well defined scopes (membrane-inspired evolutionary algorithms and automated design of membrane computing models) are presented. We survey their theoretical developments and applications, sketch the differences between them, and compare the advantages and limitations. (C) 2014 Elsevier Inc. All rights reserved.

Page generated in 0.1309 seconds