• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 46
  • 8
  • 5
  • Tagged with
  • 58
  • 53
  • 22
  • 17
  • 14
  • 14
  • 13
  • 13
  • 12
  • 12
  • 11
  • 9
  • 8
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Optimisation multicritère pour une gestion globale des ressources : application au cycle du cuivre en France / Multicriteria optimization for a global resource management : application to French copper cycle

Bonnin, Marie 11 December 2013 (has links)
L'amélioration de la gestion des ressources naturelles est nécessaire pour répondre aux nombreux enjeux liés à leur exploitation. Ce travail propose une méthodologie d'optimisation de leur gestion, appliquée au cas du cuivre en France. Quatre critères permettant de juger les stratégies de gestion ont été retenus : le coût, les impacts environnementaux, la consommation énergétique et les pertes de ressources. La première étape de cette méthodologie est l'analyse de la situation actuelle, grâce à une modélisation du cycle français du cuivre de 2000 à 2009. Cet examen a montré que la France importe la quasi-totalité de ses besoins sous forme de cuivre raffiné, et a une industrie de recyclage peu développée. Suite à ces premiers résultats, la problématique du traitement des déchets de cuivre, et notamment de leur recyclage, a été étudiée. Une stratégie de modélisation des flux recyclés, basée sur la construction de flowsheets, a été développée. La formulation mathématique générale du problème a ensuite été définie : il s'agit d'un problème mixte, non-linéaire et a priori multiobjectif, qui a une contrainte égalité forte (la conservation de la masse). Une étude des méthodes d'optimisation a conduit à choisir un algorithme génétique (AG). Une alternative a également été envisagée pour résoudre le problème multiobjectif par programmation linéaire en le linéarisant "sous contrainte". Ce travail a mis en évidence la nécessité de développer une filière de recyclage efficace des déchets électriques et électroniques en France. Il a de plus montré que le cuivre contenu dans les déchets ne permet pas de couvrir la demande et qu'il est nécessaire d'importer du cuivre, de préférence sous forme de débris. / Improving the natural resources management is necessary to address the many issues related to their exploitation. This work proposes an optimization methodology for their management, applied to the case of copper in France. Four criteria are identified to assess management strategies: cost, environmental impacts, energy consumption and resource losses. The first step of this methodology is the analysis of the current situation, by modelling the French copper cycle from 2000 to 2009. This analysis showed that France imports almost all of its needs as refined copper, and has an underdeveloped recycling industry. Following these initial results, the problematic of copper wastes, including recycling, has been investigated. A recycled flow modelling strategy has been developed, based on the construction of flowsheets. The general mathematical formulation of the problem is then defined. It is a non-linear, mixed and a priori multiobjective problem, with a strong equality constraint (mass conservation). A review of optimization methods has led to choose a genetic algorithm (GA). An alternative was also proposed to solve the multiobjective problem with linear programming, by linearizing it under constraint. This work has highlighted the necessity of developing an effective recycling field of wastes from electric and electronic equipment in France. It also showed that the copper contained in wastes does not meet the demand, so that France needs to import copper, preferably as scraps.
42

Thermodynamic Insight for the Design and Optimization of Extractive Distillation of 1.0-1a Class Separation / Approche thermodynamique pour la conception et l'optimisation de la distillation extractive de mélanges à température de bulle minimale (1.0-1a)

You, Xinqiang 07 September 2015 (has links)
Nous étudions la distillation extractive continue de mélanges azéotropiques à temperature de bulle minimale avec un entraineur lourd (classe 1.0-1a) avec comme exemples les mélanges acétone-méthanol avec l’eau et DIPE-IPA avec le 2-méthoxyethanol. Le procédé inclut les colonnes de distillation extractive et de régénération de l’entraineur en boucle ouverte et en boucle fermée. Une première stratégie d’optimisation consiste à minimiser la fonction objectif OF en cherchant les valeurs optimales du débit d’entraineur FE, les positions des alimentations en entraineur et en mélange NFE, NFAB, NFReg, les taux de reflux R1, R2 et les débits de distillat de chaque colonne D1, D2. OF décrit la demande en énergie par quantité de distillat et tient compte des différences de prix entre les utilités chaudes et froides et entre les deux produits. La deuxième stratégie est une optimisation multiobjectif qui minimise OF, le coût total annualisé (TAC) et maximise deux nouveaux indicateurs thermodynamiques d’efficacité de séparation extractive totale Eext et par plateau eext. Ils décrivent la capacité de la section extractive à séparer le produit entre le haut et le bas de la section extractive. L’analyse thermodynamique des réseaux de courbes de résidu ternaires RCM et des courbes d’isovolatilité montre l’intérêt de réduire la pression opératoire dans la colonne extractive pour les séparations de mélanges 1.0-1a. Une pression réduite diminue la quantité minimale d’entraineur et accroît la volatilité relative du mélange binaire azéotropique dans la région d’opération de la colonne extractive. Cela permet d’utiliser un taux de reflux plus faible et diminue la demande énergétique. La première stratégie d’optimisation est conduite avec des contraintes sur la pureté des produits avec les algorithmes SQP dans les simulateurs Aspen Plus ou Prosim Plus en boucle ouverte. Les variables continues optimisées sont : R1, R2 et FE (étape 1). Une étude de sensibilité permet de trouver les valeurs de D1, D2 (étape 2) et NFE, NFAB, NFReg (étape 3), tandis l’étape 1 est faite pour chaque jeu de variables discrètes. Enfin le procédé est resimulé en boucle fermée et TAC, Eext et eext sont calculés (étape 4). Les bilans matières expliquent l’interdépendance des débits de distillats et des puretés des produits. Cette optimisation permet de concevoir des procédés avec des gains proches de 20% en énergie et en coût. Les nouveaux procédés montrent une amélioration des indicateurs Eext et eext. Afin d’évaluer l’influence de Eext et eext sur la solution optimale, la seconde optimisation multiobjectif est conduite. L’algorithme génétique est peu sensible à l’initialisation, permet d’optimiser les variables discrètes N1, N2 et utilise directement le shéma de procédé en boucle fermée. L’analyse du front de Pareto des solutions met en évidence l’effet de FE/F et R1 sur TAC et Eext. Il existe un Eext maximum (resp. R1 minimum) pour un R1 donné (resp. Eext). Il existe aussi un indicateur optimal Eext,opt pour le procédé optimal avec le plus faible TAC. Eext,opt ne peut pas être utilisé comme seule fonction objectif d’optimisation mais en complément des autres fonctions OF et TAC. L’analyse des réseaux de profils de composition extractive explique la frontière du front de Pareto et pourquoi Eext augmente lorsque FE diminue et R1 augmente, le tout en lien avec le nombre d’étage. Visant à réduire encore TAC et la demande énergétique nous étudions des procédés avec intégration énergétique double effet (TEHI) ou avec des pompes à chaleur (MHP). En TEHI, un nouveau schéma avec une intégration énergétique partielle PHI réduit le plus la demande énergétique. En MHP, la recompression partielle des vapeurs VRC et bottom flash partiel BF améliorent les performances de 60% et 40% respectivement. Au final, le procédé PHI est le moins coûteux tandis que la recompression totale des vapeurs est la moins énergivore. / We study the continuous extractive distillation of minimum boiling azeotropic mixtures with a heavy entrainer (class 1.0-1a) for the acetone-methanol with water and DIPE-IPA with 2-methoxyethanol systems. The process includes both the extractive and the regeneration columns in open loop flowsheet and closed loop flowsheet where the solvent is recycled to the first column. The first optimization strategy minimizes OF and seeks suitable values of the entrainer flowrate FE, entrainer and azeotrope feed locations NFE, NFAB, NFReg, reflux ratios R1, R2 and both distillates D1, D2. OF describes the energy demand at the reboiler and condenser in both columns per product flow rate. It accounts for the price differences in heating and cooling energy and in product sales. The second strategy relies upon the use of a multi-objective genetic algorithm that minimizes OF, total annualized cost (TAC) and maximizes two novel extractive thermodynamic efficiency indicators: total Eext and per tray eext. They describe the ability of the extractive section to discriminate the product between the top and to bottom of the extractive section. Thermodynamic insight from the analysis of the ternary RCM and isovolatility curves shows the benefit of lowering the operating pressure of the extractive column for 1.0-1a class separations. A lower pressure reduces the minimal amount of entrainer and increases the relative volatility of original azeotropic mixture for the composition in the distillation region where the extractive column operates, leading to the decrease of the minimal reflux ratio and energy consumption. The first optimization strategy is conducted in four steps under distillation purity specifications: Aspen Plus or Prosim Plus simulator built-in SQP method is used for the optimization of the continuous variables: R1, R2 and FE by minimizing OF in open loop flowsheet (step 1). Then, a sensitivity analysis is performed to find optimal values of D1, D2 (step 2) and NFE, NFAB, NFReg (step 3), while step 1 is done for each set of discrete variables. Finally the design is simulated in closed loop flowsheet, and we calculate TAC and Eext and eext (step 4). We also derive from mass balance the non-linear relationships between the two distillates and how they relate product purities and recoveries. The results show that double digit savings can be achieved over designs published in the literature thanks to the improving of Eext and eext. Then, we study the influence of the Eext and eext on the optimal solution, and we run the second multiobjective optimization strategy. The genetic algorithm is usually not sensitive to initialization. It allows finding optimal total tray numbers N1, N2 values and is directly used with the closed loop flow sheet. Within Pareto front, the effects of main variables FE/F and R1 on TAC and Eext are shown. There is a maximum Eext (resp. minimum R1) for a given R1 (resp. Eext). There exists an optimal efficiency indicator Eext,opt which corresponds to the optimal design with the lowest TAC. Eext,opt can be used as a complementary criterion for the evaluation of different designs. Through the analysis of extractive profile map, we explain why Eext increases following the decrease of FE and the increase of R1 and we relate them to the tray numbers. With the sake of further savings of TAC and increase of the environmental performance, double-effect heat integration (TEHI) and mechanical heat pump (MHP) techniques are studied. In TEHI, we propose a novel optimal partial HI process aiming at the most energy saving. In MHP, we propose the partial VRC and partial BF heat pump processes for which the coefficients of performance increase by 60% and 40%. Overall, optimal partial HI process is preferred from the economical view while full VRC is the choice from the environmental perspective.
43

Développement d’une méthode d’optimisation multiobjectif pour la construction bois : prise en compte du confort des usagers, de l’impact environnemental et de la sécurité de l’ouvrage / Development of a multiobjective optimisation method for timber building : consideration of user comfort, environmental impact and structural safety

Armand Decker, Stéphanie 22 September 2015 (has links)
Les pays industrialisés cherchent aujourd’hui à réduire leur consommation d'énergie et à utiliser des matières premières de substitution, notamment renouvelables dont le bois fait partie. Pour promouvoir son usage, le développement de méthodes favorisant son recours dans les systèmes constructifs pour la construction multiétage est nécessaire.La conception d’un bâtiment est multicritère. Des objectifs contradictoires sont à optimiser simultanément. Des solutions de compromis Pareto-optimaux sont par exemple recherchées entre l’atteinte des meilleures performances d’usage et la limitation de l’impact environnemental du bâtiment. Ces travaux portent ainsi sur le développement d’une méthode d’optimisation multiobjectif de systèmes constructifs bois adaptés au multiétage.Des objectifs de maximisation du confort vibratoire des planchers et de minimisation des besoins de chauffage, d’inconfort thermique, de potentiel de réchauffement climatique et d’énergie grise sont pris en compte. La méthode repose sur un algorithme d’optimisation multiobjectif par essaim particulaire capable de proposer un ensemble de solutions non-dominées constituant le front de Pareto. L’espace des solutions est contraint par des exigences réglementaires nécessaires à la sécurité de l’ouvrage. L’ensemble des fonctions-objectif est modélisé sous forme de fonctions analytiques. Les sorties d’intérêt du modèle de simulation thermique dynamique sont substituées par des métamodèles.La méthode développée est mise en oeuvre sur un cas d’étude. Les résultats obtenus offrent une grande diversité dans un panel de 20 000 solutions optimales. Ces résultats constituent un support de discussion entre les différents acteurs d’un projet de construction. / Industrialised countries are seeking to reduce their energy consumption and to use alternative raw materials, including renewables such as wood. To promote its use, multi-storey timber constructive systems need the development of new design methods.Building required a multicriteria design where conflicting objectives must be optimised simultaneously. Research solutions have to achieve the best Pareto-compromise between use performance and environmental impact of the building. This work aims to develop a multiobjective optimisation method of timber multi-storey building.The objectives of maximising floor vibration comfort and minimising heating needs, thermal discomfort, global warming potential and embodied energy are taken into account. A multi-objective particle swarm optimization algorithm is used to obtain a set of non-dominated solutions which is the Pareto front. The solution space is constrained by regulatory requirements necessary for the safety of the structure. All objective-functions are modelled as analytic functions. Dynamic thermal simulation model outputs are replaced by metamodels.The developed method is implemented on a case study. The results offer a great diversity in a panel of 20 000 optimal solutions. These results provide a basis for discussion between the different actors of a construction project.
44

Planification inverse de la dose en hadronthérapie : prise en compte de la qualité du rayonnement pour une optimisation de la dose biologique / Inverse dose planning in hadrontherapy : taking into account the beam quality for an optimization of the biological dose

Smekens, François 02 December 2011 (has links)
L'hadronthérapie est une modalité d'irradiation récente particulièrement attractive. Les ions, par leur profil caractéristique de dépôt de dose dans la matière et leur efficacité biologique accrue, sont des particules parfaitement adaptées pour le traitement du cancer. C’est une modalité émergente et les travaux de recherche et de développement qui en font l'objet se poursuivent de manière soutenue. Cependant, il n'existe à ce jour aucun outil permettant de quantifier pour le patient le gain clinique associé aux améliorations proposées, comme l’apport d’une gantry par exemple. Nous proposons dans ce travail de concevoir un module de planification inverse du traitement pour un but prospectif. Détachée des contraintes usuelles de précision et de temps de calcul, notre méthode d'optimisation se base sur un algorithme génétique afin d'approcher d'une solution globale vis-à-vis d'un grand nombre de paramètres balistiques (champs d’irradiation libres) et en associant les diverses régions d'intérêt dosimétrique. La stratégie d'optimisation retenue est progressivement complexifiée afin de prendre en compte de manière efficace les différents enjeux de la planification. La robustesse du plan vis-à-vis des incertitudes inhérentes au traitement, primordiale en hadronthérapie, est évaluée. Dans toutes les situations testées, il apparaît que l'inclusion dans l'optimisation de paramètres habituellement fixés manuellement permet une amélioration de la qualité de traitement. Nous proposons au terme de cette étude un outil prospectif d'optimisation au réglage simple et capable de mener des études comparées sur la pertinence de nouvelles modalités d’irradiation. / Hadrontherapy is a recent and particularly attractive modality. Characterized by a specific dose deposition profile in matter and by a high biological effectiveness, ions are found to be very well-suited for cancer treatment. As an emergent modality, the research in hadrontherapy is extremely active and promises many improvements for the future. However, there is no tool to date to quantify the clinical benefit for the patient related to the proposed improvements, the use of a gantry for example. In this work, we propose to use the treatment planning system, usually dedicated to clinical practice, in a prospective purpose. Suppressing the classical constraints of precision and time, our optimization method is based on a genetic algorithm designed to approach a global solution including a high number of balistic parameters (free irradiation fields) for all regions of dosimetric interest. The optimization strategy is progressively complicated in order to efficientely take into account the main issues of the inverse planning problem. The robustness of plans towards the uncertainties related to the application of the treatment, essential in hadrontherapy, is evaluated. The results show that the inclusion, in the optimization, of parameters usually fixed by the human planner leads systematically to an improved treatment quality. The final product of this work is a prospective optimization tool characterized by an easy set-up system and the ability to perform comparative studies on the relevance of new irradiation modalities.
45

Optimisation de la lubrification des paliers de tête de bielle : démarche méthodologique / Optimization of the conrod bearing lubrication : methodological approach

Lavie, Thomas 29 November 2012 (has links)
Le but de ce travail est de proposer une démarche structurée pour l'étude des liaisons lubrifiées bielle/vilebrequin. Bien que cette source de déperdition énergétique ne soit pas primordiale, il n'en est pas moins vrai que la maîtriser est un enjeu pour les motoristes. Les normes anti-pollution imposées aux constructeurs automobiles étant de plus en plus strictes, un effort doit être réalisé sur l’ensemble des composants afin de réduire de façon significative les pertes d’énergie dans les moteurs. La tendanceactuelle est à la diminution de la viscosité du lubrifiant, toutefois ce n'est pas sans conséquence sur l'intégrité des liaisons.La démarche proposée, qui s'appuie sur un logiciel TEHD consiste à utiliser la méthode des plans d’expériences afin de créer des métamodèles de la puissance dissipée et de la sévérité du cas traité. Une optimisation multi-objectifs (déperdition et sévérité) par algorithme évolutionnaire et utilisant les métamodèles est ensuite menée afin de déterminer les combinaisons de facteurs offrant les meilleurs compromis par rapport à ces deux objectifs. La méthodologie proposée s'avère pertinente puisque des modèles analytiques simples se substituent très avantageusement aux lourds calculs TEHD.Afin de valider le logiciel TEHD sur l'évaluation des puissances dissipées, une comparaison numérique/expérimentale est conduite sur un banc d’essais permettant de reproduire les conditions réelles de fonctionnement des bielles dans les moteurs. / The aim of this work is to propose a structured approach of the study of the lubricated connection between the conrod and the crankshaft. Although this source of energy loss is not the most significant one, improving this contact remains a challenging task for engine manufacturers. The anti-pollution standards imposed on automakers are increasingly stringent, an effort must be made on all components in order to significantly reduce energy loss in the engines. The current trend is to decrease the viscosity of thelubricant, however, it is not without consequences for the connections health. The proposed approach, which relies on a TEHD software is to use the design of experiments method to create surrogates of both power loss and severity for the treated case. A multi-objective optimization (power loss and severity) by evolutionary algorithm and using the surrogates, is then performed to determine the right combination of factors that provides the best compromise with respect to these two objectives. The proposed methodology is relevant because simple analytical models replace very favorably time consuming TEHD calculations.To validate the evaluation of power loss calculated with the TEHD software, a numerical/experimental comparison is performed on a test bench which reproduces the real operating conditions of the connecting rods.
46

Uncertainty quantification on pareto fronts and high-dimensional strategies in bayesian optimization, with applications in multi-objective automotive design / Quantification d’incertitude sur fronts de Pareto et stratégies pour l’optimisation bayésienne en grande dimension, avec applications en conception automobile

Binois, Mickaël 03 December 2015 (has links)
Cette thèse traite de l’optimisation multiobjectif de fonctions coûteuses, aboutissant à laconstruction d’un front de Pareto représentant l’ensemble des compromis optimaux. En conception automobile, le budget d’évaluations est fortement limité par les temps de simulation numérique des phénomènes physiques considérés. Dans ce contexte, il est courant d’avoir recours à des « métamodèles » (ou modèles de modèles) des simulateurs numériques, en se basant notamment sur des processus gaussiens. Ils permettent d’ajouter séquentiellement des observations en conciliant recherche locale et exploration. En complément des critères d’optimisation existants tels que des versions multiobjectifs du critère d’amélioration espérée, nous proposons d’estimer la position de l’ensemble du front de Pareto avec une quantification de l’incertitude associée, à partir de simulations conditionnelles de processus gaussiens. Une deuxième contribution reprend ce problème à partir de copules. Pour pouvoir traiter le cas d’un grand nombre de variables d’entrées, nous nous basons sur l’algorithme REMBO. Par un tirage aléatoire directionnel, défini par une matrice, il permet de trouver un optimum rapidement lorsque seules quelques variables sont réellement influentes (mais inconnues). Plusieurs améliorations sont proposées, elles comprennent un noyau de covariance dédié, une sélection du domaine de petite dimension et des directions aléatoires mais aussi l’extension au casmultiobjectif. Enfin, un cas d’application industriel en crash a permis d’obtenir des gainssignificatifs en performance et en nombre de calculs requis, ainsi que de tester le package R GPareto développé dans le cadre de cette thèse. / This dissertation deals with optimizing expensive or time-consuming black-box functionsto obtain the set of all optimal compromise solutions, i.e. the Pareto front. In automotivedesign, the evaluation budget is severely limited by numerical simulation times of the considered physical phenomena. In this context, it is common to resort to “metamodels” (models of models) of the numerical simulators, especially using Gaussian processes. They enable adding sequentially new observations while balancing local search and exploration. Complementing existing multi-objective Expected Improvement criteria, we propose to estimate the position of the whole Pareto front along with a quantification of the associated uncertainty, from conditional simulations of Gaussian processes. A second contribution addresses this problem from a different angle, using copulas to model the multi-variate cumulative distribution function. To cope with a possibly high number of variables, we adopt the REMBO algorithm. From a randomly selected direction, defined by a matrix, it allows a fast optimization when only a few number of variables are actually influential, but unknown. Several improvements are proposed, such as a dedicated covariance kernel, a selection procedure for the low dimensional domain and of the random directions, as well as an extension to the multi-objective setup. Finally, an industrial application in car crash-worthiness demonstrates significant benefits in terms of performance and number of simulations required. It has also been used to test the R package GPareto developed during this thesis.
47

Affectation dynamique d'opérateurs polyvalents et dimensionnement des équipes dans les systèmes de production / Dynamic multiskilled workers assignment and teams definition in production systems

Ammar, Achraf 19 November 2015 (has links)
Les ressources humaines jouent un rôle crucial dans les systèmes de production. D’une part, elles doivent être polyvalentes et flexibles pour pouvoir effectuer des tâches variées. D’autre part, elles doivent être affectées aux différentes machines du système de façon qu’elles puissent satisfaire  les performances industrielles. Toutefois, il est souvent difficile de prendre des décisions concernant le nombre, les compétences et les stratégies d’affectation des opérateurs, en particulier dans les systèmes où la demande est aléatoire, changeante et fluctuante et lorsqu’il y a plusieurs objectifs à optimiser. Dans ce contexte, la présente thèse vise en premier lieu à déterminer comment affecter les opérateurs aux machines. En second lieu, elle vise à définir le nombre d’opérateurs et les compétences requises afin de réduire les durées de fabrication et le coût de la main d’œuvre. Deux heuristiques sont proposées pour affecter les opérateurs de façon dynamique, et en ligne, à chaque fois ils deviennent disponibles. Le choix de la machine se fait en se basant sur une analyse multicritère de l’état actuel du système avec la méthode TOPSIS pour la première heuristique et avec une méthode de restriction basée sur des seuils numériques pour la deuxième. Les critères utilisés ont été choisis à l'aide d’un jeu sérieux (simulation interactive visuelle dédiée) en utilisant le logiciel ARENA. Pour optimiser les poids de ces critères et les seuils numériques et afin d’adapter les heuristiques proposées, nous avons utilisé l’optimisation basée sur la simulation, qui intègre la dimension à la fois aléatoire et fluctuante de la demande. Les résultats des comparaisons avec les stratégies d’affectation les plus utilisées dans la littérature ont montré l’intérêt et la pertinence de nos heuristiques. Pour optimiser le nombre d’opérateurs et leurs compétences, nous avons proposé une approche basée sur la simulation et sur un algorithme évolutionnaire multi objectif (NSGAII). Nous suggérons d’accepter une certaine redondance aux niveaux des compétences afin de réduire l’impact de l’absentéisme des opérateurs sur la performance du système. Pour prendre en compte le comportement changeant et fluctuant des systèmes de production, nous avons intégré dans l’approche d’optimisation l’heuristique d’affectation la plus performante sur les heuristiques proposées. Un modèle de simulation d’un système de type Job-shop a été utilisé pour illustrer notre approche. Les résultats obtenus sur l’ensemble des solutions non dominées ont montré la pertinence de l’approche proposée. / Human resources play a crucial role in production systems. On one hand, they have to be multi-skilled and flexible to carry out various tasks. On the other hand, they must be assigned to the different machines in the system so as to satisfy industrial performances. However, it is often difficult to make decisions about the number, skills and workers assignment strategies, particularly when systems are characterized by random, changing and fluctuating demand and when there are multiple objectives to be optimized. In this context, the present thesis aims first to determine how to assign workers to machines. Second, it aims to define the number of workers and the required skills in order to reduce production times and manpower costs. Two heuristics are then proposed to assign workers dynamically, on line, each time they become idle. The choice of the machine is based on a multi criteria analysis of the current state of the system using TOPSIS method for the first heuristic and a restriction method based on numerical thresholds for the second one. The criteria used are chosen through a serious game (a dedicated Visual Interactive Simulation) implemented using ARENA software. In order to optimize the weights of these criteria and the numerical thresholds and to adapt the proposed heuristics, we used a simulation optimization, which integrates both of the random and fluctuating dimensions of the demand. The results of comparisons with the most used assignment strategies in the literature have shown the interest and relevance of our heuristics. In order to optimize the number of workers and their skills, we proposed an approach based on simulation and an evolutionary multi-objective algorithm (NSGAII). We suggest accepting some redundancy on skills so as to reduce the impact of worker absenteeism on system performance. In order to take into account the changing and fluctuating behavior of production systems, we have integrated in our optimization approach the most efficient assignment heuristic among the proposed ones. A simulation model of a job shop system has been used to illustrate our approach. The results obtained on all non-dominated solutions showed the relevance of the proposed approach.
48

Perfectionnement d'un algorithme adaptatif d'optimisation par essaim particulaire : application en génie médical et en électronique / Improvement of an adaptive algorithm of Optimization by Swarm Particulaire : application in medical engineering and in electronics

Cooren, Yann 27 November 2008 (has links)
Les métaheuristiques sont une famille d'algorithmes stochastiques destinés à résoudre des problèmes d 'optimisation difficile . Utilisées dans de nombreux domaines, ces méthodes présentent l'avantage d'être généralement efficaces, sans pour autant que l'utilisateur ait à modifier la structure de base de l'algorithme qu'il utilise. Parmi celles-ci, l'Optimisation par Essaim Particulaire (OEP) est une nouvelle classe d'algorithmes proposée pour résoudre les problèmes à variables continues. Les algorithmes d'OEP s'inspirent du comportement social des animaux évoluant en essaim, tels que les oiseaux migrateurs ou les poissons. Les particules d'un même essaim communiquent de manière directe entre elles tout au long de la recherche pour construire une solution au problème posé, en s'appuyant sur leur expérience collective. Reconnues depuis de nombreuses années pour leur efficacité, les métaheuristiques présentent des défauts qui rebutent encore certains utilisateurs. Le réglage des paramètres des algorithmes est un de ceux-ci. Il est important, pour chaque probléme posé, de trouver le jeu de paramètres qui conduise à des performances optimales de l'algorithme. Cependant, cette tâche est fastidieuse et coûteuse en temps, surtout pour les utilisateurs novices. Pour s'affranchir de ce type de réglage, des recherches ont été menées pour proposer des algorithmes dits adaptatifs . Avec ces algorithmes, les valeurs des paramètres ne sont plus figées, mais sont modifiées, en fonction des résultats collectés durant le processus de recherche. Dans cette optique-là, Maurice Clerc a proposé TRIBES, qui est un algorithme d'OEP mono-objectif sans aucun paramètre de contrôle. Cet algorithme fonctionne comme une boite noire , pour laquelle l'utilisateur n'a qu'à définir le problème à traiter et le critàre d'arrêt de l'algorithme. Nous proposons dans cette thèse une étude comportementale de TRIBES, qui permet d'en dégager les principales qualités et les principaux défauts. Afin de corriger certains de ces défauts, deux modules ont été ajoutés à TRIBES. Une phase d'initialisation régulière est insérée, afin d'assurer, dès le départ de l'algorithme, une bonne couverture de l'espace de recherche par les particules. Une nouvelle stratégie de déplacement, basée sur une hybridation avec un algorithme à estimation de distribution, est aussi définie, afin de maintenir la diversité au sein de l'essaim, tout au long du traitement. Le besoin croissant de méthodes de résolution de problèmes multiobjectifs a conduit les concepteurs à adapter leurs méthodes pour résoudre ce type de problème. La complexité de cette opération provient du fait que les objectifs à optimiser sont souvent contradictoires. Nous avons élaboré une version multiobjectif de TRIBES, dénommée MO-TRIBES. Nos algorithmes ont été enfin appliqués à la résolution de problèmes de seuillage d'images médicales et au problème de dimensionnement de composants de circuits analogiques / Metaheuristics are a new family of stochastic algorithms which aim at solving difficult optimization problems. Used to solve various applicative problems, these methods have the advantage to be generally efficient on a large amount of problems. Among the metaheuristics, Particle Swarm Optimization (PSO) is a new class of algorithms proposed to solve continuous optimization problems. PSO algorithms are inspired from the social behavior of animals living in swarm, such as bird flocks or fish schools. The particles of the swarm use a direct way of communication in order to build a solution to the considered problem, based on their collective experience. Known for their e ciency, metaheuristics show the drawback of comprising too many parameters to be tuned. Such a drawback may rebu some users. Indeed, according to the values given to the parameters of the algorithm, its performance uctuates. So, it is important, for each problem, to nd the parameter set which gives the best performance of the algorithm. However, such a problem is complex and time consuming, especially for novice users. To avoid the user to tune the parameters, numerous researches have been done to propose adaptive algorithms. For such algorithms, the values of the parameters are changed according to the results previously found during the optimization process. TRIBES is an adaptive mono-objective parameter-free PSO algorithm, which was proposed by Maurice Clerc. TRIBES acts as a black box , for which the user has only the problem and the stopping criterion to de ne. The rst objective of this PhD is to make a global study of the behavior of TRIBES under several conditions, in order to determine the strengths and drawbacks of this adaptive algorithm. In order to improve TRIBES, two new strategies are added. First, a regular initialization process is defined in order to insure an exploration as wide as possible of the search space, since the beginning of the optimization process. A new strategy of displacement, based on an hybridation with an estimation of distribution algorithm, is also introduced to maintain the diversity in the swarm all along the process. The increasing need for multiobjective methods leads the researchers to adapt their methods to the multiobjective case. The di culty of such an operation is that, in most cases, the objectives are con icting. We designed MO-TRIBES, which is a multiobjective version of TRIBES. Finally, our algorithms are applied to thresholding segmentation of medical images and to the design of electronic components
49

Conception, Synthèse et Application d’une Nouvelle Commande Robuste par PID Fractionnaire pour Les Onduleurs Multiniveaux / Design, Synthesis and Application of a New Robust Control by Fractional PID for Multilevel Inverters

Tehrani, Kambiz Arab 15 November 2010 (has links)
Cette thèse présente une nouvelle extension d’onduleur multiniveaux, appelé ‘Multi Neutral Point’ (MNP). Cet onduleur est déduit des topologies des structures multiniveaux ‘Neutral Point Clamped’ (NPC) et ‘Multi Point Clamped’ (MPC). Les intérêts de cette extension sont: l’absence de diodes de bouclage, la possibilité de disposer de tous les nombres de niveaux, pairs et impairs et possibilité de fonctionner en mode dégradé. Nous avons élaboré une commande rapprochée simple des transistors de puissance, d’abord pour un MNP à 3 niveaux, ensuite pour les nombres de niveaux supérieurs. Nous avons comparé les pertes de puissance d’un onduleur MNP et d’un onduleur NPC. Les pertes de l’onduleur MNP sont largement inférieures à celles de l’onduleur NPC. Dans l’optique de contrôler en courant l’onduleur MNP, une stratégie nouvelle par régulateur PID d’ordre fractionnaire est également développée. Ce contrôle permet de diminuer nettement les erreurs d’amplitude et de phase entre le courant de référence et le courant de charge. La méthode nécessite le réglage des différents paramètres de contrôle en utilisant le principe d'optimisation ‘’multi-objectif’’. Le fonctionnement de l’ensemble convertisseur-contrôle-commande est enfin largement validé par simulation et par expérimentation / This thesis presents a new extension of multilevel inverters, called 'Multi Neutral Point' (MNP). This topology is deduced from Neutral Point Clamped (NPC) and Multi Point Clamped (MPC) structures. The advantage of this extension is twofold: the absence of clamping diodes and the possibility of operating on all the numbers of levels (even and odd). We have developed a simple command; we first present the command strategy for a three levels MNP, then for a five level MNP. We have compared the power losses in the power switches of an MNP and an NPC. The power losses for an MNP are far below those of the NPC inverter. For this inverter model, we have chosen a robust current control by a fractional PID controller. This control strategy can sharply reduce the amplitude and the phase errors between the reference current and the load one. This method requires the setting of various control parameters thanks to the principle of ‘’multiobjective optimization.'' In the end the set of converter-control command is validated by simulation and experimentation; the simulated and experimental results match very well
50

Conception par simulation pour la conduite de culture

Crespo, Olivier 11 February 2008 (has links) (PDF)
L'optimisation à base de simulation est une approche performante pour la résolution de problèmes d'optimisation continus et stochastiques. Nous proposons des algorithmes d'optimisation par simulation basés sur la décomposition hiérarchique de l'espace de recherche en espaces de plus petite taille. Les problématiques consistent à évaluer les sous espaces, sélectionner les sous espaces optimaux et les diviser à nouveau. Nous discutons l'efficacité d'alternatives algorithmiques connues et d'autres nouvelles, dans le but de trouver la ou l'ensemble des régions optimales. Ces alternatives sont développées dans les contextes d'optimisation de l'espérance, d'optimisation du quantile et d'optimisation multiobjectif. Tout au long de la thèse, nous avons évalué cette famille d'algorithmes sur des problèmes de conception de stratégies de conduite de culture en agriculture et plus particulièrement sur un problème de gestion de l'irrigation du maïs. Nous avons proposé les espaces de décision obtenus par l'application de nos méthodes, et leur traduction en termes de stratégies d'irrigation. Les algorithmes d'optimisation du quantile et d'optimisation multiobjectif ont abouti à la proposition de stratégies nouvelles en termes de prise en compte de l'incertain et de prise en compte simultanée d'objectifs. Il sera intéressant de poursuivre ces pistes de recherche, en particulier pour l'application à d'autres problèmes multicritères soumis à l'incertain.

Page generated in 0.0649 seconds