• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 69
  • 40
  • 3
  • Tagged with
  • 111
  • 111
  • 96
  • 57
  • 55
  • 24
  • 23
  • 18
  • 18
  • 13
  • 12
  • 12
  • 12
  • 11
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Méthodologie et algorithmes adaptés à l’optimisation multi-niveaux et multi-objectif de systèmes complexes / Multi-level and multi-objective design optimization tools for handling complex systems

Moussouni, Fouzia 08 July 2009 (has links)
La conception d'un système électrique est une tâche très complexe qui relève d’expertises dans différents domaines de compétence. Dans un contexte compétitif où l’avance technologique est un facteur déterminant, l’industrie cherche à réduire les temps d'étude et à fiabiliser les solutions trouvées par une approche méthodologique rigoureuse fournissant une solution optimale systémique.Il est alors nécessaire de construire des modèles et de mettre au point des méthodes d'optimisation compatibles avec ces préoccupations. En effet, l’optimisation unitaire de sous-systèmes sans prendre en compte les interactions ne permet pas d'obtenir un système optimal. Plus le système est complexe plus le travail est difficile et le temps de développement est important car il est difficile pour le concepteur d'appréhender le système dans toute sa globalité. Il est donc nécessaire d'intégrer la conception des composants dans une démarche systémique et globale qui prenne en compte à la fois les spécificités d’un composant et ses relations avec le système qui l’emploie.Analytical Target Cascading est une méthode d'optimisation multi niveaux de systèmes complexes. Cette approche hiérarchique consiste à décomposer un système complexe en sous-systèmes, jusqu’au niveau composant dont la conception relève d’algorithmes d'optimisation classiques. La solution optimale est alors trouvée par une technique de coordination qui assure la cohérence de tous les sous-systèmes. Une première partie est consacrée à l'optimisation de composants électriques. L'optimisation multi niveaux de systèmes complexes est étudiée dans la deuxième partie où une chaîne de traction électrique est choisie comme exemple / The design of an electrical system is a very complex task which needs experts from various fields of competence. In a competitive environment, where technological advance is a key factor, industry seeks to reduce study time and to make solutions reliable by way of a rigorous methodology providing a systemic solution.Then, it is necessary to build models and to develop optimization methods which are suitable with these concerns. Indeed, the optimization of sub-systems without taking into account the interaction does not allow to achieve an optimal system. More complex the system is more the work is difficult and the development time is important because it is difficult for the designer to understand and deal with the system in its complexity. Therefore, it is necessary to integrate the design components in a systemic and holistic approach to take into account, in the same time, the characteristics of a component and its relationship with the system it belongs to.Analytical Target Cascading is a multi-level optimization method for handling complex systems. This hierarchical approach consists on the breaking-down of a complex system into sub-systems, and component where their optimal design is ensured by way of classical optimization algorithms. The optimal solution of the system must be composed of the component's solutions. Then a coordination strategy is needed to ensure consistency of all sub-systems. First, the studied and proposed optimization algorithms are tested and compared on the optimization of electrical components. The second part focuses on the multi-level optimization of complex systems. The optimization of railway traction system is taken as a test case
92

Proposition d'une démarche de sélection de partenaires dans une chaîne logistique en boucle fermée durable / A proposed sustainable partner selection approach with closed-loop supply chain network configuration

Kafa, Nadine 06 October 2015 (has links)
Le travail réalisé dans le cadre de cette thèse propose une démarche de sélection de partenaires (fournisseurs et prestataires) dans une chaîne logistique durable en boucle fermée. Il s’agit d’évaluer les partenaires en fonction de critères économiques, environnementaux, et sociétaux puis de sélectionner ceux qui interviennent dans la chaîne logistique en respectant un ensemble des contraintes. Nous développons une méthode d’évaluation et de classement des partenaires basée sur une approche hybride en utilisant les méthodes AHP et PROMETHEE, dans un environnement flou. Ensuite, nous proposons un modèle mathématique multi-objectif qui permet non seulement de minimiser le coût total de la chaîne logistique, mais également de maximiser la valeur totale de l’approvisionnement, minimiser les émissions de gaz à effet de serre et maximiser le bénéfice sociétal. Nous utilisons une approche max-min pondérée pour résoudre le modèle proposé à l’aide de l’outil de modélisation et d’optimisation GAMS. / Reverse logistics network design is a crucial issue in which it is important to take into account the selection of the most appropriate partner with sustainability concerns. This partner can be a supplier or a third-party reverse logistics provider (3PRLP). However, research works that consider reverse logistics (RL) network design, partner selection, and sustainability issues simultaneously are rather limited till now. This research work proposes an integrated sustainable approach for partner selection and closed-loop supply chain (CLSC) network configuration, particularly in the case of outsourcing reverse logistics process to third-party provider. We propose a trade-off between sustainability criteria for both supplier and 3PRL provider selection. A multi-objective mixed-integer programming (MILP) model is also proposed to configure CLSC network and to select the best partners. The model minimizes the total cost of sourcing, and the total greenhouse gas emissions, while it maximizes the total value of reverse logistics, and the number of new job opportunities. A numerical example is also presented to illustrate the proposed approach.
93

Conception d’un système avancé de réacteur PWR flexible par les apports conjoints de l’ingénierie système et de l’automatique / Conception of an advanced flexible PWR reactor system using systems engineering and control theories

Lemazurier, Lori 02 February 2018 (has links)
Devant l’augmentation de la part des énergies renouvelables en France, cette thèse propose d’étudier l’augmentation de la flexibilité des réacteurs à eau pressurisée en croisant deux disciplines pour, chacune, atteindre des objectifs complémentaires : l’Ingénierie Système (IS) et l’Automatique.Dans le contexte de l’ingénierie de systèmes complexes et du Model Based Systems Engineering, ce travail propose dans un premier temps une méthode de conception se fondant sur les principes normatifs de l’IS et respectant les habitudes et les pratiques courantes en ingénierie de Framatome. Cette méthode a pour vocation de formaliser et assurer le passage des exigences aux architectures et d’améliorer les capacités de vérification des modèles développés lors de la conception. Elle s’organise autour de langages de modélisation interopérables, couvrant l’ensemble des processus promus par l’IS. La méthode proposée est appliquée sur le système dont les performances sont les plus limitantes dans le contexte de l’augmentation de flexibilité : le Core Control. Ce composant algorithmique du réacteur assure le contrôle des paramètres de fonctionnement du cœur : la température moyenne, la distribution axiale de puissance et la position des groupes de grappes.La thèse propose ensuite des contributions techniques relevant du champ de l’Automatique. Il s’agit de concevoir un système de régulation répondant aux exigences issues de la formalisation IS évoquée ci-dessus. La solution proposée repose sur une stratégie de commande hiérarchisée, utilisant la complémentarité des approches dites de commande multi-objectif, de séquencement de gains et enfin de commande prédictive. Un modèle de réacteur nucléaire simplifié innovant est développé à des fins de conception du système de régulation et de simulations intermédiaires. Les résultats obtenus ont montré les capacités d’adaptation de la démarche proposée à des spécifications diverses. Les performances atteintes sont très encourageantes lorsque évaluées en simulation à partir d’un modèle réaliste et comparées à celles obtenues par les modes de pilotages classiques. / In the event of increasing renewable energies in France, this thesis proposes to study the flexibility increase of pressurized water reactors (PWR) throughout two different engineering disciplines aiming at complementary objectives: Systems Engineering (SE) and Control theory.In a first phase, within the frame of complex systems design and Model Based Systems Engineering, this work proposes a SE method based on SE standard principles and compliant with Framatome’s practices and addressing the revealed issues. This SE contribution is twofold: formalize and ensure the path from requirements to system architectures and enhance the capabilities of models verification. The method revolves around interoperable modeling languages, covering the SE processes: from requirement engineering to system architecture design. The method is applied to the system, which performances are the most limiting in the context of flexibility increase: the Core Control. This algorithmic reactor component ensures the control of: the average coolant temperature, the axial offset and the rod bank position, three of the core main functioning parameters.In order to provide a technical contribution relying on some advanced control methodologies. It consists in designing a control system meeting the requirements defined by the SE method application. The proposed solution is in a two-layer control strategy using the synergies of multi-objective control, gain-scheduling and predictive control strategies. A simplified innovative nuclear reactor model is employed to conceive the control algorithm, simulate and verify the developed models. The results obtained from this original approach showed the ability to adapt to various specifications. Compared to conventional core control modes, the simulation results showed very promising performances, while meeting the requirements, when evaluated on a realistic reactor model.
94

human-robot motion : an attention-based approach / Mouvement homme-robot : une approche basée sur l'attention

Paulin, Rémi 22 March 2018 (has links)
Pour les robots mobiles autonomes conçus pour partager notre environnement, la sécurité et l'efficacité de leur trajectoire ne sont pas les seuls aspects à prendre en compte pour la planification de leur mouvement: ils doivent respecter des règles sociales afin de ne pas gêner les personnes environnantes. Dans un tel contexte social, la plupart des techniques de planification de mouvement actuelles s'appuient fortement sur le concept d'espaces sociaux; de tels espaces sociaux sont cependant difficiles à modéliser et ils sont d'une utilisation limitée dans le contexte d'interactions homme-robot où l'intrusion dans les espaces sociaux est nécessaire. Ce travail présente une nouvelle approche pour la planification de mouvements dans un contexte social qui permet de gérer des environnements complexes ainsi que des situation d’interaction homme-robot. Plus précisément, le concept d'attention est utilisé pour modéliser comment l'influence de l'environnement dans son ensemble affecte la manière dont le mouvement du robot est perçu par les personnes environnantes. Un nouveau modèle attentionnel est introduit qui estime comment nos ressources attentionnelles sont partagées entre les éléments saillants de notre environnement. Basé sur ce modèle, nous introduisons le concept de champ attentionnel. Un planificateur de mouvement est ensuite développé qui s'appuie sur le champ attentionnel afin de produire des mouvements socialement acceptables. Notre planificateur de mouvement est capable d'optimiser simultanément plusieurs objectifs tels que la sécurité, l'efficacité et le confort des mouvements. Les capacités de l'approche proposée sont illustrées sur plusieurs scénarios simulés dans lesquels le robot est assigné différentes tâches. Lorsque la tâche du robot consiste à naviguer dans l'environnement sans causer de distraction, notre approche produit des résultats prometteurs même dans des situations complexes. Aussi, lorsque la tâche consiste à attirer l'attention d'une personne en vue d'interagir avec elle, notre planificateur de mouvement est capable de choisir automatiquement une destination qui exprime au mieux son désir d'interagir, tout en produisant un mouvement sûr, efficace et confortable. / For autonomous mobile robots designed to share their environment with humans, path safety and efficiency are not the only aspects guiding their motion: they must follow social rules so as not to cause discomfort to surrounding people. Most socially-aware path planners rely heavily on the concept of social spaces; however, social spaces are hard to model and they are of limited use in the context of human-robot interaction where intrusion into social spaces is necessary. In this work, a new approach for socially-aware path planning is presented that performs well in complex environments as well as in the context of human-robot interaction. Specifically, the concept of attention is used to model how the influence of the environment as a whole affects how the robot's motion is perceived by people within close proximity. A new computational model of attention is presented that estimates how our attentional resources are shared amongst the salient elements in our environment. Based on this model, the novel concept of attention field is introduced and a path planner that relies on this field is developed in order to produce socially acceptable paths. To do so, a state-of-the-art many-objective optimization algorithm is successfully applied to the path planning problem. The capacities of the proposed approach are illustrated in several case studies where the robot is assigned different tasks. Firstly, when the task is to navigate in the environment without causing distraction our approach produces promising results even in complex situations. Secondly, when the task is to attract a person's attention in view of interacting with him or her, the motion planner is able to automatically choose a destination that best conveys its desire to interact whilst keeping the motion safe, efficient and socially acceptable.
95

Contribution à la synthèse et l’optimisation multi-objectif par essaims particulaires de lois de commande robuste RST de systèmes dynamiques / Contribution to the synthesis and multi-objective particle swarm optimization for robust RST control laws of dynamic systems

Madiouni, Riadh 20 June 2016 (has links)
Ces travaux de recherche portent sur la synthèse systématique et l’optimisation de correcteurs numériques à structure polynomiale RST par approches métaheuristiques. Les problèmes classiques de placement de pôles et de calibrage des fonctions de sensibilité de la boucle fermée RST sont formulés sous forme de problèmes d’optimisation multi-objectif sous contraintes pour lequel des algorithmes métaheuristiques de type NSGA-II, MODE, MOPSO et epsilon-MOPSO sont proposés et adaptés. Deux formulations du problème de synthèse RST ont été proposées. La première approche, formulée dans le domaine temporel, consiste à minimiser des indices de performance, de type ISE et MO, issus de la théorie de la commande optimale et liés essentiellement à la réponse indicielle du système corrigé. Ces critères sont optimisés sous des contraintes non analytiques définis par des gabarits temporels sur la dynamique de la boucle fermée. Dans la deuxième approche de synthèse RST, une formulation dans le domaine fréquentiel est retenue. La stratégie proposée consiste à définir et calculer une fonction de sensibilité de sortie désirée en satisfaisant des contraintes de robustesse de H∞. L’utilisation de parties fixes dans la fonction de sensibilité de sortie désirée assurera un placement partiel des pôles de la boucle fermée RST. L’inverse d’une telle fonction de sensibilité désirée définira le filtre de pondération H∞ associé. Un intérêt particulier est porté à l’approche d’optimisation par essaim particulière PSO pour la résolution des problèmes multi-objectif de commande reformulés. Un algorithme MOPSO à grille adaptative est proposé et puis perfectionné à base des concepts de l’epsilon-dominance. L’algorithme epsilon-MOPSO obtenu a montré, par comparaison avec les algorithmes MOPSO, NSGA-II et MODE, des performances supérieures en termes de diversité des solutions de Pareto et de rapidité en temps de convergence. Des métriques de type distance générationnelle, taux d’erreurs et espacement sont toutefois considérées pour l’analyse statistique des résultats de mise en œuvre obtenus. Une application à la commande en vitesse variable d’un moteur électrique DC est effectuée, également pour la commande en position d’un système de transmission flexible à charges variables. La mise en œuvre par simulations numériques sur les procédés considérés est également présentée dans le but de montrer la validité et l’efficacité de l’approche de commande optimale RST proposée / This research focuses on the systematic synthesis and optimization of digital RST structure based controllers thanks to global metaheuristics approaches. The classic and hard problems of closed-loop poles placement and sensitivity functions shaping of RST control are well formulated as constrained multi-objective problems to be solved with proposed metaheuristics algorithms NSGA-II, MODE, MOPSO and especially epsilon-MOPSO. Two formulations of the metaheuristics-tuned RST problem have been proposed. The first one, which is given in the time domain, deals with the minimization of several performance criteria like the Integral Square Error (ISE) and the Maximum Overshoot (MO) indices. These optimal criteria, related primarily to the step response of the controlled plant, are optimized under non-analytical constraints defined by temporal templates on the closed-loop dynamics. In the second approach, a formulation in the frequency domain is retained. The proposed strategy aims to optimize a desired output sensitivity function satisfying H∞ robustness constraints. The use of a suitable fixed part of the optimized output sensitivity function will provide partial pole placement of the closed-loop dynamics of the digital RST controller. The opposite of such desired sensitivity function will define the associated H∞ weighting filter. The Multi-Objective Particle Swarm Optimization (MOPSO) technique is particularly retained for the resolution of all formulated multi-objective RST control problems. An adaptive grid based MOPSO algorithm is firstly proposed and then improved based on the epsilon-dominance concepts. Such proposed epsilon-MOPSO algorithm, with a good diversity of the provided Pareto solutions and fast convergence time, showed a remarkable superiority compared to the standard MOPSO, NSGA-II and MODE algorithms. Performance metrics, such as generational distance, error rate and spacing, are presented for the statistical analysis of the achieved multi-optimization results. An application to the variable speed RST control of an electrical DC drive is performed, also for the RST position control of a flexible transmission plant with varying loads. Demonstrative simulations and comparisons are carried out in order to show the validity and the effectiveness of the proposed metaheuristics-based tuned RST control approach, which is formulated in the multi-objective optimization framework
96

Contribution à l'optimisation multi-objectif des paramètres de coupe en usinage et apport de l 'analyse vibratoire : application aux matériaux métalliques et composites / Contribution to the multi-objective optimization of cutting parameters in machining and supply of vibration analysis : application to meal and composite materials

Chibane, Hicham 05 April 2013 (has links)
Les procédés de fabrication de pièces mécaniques par enlèvement de matière (tournage, fraisage, perçage, ...) connaissent une utilisation massive dans l’industrie aéronautique et l’automobile. Les pièces obtenues par ces procédés doivent satisfaire à des propriétés géométriques, métallurgiques et à des caractéristiques de qualité. Pour répondre à ces exigences, plusieurs essais expérimentaux basés sur le choix des conditions de coupe sont souvent nécessaires avant d’aboutir à une pièce satisfaisante. Actuellement, ces méthodes empiriques basées sur l’expérience des fabricants et des utilisateurs des outils coupants sont souvent très longues et coûteuses, donnent une large plage de choix des paramètres en fonction de leurs besoins. Toutefois, le coût très élevé d’un essai limite fondamentalement le nombre d’expériences, avoir une pièce respectant les caractéristiques souhaitées avec un coût acceptable devient une tâche difficile. / Manufacturing processes of mechanical parts by removal of material (turning, milling, drilling ...) have extensive use in aeronautic and automobile industry. The components obtained using these methods must satisfy geometric properties, metallurgical and quality characteristics. To meet these requirements, several experimental tests based on the selection of cutting conditions are often necessary before manufacturing. Currently, these empirical methods based on the experience of manufacturers and users of cutting tools (charts, diagrams with experimental findings, ...) are often very lengthy and costly. However, the high cost of a trial limits the number of experiments, so to have a deserted component with an acceptable cost is a difficult task. The importance of cutting conditions monitored by limitations is related to the type of material to be machined, since it determines the behavior of the machining.
97

Multi-objective optimization for Green Supply Chain Management and Design : Application to the orange juice agrofood cluster / Optimisation multi-objectif pour la gestion et la conception d'une chaine logistique verte : Application au cas de la filière agroalimentaire du jus d'orange

Miranda Ackerman, Marco Augusto 05 November 2015 (has links)
La gestion de la chaîne logistique a gagné en maturité depuis l’extension de son champ d’application qui portait sur des problématiques opérationnelles et économiques s’est élargi à des questions environnementales et sociales auxquelles sont confrontées les organisations industrielles actuelles. L’addition du terme «vert» aux activités de la chaîne logistique vise à intégrer une conscience écologique dans tous les processus de la chaîne d'approvisionnement. Le but de ce travail est de développer un cadre méthodologique pour traiter la gestion de la chaîne logistique verte (GrSCM) basée sur une approche d'optimisation multi-objectif, en se focalisant sur la conception, la planification et les opérations de la chaîne agroalimentaire, à travers la mise en oeuvre des principes de gestion et de logistique de la chaîne d'approvisionnement verte. L'étude de cas retenu est la filière du jus d'orange. L'objectif du travail consiste en la minimisation de l'impact environnemental et la maximisation de la rentabilité économique pour des catégories de produits sélectionnés. Ce travail se concentre sur l'application de la GrSCM à deux questions stratégiques fondamentales visant les chaînes d'approvisionnement agroalimentaire. La première est liée au problème de la sélection des fournisseurs en produits « verts » (GSS) pour les systèmes de production agricole et à leur intégration dans le réseau globalisé de la chaîne d'approvisionnement. Le second se concentre sur la conception globale du réseau de la chaîne logistique verte (GSCND). Ces deux sujets complémentaires sont finalement intégrés afin d'évaluer et exploiter les caractéristiques des chaînes d'approvisionnement agro-alimentaire en vue du développement d’un éco-label. La méthodologie est basée sur le couplage entre analyse du cycle de vie (ACV), optimisation multi-objectifs par algorithmes génétiques et technique d’aide à la décision multicritère (de type TOPSIS). L’approche est illustrée et validée par le développement et l'analyse d'une étude de cas de la chaîne logistique de jus d'orange, modélisée comme une chaîne logistique verte (GrSC) à trois échelons composés de la production d’oranges, de leur transformation en jus, puis de leur distribution, chaque échelon étant modélisé de façon plus fine en sous-composants. D’un point de vue méthodologique, le travail a démontré l’intérêt du cadre de modélisation et d’optimisation de GrSC dans le contexte des chaînes d'approvisionnement, notamment pour le développement d’un éco-label dans le domaine de l’agro-alimentaire. Il peut aider les décideurs pour gérer la complexité inhérente aux décisions de conception de la chaîne d'approvisionnement agroalimentaire, induite par la nature multi-objectifs multi-acteurs multi-périodes du problème, empêchant ainsi une prise de décision empirique et segmentée. D’un point de vue expérimental, sous les hypothèses utilisées dans l'étude de cas, les résultats du travail soulignent que si l’on restreint l’éco-label "bio" à l'aspect agricole, seule une faible, voire aucune amélioration sur la performance environnementale de la chaîne d'approvisionnement n’est atteinte. La prise en compte des critères environnementaux pertinents sur l’ensemble du cycle de vie s’avère être une meilleure option pour les stratégies publiques et privées afin de tendre vers des chaînes agro-alimentaires plus durables. / Supply chain and operations management has matured from a field that addressed only operational and economic concerns to one that comprehensively considers the broader environmental and social issues that face industrial organizations of today. Adding the term “green” to supply chain activities seeks to incorporate environmentally conscious thinking in all processes in the supply chain. The aim of this work is to develop a Green Supply Chain (GrSC) framework based on a multi-objective optimization approach, with specific emphasis on agrofood supply chain design, planning and operations through the implementation of appropriate green supply chain management and logistics principles. The case study is the orange juice cluster. The research objective is the minimization of the environmental burden and the maximization of economic profitability of the selected product categories. This work focuses on the application of GrSCM to two fundamental strategic issues targeting agro food supply chains. The former is related to the Green Supplier Selection (GSS) problem devoted to the farming production systems and the way they are integrated into the global supply chain network. The latter focuses on the global Green Supply Chain Network Design (GSCND) as a whole. These two complementary and ultimately integrated strategic topics are framed in order to evaluate and exploit the unique characteristics of agro food supply chains in relation to eco-labeling. The methodology is based on the use of Life Cycle Assessment, Multi-objective Optimization via Genetic Algorithms and Multiple-criteria Decision Making tools (TOPSIS type). The approach is illustrated and validated through the development and analysis of an Orange Juice Supply Chain case study modelled as a three echelon GrSC composed of the supplier, manufacturing and market levels that in turn are decomposed into more detailed subcomponents. Methodologically, the work has shown the development of the modelling and optimization GrSCM framework is useful in the context of eco-labeled agro food supply chain and feasible in particular for the orange juice cluster. The proposed framework can help decision makers handle the complexity that characterizes agro food supply chain design decision and that is brought on by the multi-objective and multi-period nature of the problem as well as by the multiple stakeholders, thus preventing to make the decision in a segmented empirical manner. Experimentally, under the assumptions used in the case study, the work highlights that by focusing only on the “organic” eco-label to improve the agricultural aspect, low to no improvement on overall supply chain environmental performance is reached in relative terms. In contrast, the environmental criteria resulting from a full lifecycle approach is a better option for future public and private policies to reach more sustainable agro food supply chains.
98

Optimisation multi-objectif sous incertitudes de phénomènes de thermique transitoire / Multi-objective optimization under uncertainty of transient thermal phenomena

Guerra, Jonathan 20 October 2016 (has links)
L'objectif de cette thèse est la résolution d’un problème d’optimisation multi-objectif sous incertitudes en présence de simulations numériques coûteuses. Une validation est menée sur un cas test de thermique transitoire. Dans un premier temps, nous développons un algorithme d'optimisation multi-objectif basé sur le krigeage nécessitant peu d’appels aux fonctions objectif. L'approche est adaptée au calcul distribué et favorise la restitution d'une approximation régulière du front de Pareto complet. Le problème d’optimisation sous incertitudes est ensuite étudié en considérant des mesures de robustesse pires cas et probabilistes. Le superquantile intègre tous les évènements pour lesquels la valeur de la sortie se trouve entre le quantile et le pire cas mais cette mesure de risque nécessite un grand nombre d’appels à la fonction objectif incertaine pour atteindre une précision suffisante. Peu de méthodes permettent de calculer le superquantile de la distribution de la sortie de fonctions coûteuses. Nous développons donc un estimateur du superquantile basé sur une méthode d'échantillonnage préférentiel et le krigeage. Il permet d’approcher les superquantiles avec une faible erreur et une taille d’échantillon limitée. De plus, un couplage avec l’algorithme multi-objectif permet la réutilisation des évaluations. Dans une dernière partie, nous construisons des modèles de substitution spatio-temporels capables de prédire des phénomènes dynamiques non linéaires sur des temps longs et avec peu de trajectoires d’apprentissage. Les réseaux de neurones récurrents sont utilisés et une méthodologie de construction facilitant l’apprentissage est mise en place. / This work aims at solving multi-objective optimization problems in the presence of uncertainties and costly numerical simulations. A validation is carried out on a transient thermal test case. First of all, we develop a multi-objective optimization algorithm based on kriging and requiring few calls to the objective functions. This approach is adapted to the distribution of the computations and favors the restitution of a regular approximation of the complete Pareto front. The optimization problem under uncertainties is then studied by considering the worst-case and probabilistic robustness measures. The superquantile integrates every event on which the output value is between the quantile and the worst case. However, it requires an important number of calls to the uncertain objective function to be accurately evaluated. Few methods give the possibility to approach the superquantile of the output distribution of costly functions. To this end, we have developed an estimator based on importance sampling and kriging. It enables to approach superquantiles with little error and using a limited number of samples. Moreover, the setting up of a coupling with the multi-objective algorithm allows to reuse some of those evaluations. In the last part, we build spatio-temporal surrogate models capable of predicting non-linear, dynamic and long-term in time phenomena by using few learning trajectories. The construction is based on recurrent neural networks and a construction facilitating the learning is proposed.
99

Local Search, data structures and Monte Carlo Search for Multi-Objective Combinatorial Optimization Problems / Recherche Locale, structures de données et Recherche Monte-Carlo pour les problèmes d'optimisation combinatoire Multi-Objectif

Cornu, Marek 18 December 2017 (has links)
De nombreux problèmes d'optimisation combinatoire considèrent plusieurs objectifs, souvent conflictuels. Cette thèse s'intéresse à l'utilisation de méthodes de recherche locale, de structures de données et de recherche Monte-Carlo pour la recherche de l'ensemble des solutions efficaces de tels problèmes, représentant l'ensemble des meilleurs compromis pouvant être réalisés en considération de tous les objectifs.Nous proposons une nouvelle méthode d'approximation appelée 2-Phase Iterated Pareto Local Search based on Decomposition (2PIPLS/D) combinant les concepts de recherche locale Pareto (PLS) et de décomposition. La PLS est une descente de recherche locale adaptée au multi-objectif, et la décomposition consiste en la subdivision du problème multi-objectif en plusieurs problèmes mono-objectif. Deux méthodes d'optimisation mono-objectif sont considérées: la recherche locale itérée et la recherche Monte-Carlo imbriquée. Deux modules principaux sont intégrés à 2PIPLS/D. Le premier généralise et améliore une méthode existante et génère un ensemble initial de solutions. Le second réduit efficacement l'espace de recherche et permet d'accélérer la PLS sans négliger la qualité de l'approximation générée. Nous introduisons aussi deux nouvelles structures de données gérant dynamiquement un ensemble de solutions incomparables, la première est spécialisée pour le cas bi-objectif et la seconde pour le cas général.2PIPLS/D est appliquée au Problème du Voyageur de Commerce bi-objectif et tri-objectif et surpasse ses concurrents sur les instances testées. Ensuite, 2PIPLS/D est appliquée à un nouveau problème avec cinq objectifs en lien avec la récente réforme territoriale d'agrandissement des régions françaises. / Many Combinatorial Optimization problems consider several, often conflicting, objectives. This thesis deals with Local Search, data structures and Monte Carlo Search methods for finding the set of efficient solutions of such problems, which is the set of all best possible trade-offs given all the objectives.We propose a new approximation method called 2-Phase Iterated Pareto Local Search based on Decomposition (2PIPLS/D) combining the notions of Pareto Local Search (PLS) and Decomposition. PLS is a local search descent adapted to Multi-Objective spaces, and Decomposition consists in the subdivision of the Multi-Objective problem into a number of Single-Objective problems. Two Single-Objective methods are considered: Iterated Local Search and Nested Monte Carlo Search. Two main components are embedded within the 2PIPLS/D framework. The first one generalizes and improves an existing method generating an initial set of solutions. The second one reduces efficiently the search space and accelerates PLS without notable impact on the quality of the generated approximation. We also introduce two new data structures for dynamically managing a set of incomparable solutions. The first one is specialized for the bi-objective case, while the second one is general.2PIPLS/D is applied to the bi-objective and tri-objective Traveling Salesman Problem and outperforms its competitors on tested instances. Then, 2PIPLS/D is instantiated on a new five-objective problem related to the recent territorial reform of French regions which resulted in the reassignment of departments to new larger regions.
100

Towards using intelligent techniques to assist software specialists in their tasks

Ben Sghaier, Oussama 11 1900 (has links)
L’automatisation et l’intelligence constituent des préoccupations majeures dans le domaine de l’Informatique. Avec l’évolution accrue de l’Intelligence Artificielle, les chercheurs et l’industrie se sont orientés vers l’utilisation des modèles d’apprentissage automatique et d’apprentissage profond pour optimiser les tâches, automatiser les pipelines et construire des systèmes intelligents. Les grandes capacités de l’Intelligence Artificielle ont rendu possible d’imiter et même surpasser l’intelligence humaine dans certains cas aussi bien que d’automatiser les tâches manuelles tout en augmentant la précision, la qualité et l’efficacité. En fait, l’accomplissement de tâches informatiques nécessite des connaissances, une expertise et des compétences bien spécifiques au domaine. Grâce aux puissantes capacités de l’intelligence artificielle, nous pouvons déduire ces connaissances en utilisant des techniques d’apprentissage automatique et profond appliquées à des données historiques représentant des expériences antérieures. Ceci permettra, éventuellement, d’alléger le fardeau des spécialistes logiciel et de débrider toute la puissance de l’intelligence humaine. Par conséquent, libérer les spécialistes de la corvée et des tâches ordinaires leurs permettra, certainement, de consacrer plus du temps à des activités plus précieuses. En particulier, l’Ingénierie dirigée par les modèles est un sous-domaine de l’informatique qui vise à élever le niveau d’abstraction des langages, d’automatiser la production des applications et de se concentrer davantage sur les spécificités du domaine. Ceci permet de déplacer l’effort mis sur l’implémentation vers un niveau plus élevé axé sur la conception, la prise de décision. Ainsi, ceci permet d’augmenter la qualité, l’efficacité et productivité de la création des applications. La conception des métamodèles est une tâche primordiale dans l’ingénierie dirigée par les modèles. Par conséquent, il est important de maintenir une bonne qualité des métamodèles étant donné qu’ils constituent un artéfact primaire et fondamental. Les mauvais choix de conception, ainsi que les changements conceptuels répétitifs dus à l’évolution permanente des exigences, pourraient dégrader la qualité du métamodèle. En effet, l’accumulation de mauvais choix de conception et la dégradation de la qualité pourraient entraîner des résultats négatifs sur le long terme. Ainsi, la restructuration des métamodèles est une tâche importante qui vise à améliorer et à maintenir une bonne qualité des métamodèles en termes de maintenabilité, réutilisabilité et extensibilité, etc. De plus, la tâche de restructuration des métamodèles est délicate et compliquée, notamment, lorsqu’il s’agit de grands modèles. De là, automatiser ou encore assister les architectes dans cette tâche est très bénéfique et avantageux. Par conséquent, les architectes de métamodèles pourraient se concentrer sur des tâches plus précieuses qui nécessitent de la créativité, de l’intuition et de l’intelligence humaine. Dans ce mémoire, nous proposons une cartographie des tâches qui pourraient être automatisées ou bien améliorées moyennant des techniques d’intelligence artificielle. Ensuite, nous sélectionnons la tâche de métamodélisation et nous essayons d’automatiser le processus de refactoring des métamodèles. A cet égard, nous proposons deux approches différentes: une première approche qui consiste à utiliser un algorithme génétique pour optimiser des critères de qualité et recommander des solutions de refactoring, et une seconde approche qui consiste à définir une spécification d’un métamodèle en entrée, encoder les attributs de qualité et l’absence des design smells comme un ensemble de contraintes et les satisfaire en utilisant Alloy. / Automation and intelligence constitute a major preoccupation in the field of software engineering. With the great evolution of Artificial Intelligence, researchers and industry were steered to the use of Machine Learning and Deep Learning models to optimize tasks, automate pipelines, and build intelligent systems. The big capabilities of Artificial Intelligence make it possible to imitate and even outperform human intelligence in some cases as well as to automate manual tasks while rising accuracy, quality, and efficiency. In fact, accomplishing software-related tasks requires specific knowledge and skills. Thanks to the powerful capabilities of Artificial Intelligence, we could infer that expertise from historical experience using machine learning techniques. This would alleviate the burden on software specialists and allow them to focus on valuable tasks. In particular, Model-Driven Engineering is an evolving field that aims to raise the abstraction level of languages and to focus more on domain specificities. This allows shifting the effort put on the implementation and low-level programming to a higher point of view focused on design, architecture, and decision making. Thereby, this will increase the efficiency and productivity of creating applications. For its part, the design of metamodels is a substantial task in Model-Driven Engineering. Accordingly, it is important to maintain a high-level quality of metamodels because they constitute a primary and fundamental artifact. However, the bad design choices as well as the repetitive design modifications, due to the evolution of requirements, could deteriorate the quality of the metamodel. The accumulation of bad design choices and quality degradation could imply negative outcomes in the long term. Thus, refactoring metamodels is a very important task. It aims to improve and maintain good quality characteristics of metamodels such as maintainability, reusability, extendibility, etc. Moreover, the refactoring task of metamodels is complex, especially, when dealing with large designs. Therefore, automating and assisting architects in this task is advantageous since they could focus on more valuable tasks that require human intuition. In this thesis, we propose a cartography of the potential tasks that we could either automate or improve using Artificial Intelligence techniques. Then, we select the metamodeling task and we tackle the problem of metamodel refactoring. We suggest two different approaches: A first approach that consists of using a genetic algorithm to optimize set quality attributes and recommend candidate metamodel refactoring solutions. A second approach based on mathematical logic that consists of defining the specification of an input metamodel, encoding the quality attributes and the absence of smells as a set of constraints and finally satisfying these constraints using Alloy.

Page generated in 0.0557 seconds