241 |
Optimisation convexe non-différentiable et méthodes de décomposition en recherche opérationnelle / Convex nonsmooth optimization and decomposition methods in operations researchZaourar, Sofia 04 November 2014 (has links)
Les méthodes de décomposition sont une application du concept de diviser pour régner en optimisation. L'idée est de décomposer un problème d'optimisation donné en une séquence de sous-problèmes plus faciles à résoudre. Bien que ces méthodes soient les meilleures pour un grand nombre de problèmes de recherche opérationnelle, leur application à des problèmes réels de grande taille présente encore de nombreux défis. Cette thèse propose des améliorations méthodologiques et algorithmiques de méthodes de décomposition. Notre approche est basée sur l'analyse convexe et l'optimisation non-différentiable. Dans la décomposition par les contraintes (ou relaxation lagrangienne) du problème de planification de production électrique, même les sous-problèmes sont trop difficiles pour être résolus exactement. Mais des solutions approchées résultent en des prix instables et chahutés. Nous présentons un moyen simple d'améliorer la structure des prix en pénalisant leurs oscillations, en utilisant en particulier une régularisation par variation totale. La consistance de notre approche est illustrée sur des problèmes d'EDF. Nous considérons ensuite la décomposition par les variables (ou de Benders) qui peut avoir une convergence excessivement lente. Avec un point de vue d'optimisation non-différentiable, nous nous concentrons sur l'instabilité de l'algorithme de plans sécants sous-jacent à la méthode. Nous proposons une stabilisation quadratique de l'algorithme de Benders, inspirée par les méthodes de faisceaux en optimisation convexe. L'accélération résultant de cette stabilisation est illustrée sur des problèmes de conception de réseau et de localisation de plates-formes de correspondance (hubs). Nous nous intéressons aussi plus généralement aux problèmes d'optimisation convexe non-différentiable dont l'objectif est coûteux à évaluer. C'est en particulier une situation courante dans les procédures de décomposition. Nous montrons qu'il existe souvent des informations supplémentaires sur le problème, faciles à obtenir mais avec une précision inconnue, qui ne sont pas utilisées dans les algorithmes. Nous proposons un moyen d'incorporer ces informations incontrôlées dans des méthodes classiques d'optimisation convexe non-différentiable. Cette approche est appliquée avec succès à desproblèmes d'optimisation stochastique. Finalement, nous introduisons une stratégie de décomposition pour un problème de réaffectation de machines. Cette décomposition mène à une nouvelle variante de problèmes de conditionnement vectoriel (vectorbin packing) où les boîtes sont de taille variable. Nous proposons des heuristiques efficaces pour ce problème, qui améliorent les résultats de l'état de l'art du conditionnement vectoriel. Une adaptation de ces heuristiques permet de construire des solutions réalisables au problème de réaffectation de machines de Google. / Decomposition methods are an application of the divide and conquer principle to large-scale optimization. Their idea is to decompose a given optimization problem into a sequence of easier subproblems. Although successful for many applications, these methods still present challenges. In this thesis, we propose methodological and algorithmic improvements of decomposition methods and illustrate them on several operations research problems. Our approach heavily relies on convex analysis and nonsmooth optimization. In constraint decomposition (or Lagrangian relaxation) applied to short-term electricity generation management, even the subproblems are too difficult to solve exactly. When solved approximately though, the obtained prices show an unstable noisy behaviour. We present a simple way to improve the structure of the prices by penalizing their noisy behaviour, in particular using a total variation regularization. We illustrate the consistency of our regularization on real-life problems from EDF. We then consider variable decomposition (or Benders decomposition), that can have a very slow convergence. With a nonsmooth optimization point of view on this method, we address the instability of Benders cutting-planes algorithm. We present an algorithmic stabilization inspired by bundle methods for convex optimization. The acceleration provided by this stabilization is illustrated on network design andhub location problems. We also study more general convex nonsmooth problems whose objective function is expensive to evaluate. This situation typically arises in decomposition methods. We show that it often exists extra information about the problem, cheap but with unknown accuracy, that is not used by the algorithms. We propose a way to incorporate this coarseinformation into classical nonsmooth optimization algorithms and apply it successfully to two-stage stochastic problems.Finally, we introduce a decomposition strategy for the machine reassignment problem. This decomposition leads to a new variant of vector bin packing problems, where the bins have variable sizes. We propose fast and efficient heuristics for this problem that improve on state of the art results of vector bin packing problems. An adaptation of these heuristics is also able to generate feasible solutions for Google instances of the machine reassignment problem.
|
242 |
On operational properties of quantitative extensions of lambda-calculusAlberti, Michele 05 December 2014 (has links)
Cette thèse porte sur les propriétés opérationnelles de deux extensions quantitatives du λ-calcul pur : le λ-calcul algébrique et le λ-calcul probabiliste.Dans la première partie, nous étudions la théorie de la β-réduction dans le λ-calcul algébrique. Ce calcul permet la formation de combinaisons linéaires finies de λ-termes. Bien que le système obtenu jouisse de la propriété de Church-Rosser, la relation de réduction devient triviale en présence de coefficients négatifs, ce qui la rend impropre à définir une notion de forme normale. Nous proposons une solution qui permet la définition d'une relation d'équivalence sur les termes, partielle mais cohérente. Nous introduisons une variante de la β-réduction, restreinte aux termes canoniques, dont nous montrons qu'elle caractérise en partie la notion de forme normale précédemment établie, démontrant au passage un théorème de factorisation.Dans la seconde partie, nous étudions la bisimulation et l'équivalence contextuelle dans un λ-calcul muni d'un choix probabliste. Nous donnons une technique pour établir que la bisimilarité applicative probabiliste est une congruence. Bien que notre méthode soit adaptée de celle de Howe, certains points techniques sont assez différents, et s'appuient sur des propriétés non triviales de « désintrication » sur les ensembles de nombres réels. Nous démontrons finalement que, bien que la bisimilarité soit en général strictement plus fine que l'équivalence contextuelle, elles coïncident sur les λ-termes purs. L'égalité correspondante est celle induite par les arbres de Lévy-Longo, généralement considérés comme l'équivalence extensionnelle la plus fine pour les λ-termes en évaluation paresseuse. / In this thesis we deal with the operational behaviours of two quantitative extensions of pure λ-calculus, namely the algebraic λ-calculus and the probabilistic λ-calculus.In the first part, we study the β-reduction theory of the algebraic λ-calculus, a calculus allowing formal finite linear combinations of λ-terms to be expressed. Although the system enjoys the Church-Rosser property, reduction collapses in presence of negative coefficients. We exhibit a solution to the consequent loss of the notion of (unique) normal form, allowing the definition of a partial, but consistent, term equivalence. We then introduce a variant of β-reduction defined on canonical terms only, which we show partially characterises the previously established notion of normal form. In the process, we prove a factorisation theorem.In the second part, we study bisimulation and context equivalence in a λ-calculus endowed with a probabilistic choice. We show a technique for proving congruence of probabilistic applicative bisimilarity. While the technique follows Howe's method, some of the technicalities are quite different, relying on non-trivial "disentangling" properties for sets of real numbers. Finally we show that, while bisimilarity is in general strictly finer than context equivalence, coincidence between the two relations is achieved on pure λ-terms. The resulting equality is that induced by Lévy-Longo trees, generally accepted as the finest extensional equivalence on pure λ-terms under a lazy regime.
|
243 |
Modèles et méthodes pour la gestion logistique optimisée dans le domaine des services et de la santé / Models and optimization approaches for logistic problems in health care systems and services sectorAit Haddadene, Syrine Roufaida 30 September 2016 (has links)
Cette thèse aborde le problème de tournées de véhicules (VRP) intégrant des contraintes temporelles : fenêtres de temps (TW), synchronisation (S) et précédence (P), appliqué au secteur de soins à domicile, donnant le VRPTW-SP. Il s’agit d’établir un plan de visite journalier des soignants, aux domiciles des patients ayant besoin d’un ou plusieurs services. Tout d’abord, nous avons abordé ce problème sous angle mono-objectif. Ensuite, le cas bi-objectif est considéré. Pour la version mono-objectif, un Programme Linéaire à Variables Mixtes Entières (PLME), deux heuristiques constructives, deux procédures de recherches locales et trois métaheuristiques à base de voisinages sont proposés : une procédure de recherche constructive adaptative randomisée (GRASP), une recherche locale itérée (ILS) et une approche hybride (GRASP × ILS). Concernant le cas bi-objectif, différentes versions de métaheuristiques évolutionnaires multi-objectifs sont proposées, intégrant différentes recherches locales : l’algorithme génétique avec tri par non-dominance version 2 (NSGAII), une version généralisée de ce dernier avec démarrages multiples (MS-NSGAII) et une recherche locale itérée avec tri par non-dominance (NSILS). Ces algorithmes ont été testés et validés sur des instances adaptées de la littérature. Enfin, nous avons étendu le VRPTW-SP sur un horizon de planification, donnant le VRPTW-SP multi-période. Pour résoudre cette extension, un PLME ainsi qu’une matheuristique sont proposés / This work addresses the vehicle routing problem (VRP) including timing constraints: time windows (TW), synchronization (S) and precedence (P), applied in Home Health Care sector; giving the VRPTW-SP. This problem consists in establishing a daily caregivers planning to patients' homes asking for one or several services. We have started by considering the problem as a single objective case. Then, a bi-objective version of the problem is introduced. For solving the single-objective problem, a Mixed Integer Linear Program (MILP), two constructive heuristics, local search procedures and three local search based metaheuristics are proposed : a Greedy Randomized Adaptive Search procedure (GRASP), an Iterated Local Search (ILS) and a hybrid approach (GRASP × ILS). Regarding the bi-objective VRPTW-SP, different versions of multi-objective evolutionary algorithm, including various local research strategies are proposed: the Non-dominated Sorting Genetic Algorithm version 2 (NSGAII), a generalized version of this latter with multiple restarts (MS-NSGAII) and an Iterated Local Search combined with the Non-dominated Sorting concept (NSILS). All these algorithms have been tested and validated on appropriate instances adapted from the literature. Finally, we extended the VRPTW-SP on a multi-period planning horizon and then proposed a MILP and a matheuristic approach
|
244 |
Gestion des flux énergétiques dans un système hybride de sources d’énergie renouvelable : Optimisation de la planification opérationnelle et ajustement d’un micro réseau électrique urbain / Energy management of a hybrid power system including renewable energy based generators : Optimization of the operational planning and the daily adjustment for an urban micro gridKanchev, Hristiyan 24 January 2014 (has links)
L’objectif est de développer un algorithme de gestion énergétique d’un parc de production comprenant de la production distribuée sous forme de micro turbines à gaz et de générateurs PV pilotables dits «actifs » en vue de minimiser le coût économique et environnemental. Les principes généraux de la production d’électricité à base d’énergie renouvelable et non renouvelable sont d’abord présentés et le fonctionnement actuel des réseaux électriques est rappelé pour situer les innovations attendues dans les futurs réseaux dits intelligents. Ensuite, un algorithme de suivi du point de puissance maximale et de puissance limitée dans un générateur actif PV est présenté. La modélisation des micro-turbines à gaz est aussi présentée. La contribution principale concerne la conception d’une planification opérationnelle des moyens de production la veille pour le lendemain à partir de prédictions de la charge et de la production PV en utilisant une programmation dynamique adaptée. La méthode proposée prédétermine le profil de production des générateurs de manière à réaliser une optimisation globale d’une fonction objective pour un réseau électrique urbain. Pour l’exploitation, un algorithme d’ajustement est proposé et intervient toutes les ½ heures de manière à prendre en compte les déviations par rapport aux prédictions en utilisant un réseau de communication. Un micro réseau urbain est utilisé pour tester les algorithmes de gestion implantés dans un superviseur interfacé à un simulateur temps réel. Des comparaisons dans des situations identiques avec différentes fonctions objectives sont réalisées ainsi que des évaluations économiques et environnementales à l’aide d’indicateurs / The presented research works aim to develop an energy management system for a cluster of distributed micro gas turbines and controllable PV generators called «active generators». The general principles of electricity generation from renewable and non-renewable energy sources are first presented. The operation of actual electric grids is also recalled in order to highlight the challenges and expected innovations in future Smart Grids. Then, the integration of a novel method for maximum and limited power point tracking in a PV-based active generator is presented. The modeling of micro-gas turbines in a microgrid energy management system is also presented. The main contribution of this thesis concerns the design of an operational planning of generators one day ahead by the means of a dynamic programming-based algorithm, taking into account the PV power production and the consumption forecasts. The proposed method calculates the production planning of generators by performing a global optimization of an objective function. An adjustment algorithm is proposed and executed every ½ hours through a communication network in order to take into account the uncertainty in forecasted values. An urban microgrid is used for testing the developed algorithms through Supervisory Control and Data Acquisition (SCADA) with hardware-in-the-loop and real-time simulations. Comparisons of the microgrid operation in identical situations with different objective functions are performed, as well as evaluations of economic and environmental indicators
|
245 |
Valorisation enzymatique des huiles végétalesSeverac, Etienne 21 October 2010 (has links)
Cette étude a porté sur le développement de procédés continus performants de production d’esters à partir de l’huile de tournesol hautement oléique vierge ou raffinée en réacteurs enzymatiques à lit fixe, très productifs et stables dans le temps. Un procédé de transestérification continue en réacteur à lit fixe utilisant Novozyme 435 (lipase B de candida antarctica immobilisée sur Lewatit VP OC 1600), biocatalyseur non régio-spécifique, a été optimisé pour transformer de l’huile vierge de tournesol hautement oléique en esters butyliques. Les phénomènes de partition des composés polaires (phospholipides présents initialement dans l’huile, du glycérol co-produits etc.) entre milieu réactionnel et support enzymatique ont été gérés grâce à l’utilisation de tert-butanol, un solvant polaire. Les conditions assurant le meilleur compromis entre stabilité, productivité et rendements de production d’esters ont été obtenues pour une concentration initiale en huile de 500mM et un rapport molaire entre substrats de 5. De telles conditions permettent une productivité de 13,8 tonnes.an-1.kg de Novozyme 435-1. Le réacteur ainsi dimensionné s’est avéré stable pendant 50 jours consécutifs sans aucune perte d’activité, permettant de minimiser le coût élevé de l’enzyme. L’originalité du procédé est l’utilisation d’huiles vierges contenant des antioxydants naturels (phospholipides, tocophérols etc.). Nous avons démontré que ces composés mineurs sont préservés au cours du procédé de transestérification. Cela confère aux esters formés de remarquables propriétés de résistances à l’oxydation.La pertinence économique du procédé a été améliorée grâce au développement d’un nouveau biocatalyseur sur support hydrophobe (l’Accurel MP) permettant d’éviter toute adsorption de composés polaires. Une analyse économique du procédé (maximisation de la valeur nette actualisée) a permis de rationaliser les conditions optimales d’immobilisation. Une économie de l’ordre de 50% sur les coûts générés tout au long du temps de vie du procédé a pu ainsi être obtenue. En conditions de transestérification continue, aucune différence dans le profil de produits par rapport à Novozyme 435 n’a été observée. Finalement, une alternative à la transestérification directe de l‘huile a été envisagée. Une première phase d’hydrolyse de l’huile est suivie d’un procédé de récupération des acides gras qui sont dans un second temps estérifiés enzymatiquement. Pour réaliser cette dernière étape, le meilleur système réactionnel s’est avéré être le milieu sans solvant. Un réacteur continu d’estérification de l’acide oléique avec l’isobutanol a été optimisé. Cela a permis un réacteur stable pendant 54 jours consécutifs et respectant les critères des biotechnologies blanches. Une productivité annuelle de 126 tonnes.kg de Novozyme 435-1 a été atteinte. Cela représente une amélioration de la productivité d’un facteur 9,2 par rapport au procédé de transestérification développée précédemment / This work focused on the development of efficient continuous processes for the production of esters from crude or refined high oleic sunflower oil with enzymatic packed bed reactor presenting high levels of productivity and stability. A process of continuous transesterification in packed bed reactor using Novozyme 435 (lipase B from Candida antarctica immobilized onto Lewatit VP OC 1600), a non-specific biocatalyst, was optimized to transformation of high-oleic sunflower oil into butylic esters. The phenomena of partition of polar compounds (phospholipids found in crude oils, produced glycerol etc.) between the reaction medium and the enzymatic support were managed using tert-butanol, a polar solvent. The conditions that enabled the best compromise between stability, productivity and production yields were obtained with an initial oil concentration of 500 mM and a molar ratio between co-substrates of 5. Such conditions enabled a productivity of 13.8 tons.kg-1.kg of Novozyme 435-1 to be reached. The reactor exhibited great stability for 50 consecutive days without any loss of activity. That enabled to minimize the high costs of the enzyme. The novelty of the process was the use of crude oils, containing high levels of natural antioxidants (phospholipids, tocopherols etc.). We demonstrated that these minor components of oils were preserved during the transesterification process. It conferred the synthesized esters some remarkable properties of oxidative resistance.The economic relevance of the process was improved thanks to the development of a new biocatalyst onto a very hydrophobic support (Accurel MP) in order to avoid any adsorptions of polar compounds. An economic analysis (maximisation of the net present value) enabled to rationalize the optimal immobilisation conditions. Over the whole process, it enabled a 50% saving on the global expenses.__ In continuous transesterification conditions, no difference in the product profile was noticed between the new biocatalyst and Novozyme 435.Finally, an alternative to direct transesterification of oil was considered. A first stage of oil hydrolysis is followed by a process of fatty acid recovery and a stage of enzymatic esterification into esters. In order to realize/complete this last stage, the best reaction system was a solvent-free medium. A continuous reactor for the esterification of oleic acid with isobutanol was optimized. It enabled a reactor stable/a stable reactor for 54 consecutive days, respecting the conditions of white biotechnologies. An annual productivity of 126 tons.year-1.kg of Novozyme 435-1 was reached. That represented a productivity improvement by a factor of 9.2 in comparison with the transesterification process.
|
246 |
Chance-Constrained Programming Approaches for Staffing and Shift-Scheduling Problems with Uncertain Forecasts : application to Call Centers / Approches de programmation en contraintes en probabilité pour les problèmes de dimensionnement et planification avec incertitude de la demande : application aux centres d'appelsExcoffier, Mathilde 30 September 2015 (has links)
Le problème de dimensionnement et planification d'agents en centre d'appels consiste à déterminer sur une période le nombre d'interlocuteurs requis afin d'atteindre la qualité de service exigée et minimiser les coûts induits. Ce sujet fait l'objet d'un intérêt croissant pour son intérêt théorique mais aussi pour l'impact applicatif qu'il peut avoir. Le but de cette thèse est d'établir des approches en contraintes en probabilités en considérant l'incertitude de la demande.Tout d'abord, la thèse présente un modèle en problème d'optimisation stochastique avec contrainte en probabilité jointe traitant la problématique complète en une étape afin d'obtenir un programme facile à résoudre. Une approche basée sur l'idée de continuité est proposée grâce à des lois de probabilité continues, une nouvelle relation entre les taux d'arrivées et les besoins théoriques et la linéarisation de contraintes. La répartition du risque global est faite pendant le processus d'optimisation, permettant une solution au coût réduit. Ces solutions résultantes respectent le niveau de risque tout en diminuant le coût par rapport à d'autres approches.De plus, le modèle en une étape est étendu pour améliorer sa représentation de la réalité. D'une part, le modèle de file d'attente est amélioré et inclus la patience limitée des clients. D'autre part, une nouvelle expression de l'incertitude est proposée pour prendre la dépendance des périodes en compte.Enfin, une nouvelle représentation de l'incertitude est considérée. L'approche distributionally robust permet de modéliser le problème sous l'hypothèse que la loi de probabilité adéquate est inconnue et fait partie d'un ensemble de lois, défini par une moyenne et une variance données. Le problème est modélisé par une contrainte en probabilité jointe. Le risque à chaque période est définie par une variable à optimiser.Un problème déterministe équivalent est proposé et des approximations linéaires permettent d'obtenir une formulation d'optimisation linéaire. / The staffing and shift-scheduling problems in call centers consist in deciding how many agents handling the calls should be assigned to work during a given period in order to reach the required Quality of Service and minimize the costs. These problems are subject to a growing interest, both for their interesting theoritical formulation and their possible applicative effects. This thesis aims at proposing chance-constrained approaches considering uncertainty on demand forecasts.First, this thesis proposes a model solving the problems in one step through a joint chance-constrained stochastic program, providing a cost-reducing solution. A continuous-based approach leading to an easily-tractable optimization program is formulated with random variables following continuous distributions, a new continuous relation between arrival rates and theoritical real agent numbers and constraint linearizations. The global risk level is dynamically shared among the periods during the optimization process, providing reduced-cost solution. The resulting solutions respect the targeted risk level while reducing the cost compared to other approaches.Moreover, this model is extended so that it provides a better representation of real situations. First, the queuing system model is improved and consider the limited patience of customers. Second, another formulation of uncertainty is proposed so that the period correlation is considered.Finally, another uncertainty representation is proposed. The distributionally robust approach provides a formulation while assuming that the correct probability distribution is unknown and belongs to a set of possible distributions defined by given mean and variance. The problem is formulated with a joint chance constraint. The risk at each period is a decision variable to be optimized. A deterministic equivalent problem is proposed. An easily-tractable mixed-integer linear formulation is obtained through piecewise linearizations.
|
247 |
Identification et modélisation du comportement dynamique des robots d'usinage / Identification and modeling of machining robots' dynamic behaviorMejri, Seifeddine 08 April 2016 (has links)
La robotisation des procédés d’usinage suscite l’intérêt des industriels en raison du grand espace de travail et le faible coût des robots par rapport aux machines-outils conventionnelles et la possibilité d’usiner des pièces de formes complexes. Cependant, la faible rigidité de la structure robotique favorise le déclenchement de phénomènes dynamiques liés à l’usinage sollicitant le robot en bout de l’outil qui dégradent la qualité de surface de la pièce usinée. L’objectif de ces travaux de thèse est de caractériser le comportement dynamique des robots en usinage. Ces travaux ont suivi une démarche en trois étapes : La modélisation d’un premier modèle considéré de référence où le robot est au repos. Ensuite l’identification du comportement dynamique du robot en service. Enfin, l’exploitation des modèles dynamiques du robot en vue de prédire la stabilité de coupe. L’originalité de ces travaux porte sur le développement des méthodes d’identification modale opérationnelles. Elles permettent d’intégrer les conditions réelles d’usinage et d’élaborer des modèles plus précis que le premier modèle de connaissance sans être biaisés par l’effet des harmoniques de rotation de l’outil. Enfin, des préconisations sur le choix de configurations du robot et sur la direction des forces d’excitation sont proposées pour assurer la stabilité de la coupe lors de l’usinage robotisé. / Machining robots have major advantages over cartesian machine tools because of their flexibility, their ability to reach inaccessible areas on a complex part, and their important workspace. However, their lack of rigidity and precision is still a limit for precision tasks. The stresses generated by the cutting forces and inertia are important and cause static and dynamic deformations of the structure which result in problems of workpiece surface. The aim of the thesis work is to characterize the dynamic behavior of robots during machining operation. This work followed a three-step approach : Modeling a first model considered as a reference where the robot is at rest. Then the identification of the dynamic behavior in service. Finally, the prediction of the cutting stability using the robot dynamic model. The originality of this work is the development of new operational modal identification methods. They integrate the machining conditions and result into a more accurate model than the first model of reference without being biased by harmonics. Finally, guidlines of robot’s configurations and excitation forces’ direction are proposed to ensure the robotic machining stability.
|
248 |
Méta-enseignement : génération active d’exemples par apprentissage par renforcementLarocque, Stéphanie 05 1900 (has links)
Le problème d’intérêt est un problème d’optimisation discrète dont on tente d’approximer les
solutions des instances particulières à l’aide de réseaux de neurones. Un obstacle à résoudre ce
problème par apprentissage automatique réside dans le coût d’étiquettage élevé (et variable)
des différentes instances, rendant coûteuse et difficile la génération d’un ensemble de données
étiquettées. On propose une architecture d’apprentissage actif, qu’on nomme architecture de
méta-enseignement, dans le but de pallier à ce problème. On montre comment on combine
plusieurs modèles afin de résoudre ce problème d’apprentissage actif, formulé comme un
problème de méta-apprentissage, en utilisant un agent d’apprentissage par renforcement
pour la génération active d’exemples. Ainsi, on utilise des concepts de plusieurs domaines
de l’apprentissage automatique dont des notions d’apprentissage supervisé, d’apprentissage
actif, d’apprentissage par renforcement, ainsi que des réseaux récurrents. Dans ce travail
exploratoire, on évalue notre méthodologie sur un problème simple, soit celui de classifier
des mains de poker en 10 classes pré-établies. On teste notre architecture sur ce problème
jouet dans le but de simplifier l’analyse. Malheureusement, l’avantage d’utiliser l’architecture
de génération active n’est pas significatif. On expose ensuite plusieurs pistes de réflexion
sur certaines observations à approfondir dans de futurs travaux, comme la définition de la
fonction de récompense. Dans de futurs projets, il serait également intéressant d’utiliser un
problème plus similaire au problème d’optimisation initial qui comporterait, entre autres,
des coûts d’étiquettage variables. / The motivating application behind this architecture is a discrete optimisation problem
whose solution we aim to predict using neural networks. A main challenge of solving this
problem by machine learning lies in the high (and variable) labelling cost associated to
the various instances, which leads to an expensive and difficult dataset generation. We
propose an active learning architecture, called meta-teaching, to address this problem. We
show how we combine several models to solve the active learning problem, formulated as
a metalearning problem, by using a reinforcement learning agent to actively generate new
instances. Therefore, we use concepts from various areas of machine learning, including
supervised learning, active learning, reinforcement learning and recurrent networks. In this
exploratory work, we evaluate our method on a simpler problem, which is to classify poker
hands in 10 predefined classes. We test our architecture on this toy dataset in order to
simplify the analysis. Unfortunately, we do not achieve a significant advantage using our
active generation architecture on this dataset. We outline avenues for further reflections,
including the definition of the reward function. In future projects, using a more similar
problem to our problem of interest having, among others, a variable labelling cost, would
be interesting.
|
249 |
The load planning problem for double-stack intermodal trainsMantovani, Serena 04 1900 (has links)
Les trains qui transportent des conteneurs empilés (en deux niveaux) sont un élément important
du reseau de transport nord-americain. Le probleme de chargement des wagons correspond un
probleme operationnel d'utilisation rencontre dans les terminaux ferroviaires. Elle consiste
optimiser l’affectation des conteneurs des emplacements spécifiques sur les wagons.
Ce mémoire est centré sur un article scientifique traitant le chargement optimal publié dans
le Journal Européen de Recherche Opérationnelle (Volume 267, Numéro 1, Pages 107-119, 2018).
Nous avons formule un modele lineaire en nombres entiers (ILP) et apporte un certain nombre
de contributions. Premierement, nous avons proposé une méthodologie générale qui peut traiter
des wagons double ou simple empilement avec des «patrons» de chargement arbitraires. Les
les patrons tiennent un compte des dépendances de chargement entre les plateformes sur un wagon
donne. Deuxiemement, nous avons modéliser les restrictions du centre de gravité (COG), les
regles d’empilement et un nombre de restrictions techniques de chargement associees certains
types de conteneurs et / ou de marchandises. Les resultats montrent que nous pouvons resoudre
des instances de taille realiste dans un d´elai raisonnable en utilisant un solveur ILP commercial
et nous illustrons que le fait de ne pas tenir compte de la correspondance conteneurs-wagons
ainsi que des restrictions COG peut conduire une surestimation de la capacité disponible. / Double-stack trains are an important component of the railroad transport network for containerized cargo in specific markets such as North America. The load planning problem embodies an operational problem commonly faced in rail terminals by operators. It consists in optimizing the assignment of containers to specific locations on the train. The work in this thesis is centered around a scientific paper on the optimization on load planning problem for double stack-trains, published in the European Journal of Operation Research (Volume 267, Issue 1, Pages 1-398) on 16 May 2018. In the paper, we formulated an ILP model and made a number of contributions. First, we proposed a general methodology that can deal with double- or single-stack railcars with arbitrary loading patterns. The patterns account for loading dependencies between the platforms on a given railcar. Second, we modeled Center of gravity (COG) restrictions, stacking rules and a number of technical loading restrictions associated with certain types of containers and/or goods. Results show that we can solve realistic size instances in reasonable time using a commercial ILP solver and we illustrate that failing to account for containers-to-cars matching as well as COG restrictions may lead to an overestimation of the available train capacity.
|
250 |
Staffing optimization with chance constraints in call centersTa, Thuy Anh 12 1900 (has links)
Les centres d’appels sont des éléments clés de presque n’importe quelle grande organisation. Le problème de gestion du travail a reçu beaucoup d’attention dans la littérature. Une formulation typique se base sur des mesures de performance sur un horizon infini, et le problème d’affectation d’agents est habituellement résolu en combinant des méthodes d’optimisation et de simulation. Dans cette thèse, nous considérons un problème d’affection d’agents pour des centres d’appels soumis a des contraintes en probabilité. Nous introduisons une formulation qui exige que les contraintes de qualité de service (QoS) soient satisfaites avec une forte probabilité, et définissons une approximation de ce problème par moyenne échantillonnale dans un cadre de compétences multiples. Nous établissons la convergence de la solution
du problème approximatif vers celle du problème initial quand la taille de l’échantillon
croit. Pour le cas particulier où tous les agents ont toutes les compétences (un seul groupe d’agents), nous concevons trois méthodes d’optimisation basées sur la simulation pour le problème de moyenne échantillonnale. Étant donné un niveau initial de personnel, nous augmentons le nombre d’agents pour les périodes où les contraintes sont violées, et nous diminuons le nombre d’agents pour les périodes telles que les contraintes soient toujours satisfaites après cette réduction. Des expériences numériques sont menées sur plusieurs modèles de centre d’appels à faible occupation, au cours desquelles les algorithmes donnent de bonnes solutions, i.e. la plupart des contraintes en probabilité sont satisfaites, et nous ne pouvons pas réduire le personnel dans une période donnée sont introduire de violation de contraintes. Un avantage de ces algorithmes, par rapport à d’autres méthodes, est la facilité d’implémentation. / Call centers are key components of almost any large organization. The problem of
labor management has received a great deal of attention in the literature. A typical formulation of the staffing problem is in terms of infinite-horizon performance measures.
The method of combining simulation and optimization is used to solve this staffing problem. In this thesis, we consider a problem of staffing call centers with respect to chance constraints. We introduce chance-constrained formulations of the scheduling problem which requires that the quality of service (QoS) constraints are met with high probability. We define a sample average approximation of this problem in a multiskill setting. We prove the convergence of the optimal solution of the sample-average problem to that of the original problem when the sample size increases. For the special case where we consider the staffing problem and all agents have all skills (a single group of agents), we design three simulation-based optimization methods for the sample problem. Given a starting solution, we increase the staffings in periods where the constraints are violated, and decrease the number of agents in several periods where decrease is acceptable, as much as possible, provided that the constraints are still satisfied. For the call center models in our numerical experiment, these algorithms give good solutions, i.e., most constraints are satisfied, and we cannot decrease any agent in any period to obtain better results. One advantage of these algorithms, compared with other methods, that they are very easy to implement.
|
Page generated in 0.1083 seconds