Spelling suggestions: "subject:"opérationnelle"" "subject:"opérationnelles""
131 |
Optimization of p-cycle protection schemes in optical networksde Medeiros Rocha, Caroline Thennecy 08 1900 (has links)
La survie des réseaux est un domaine d'étude technique très intéressant ainsi qu'une préoccupation critique dans la conception des réseaux. Compte tenu du fait que de plus en plus de données sont transportées à travers des réseaux de communication, une simple panne peut interrompre des millions d'utilisateurs et engendrer des millions de dollars de pertes de revenu. Les techniques de protection des réseaux consistent à fournir une capacité supplémentaire dans un réseau et à réacheminer les flux automatiquement autour de la panne en utilisant cette disponibilité de capacité.
Cette thèse porte sur la conception de réseaux optiques intégrant des techniques de survie qui utilisent des schémas de protection basés sur les p-cycles. Plus précisément, les p-cycles de protection par chemin sont exploités dans le contexte de pannes sur les liens. Notre étude se concentre sur la mise en place de structures de protection par p-cycles, et ce, en supposant que les chemins d'opération pour l'ensemble des requêtes sont définis a priori. La majorité des travaux existants utilisent des heuristiques ou des méthodes de résolution ayant de la difficulté à résoudre des instances de grande taille. L'objectif de cette thèse est double. D'une part, nous proposons des modèles et des méthodes de résolution capables d'aborder des problèmes de plus grande taille que ceux déjà présentés dans la littérature. D'autre part, grâce aux nouveaux algorithmes, nous sommes en mesure de produire des solutions optimales ou quasi-optimales. Pour ce faire, nous nous appuyons sur la technique de génération de colonnes, celle-ci étant adéquate pour résoudre des problèmes de programmation linéaire de grande taille. Dans ce projet, la génération de colonnes est utilisée comme une façon intelligente d'énumérer implicitement des cycles prometteurs.
Nous proposons d'abord des formulations pour le problème maître et le problème auxiliaire ainsi qu'un premier algorithme de génération de colonnes pour la conception de réseaux protegées par des p-cycles de la protection par chemin. L'algorithme obtient de meilleures solutions, dans un temps raisonnable, que celles obtenues par les méthodes existantes. Par la suite, une formulation plus compacte est proposée pour le problème auxiliaire. De plus, nous présentons une nouvelle méthode de décomposition hiérarchique qui apporte une grande amélioration de l'efficacité globale de l'algorithme. En ce qui concerne les solutions en nombres entiers, nous proposons deux méthodes heurisiques qui arrivent à trouver des bonnes solutions.
Nous nous attardons aussi à une comparaison systématique entre les p-cycles et les schémas classiques de protection partagée. Nous effectuons donc une comparaison précise en utilisant des formulations unifiées et basées sur la génération de colonnes pour obtenir des résultats de bonne qualité. Par la suite, nous évaluons empiriquement les versions orientée et non-orientée des p-cycles pour la protection par lien ainsi que pour la protection par chemin, dans des scénarios de trafic asymétrique. Nous montrons quel est le coût de protection additionnel engendré lorsque des systèmes bidirectionnels sont employés dans de tels scénarios.
Finalement, nous étudions une formulation de génération de colonnes pour la conception de réseaux avec des p-cycles en présence d'exigences de disponibilité et nous obtenons des premières bornes inférieures pour ce problème. / Network survivability is a very interesting area of technical study and a critical concern in network design. As more and more data are carried over communication networks, a single outage can disrupt millions of users and result in millions of dollars of lost revenue. Survivability techniques involve providing some redundant capacity within the network and automatically rerouting traffic around the failure using this redundant capacity.
This thesis concerns the design of survivable optical networks using p-cycle based schemes, more particularly, path-protecting p-cycles, in link failure scenarios. Our study focuses on the placement of p-cycle protection structures assuming that the working routes for the set of connection requests are defined a priori. Most existing work carried out on p-cycles concerns heuristic algorithms or methods suffering from critical lack of scalability. Thus, the objective of this thesis is twofold: on the one hand, to propose scalable models and solution methods enabling to approach larger problem instances and on the other hand, to produce optimal or near optimal solutions with mathematically proven optimality gaps. For this, we rely on the column generation technique which is suitable to solve large scale linear programming problems. Here, column generation is used as an intelligent way of implicitly enumerating promising cycles to be part of p-cycle designs.
At first, we propose mathematical formulations for the master and the pricing problems as well as the first column generation algorithm for the design of survivable networks based on path-protecting p-cycles. The resulting algorithm obtains better solutions within reasonable running time in comparison with existing methods. Then, a much more compact formulation of the pricing problem is obtained. In addition, we also propose a new hierarchical decomposition method which greatly improves the efficiency of the whole algorithm and allows us to solve larger problem instances. As for integer solutions, two heuristic approaches are proposed to obtain good solutions.
Next, we dedicate our attention to a systematic comparison of p-cycles and classical shared protection schemes. We perform an accurate comparison by using a unified column generation framework to find provably good results. Afterwards, our study concerns an empirical evaluation of directed and undirected link- and path-protecting p-cycles under asymmetric traffic scenarios. We show how much additional protection cost results from employing bidirectional systems in such scenarios.
Finally, we investigate a column generation formulation for the design of p-cycle networks under availability requirements and obtain the first lower bounds for the problem.
|
132 |
Models and algorithms for the capacitated location-routing problemContardo, Claudio 07 1900 (has links)
Le problème de localisation-routage avec capacités (PLRC) apparaît comme un problème clé dans la conception de réseaux de distribution de marchandises. Il généralisele problème de localisation avec capacités (PLC) ainsi que le problème de tournées de véhicules à multiples dépôts (PTVMD), le premier en ajoutant des décisions liées au routage et le deuxième en ajoutant des décisions liées à la localisation des dépôts. Dans cette thèse on dévelope des outils pour résoudre le PLRC à l’aide de la programmation mathématique. Dans le chapitre 3, on introduit trois nouveaux modèles pour le PLRC basés sur des flots de véhicules et des flots de commodités, et on montre comment ceux-ci dominent, en termes de la qualité de la borne inférieure, la formulation originale à deux indices [19]. Des nouvelles inégalités valides ont été dévelopées et ajoutées aux modèles, de même que des inégalités connues. De nouveaux algorithmes de séparation ont aussi été dévelopés qui dans la plupart de cas généralisent ceux trouvés dans la litterature. Les résultats numériques montrent que ces modèles de flot sont en fait utiles pour résoudre des instances de petite à moyenne taille. Dans le chapitre 4, on présente une nouvelle méthode de génération de colonnes basée sur une formulation de partition d’ensemble. Le sous-problème consiste en un problème de plus court chemin avec capacités (PCCC). En particulier, on utilise une relaxation de ce problème dans laquelle il est possible de produire des routes avec des cycles de longueur trois ou plus. Ceci est complété par des nouvelles coupes qui permettent de réduire encore davantage le saut d’intégralité en même temps que de défavoriser l’apparition de cycles dans les routes. Ces résultats suggèrent que cette méthode fournit la meilleure méthode exacte pour le PLRC. Dans le chapitre 5, on introduit une nouvelle méthode heuristique pour le PLRC. Premièrement, on démarre une méthode randomisée de type GRASP pour trouver un premier ensemble de solutions de bonne qualité. Les solutions de cet ensemble sont alors combinées de façon à les améliorer. Finalement, on démarre une méthode de type détruir et réparer basée sur la résolution d’un nouveau modèle de localisation et réaffectation qui généralise le problème de réaffectaction [48]. / The capacitated location-routing problem (CLRP) arises as a key problem in the design of distribution networks. It generalizes both the capacitated facility location problem (CFLP) and the multiple depot vehicle routing problem (MDVRP), the first by considering additional routing decisions and the second by adding the location decision variables. In this thesis we use different mathematical programming tools to develop and specialize new models and algorithms for solving the CLRP. In Chapter 3, three new models are presented for the CLRP based on vehicle-flow and commodity-flow formulations, all of which are shown to dominate, in terms of the linear relaxation lower bound, the original two-index vehicle-flow formulation [19]. Known valid inequalities are complemented with some new ones and included using separation algorithms that in many cases generalize extisting ones found in the literature. Computational experiments suggest that flow models can be efficient for dealing with small or medium size instances of the CLRP (50 customers or less). In Chapter 4, a new branch-and-cut-and-price exact algorithm is introduced for the CLRP based on a set-partitioning formulation. The pricing problem is a shortest path problem with resource constraints (SPPRC). In particular, we consider a relaxation of such problem in which routes are allowed to contain cycles of length three or more. This is complemented with the development of new valid inequalities that are shown to be effective for closing the optimality gap as well as to restrict the appearance of cycles. Computational experience supports the fact that this method is now the best exact method for the CLRP. In Chapter 5, we introduce a new metaheuristic with the aim of finding good quality solutions in short or moderate computing times. First, a bundle of good solutions is generated with the help of a greedy randomized adaptive search procedure (GRASP). Following this, a blending procedure is applied with the aim of producing a better upper bound as a combination of all the others in the bundle. An iterative destroy-and-repair method is then applied using a location-reallocation model that generalizes the reallocation model due to de Franceschi et al. [48].
|
133 |
« Resolution Search » et problèmes d’optimisation discrètePosta, Marius 02 1900 (has links)
Les problèmes d’optimisation discrète sont pour beaucoup difficiles à résoudre, de par leur nature combinatoire. Citons par exemple les problèmes de programmation linéaire en nombres entiers. Une approche couramment employée pour les résoudre exactement est l’approche de Séparation et Évaluation Progressive. Une approche différente appelée « Resolution Search » a été proposée par Chvátal en 1997 pour résoudre exactement des problèmes d’optimisation à variables 0-1, mais elle reste mal connue et n’a été que peu appliquée depuis.
Cette thèse tente de remédier à cela, avec un succès partiel. Une première contribution consiste en la généralisation de Resolution Search à tout problème d’optimisation discrète, tout en introduisant de nouveaux concepts et définitions. Ensuite, afin de confirmer l’intérêt de cette approche, nous avons essayé de l’appliquer en pratique pour résoudre efficacement des problèmes bien connus. Bien que notre recherche n’ait pas abouti sur ce point, elle nous a amené à de nouvelles méthodes pour résoudre exactement les problèmes d’affectation généralisée et de localisation simple. Après avoir présenté ces méthodes, la thèse conclut avec un bilan et des perspectives sur l’application pratique de Resolution Search. / The combinatorial nature of discrete optimization problems often makes them diffi- cult to solve. Consider for instance integer linear programming problems, which are commonly solved using a Branch-and-Bound approach. An alternative approach, Resolution Search, was proposed by Chvátal in 1997 for solving 0-1 optimization problems, but remains little known to this day and as such has seen few practical applications.
This thesis attempts to remedy this state of affairs, with partial success. Its first contribution consists in the generalization of Resolution Search to any discrete optimization problem, while introducing new definitions and concepts. Next, we tried to validate this approach by attempting to solve well-known problems efficiently with it. Although our research did not succeed in this respect, it lead us to new methods for solving the generalized assignment and uncapacitated facility location problems. After presenting these methods, this thesis concludes with a summary of our attempts at practical application of Resolution Search, along with further perspectives on this matter. / Thèse réalisée en cotutelle avec l'Université d'Avignon.
|
134 |
La microfinance : quelles leçons tirées des expériences des pays en développement ?Arrassen, Wassini 04 July 2013 (has links) (PDF)
Après une synthèse des principales avancées en microfinance, la thèse offre un aperçu sur les institutions de microfinance (Imf) dans les pays en développement entre 2000 et 2009. Une étude approfondie du marché de l'Afrique Subsaharienne est également proposée. Elle sert de prélude à l'analyse économétrique des déterminants des performances financière et sociale des Imf dans cette région ainsi qu'à l'examen des arbitrages entre les deux objectifs. Le modèle est également estimé avec les données de l'Amérique Latine et Caraïbes afin de tester, entre autres, sa robustesse spatiale. Les résultats montrent que malgré la forte croissance affichée, les Imf demeurent fragiles à cause des retards de paiement et de la faible rentabilité. En outre, il n'existe pas de modèle universel de la microfinance sans spécificités régionales. La commercialisation du secteur est remise en cause car même si elle ne s'accompagne pas nécessairement d'une déviation de la mission sociale, elle n'améliore pas la performance financière. Enfin, la richesse du secteur provient de sa segmentation alors que sa faiblesse est due à son manque d'organisation, avec une concurrence se traduisant par une recrudescence des risques au lieu d'une diversification des produits.
|
135 |
Apport de l'océanographie opérationnelle à l'amélioration de la prévision de dérive océanique dans le cadre d'opérations de recherche et de sauvetage en mer et de lutte contre les pollutions marinesLaw-Chune, Stephane 15 February 2012 (has links) (PDF)
La plupart des opérations de secours en mer s'appuient aujourd'hui sur des prévisions numériques opérationnelles afin de coordonner les moyens d'action et de cibler les zones d'intervention prioritaires. Pour des cas de pollution marine ou pour la recherche d'objets dérivants, des modèles de trajectoire spécifiques existent et permettent d'élaborer des scenarii plus ou moins réalistes à partir de courants modélisés. La fiabilité de ces systèmes est en grande partie conditionnée par la qualité de ces courants prévus et utilisés. Ce travail de thèse s'intéresse à la modélisation des processus océaniques qui modifient les propriétés adjectives du courant, en particulier à proximité de la surface, où les vitesses sont les plus fortes, et où des structures de fine échelle liées aux interactions avec l'atmosphère et à des processus turbulents en complexifient l'estimation. La méthodologie adoptée est la classique confrontation modèle-observation pour deux cas d'étude distincts, l'un en Méditerranée occidentale (hiver 2007) et l'autre en Atlantique Est-Équatorial près de l'embouchure du Congo (printemps 2008). À partir d'outils numériques dérivés de l'opérationnel, il est tenté de reproduire des trajectoires réelles de flotteurs de surface en réalisant diverses études de sensibilité. Les prévisions de courant sont générées à partir de configurations régionales à haute résolution basées sur le code d'océan NEMO. Le logiciel Ariane (B. Blanke, 1997) utilise les propriétés de surface du courant, alors que le modèle d'hydrocarbure Mothy (Météo France) utilise une extraction en profondeur afin de compléter sa modélisation interne de l'océan en réponse aux changements rapides du forçage atmosphérique. Cette étude cible des échelles de prévisions de quelques heures à trois jours au maximum (échéance typique demandée en cas de crise). Les tests ciblent la résolution horizontale, l'impact des paramétrisations sur les forçages et la représentation des processus physiques, en particulier ceux rencontrés par les bouées, comme par exemple le panache du fleuve Congo en Angola.
|
136 |
Au delà de l'évaluation en pire cas : comparaison et évaluation en moyenne de processus d'optimisation pour le problème du vertex cover et des arbres de connexion de groupes dynamiques.Delbot, François 17 November 2009 (has links) (PDF)
La théorie de la complexité distingue les problèmes que l'on sait résoudre en un temps polynomial en la taille des données (que l'on peut qualifier de raisonnable), des problèmes NP-complets, qui nécessitent (en l'état actuel des connaissances) un temps de résolution exponentiel en la taille des données (que l'on peut qualifier de déraisonnable). C'est pour cette raison que la communauté scientifique s'est tournée vers les algorithmes (polynomiaux) d'approximation dont la mesure de qualité se fait le plus souvent grâce au rapport d'approximation en pire cas (pour un problème de minimisation de taille, un algorithme a un rapport d'approximation de k si la taille de toute solution pouvant être retournée par l'algorithme est inférieure ou égale à k fois la taille de la solution optimale). Dans la littérature, on en vient à considérer qu'un algorithme est plus performant qu'un autre lorsqu'il possède un plus petit rapport d'approximation en pire cas. Cependant, il faut être conscient que cette mesure, désormais "classique", ne prend pas en compte la réalité de toutes les exécutions possibles d'un algorithme (elle ne considère que les exécutions menant à la plus mauvaise solution). Mes travaux de thèse ont pour objet de mieux "capturer" le comportement des algorithmes d'approximation en allant plus loin que le simple rapport d'approximation en pire cas, et ce sur deux problèmes distincts : I. Le problème du Vertex Cover En montrant que les performances moyennes d'un algorithme peuvent être décorélées des performances en pire cas. Par exemple, nous avons montré que dans la classe des graphes spécialement conçus pour le piéger en pire cas, l'algorithme glouton "Maximum Degree Greedy" retourne, en moyenne, des solutions dont la taille tend vers l'optimum lorsque n tend vers l'infini. En évaluant les performances moyennes d'un algorithme. Nous avons prouvé que l'algorithme online présenté par Demange et Paschos en 2005 (dont le rapport d'approximation en pire cas est égal au degré maximum du graphe) est au plus 2-approché en moyenne dans n'importe quel graphe. Ce résultat, combiné à d'autres, montre que cet algorithme est "en pratique" meilleur que la plupart des algorithmes 2-approchés connus, malgré un mauvais rapport d'approximation en pire cas . En comparant les performances de différents algorithmes (analytiquement et expérimentalement). Nous avons proposé un algorithme de liste et nous avons prouvé analytiquement qu'il retourne toujours une meilleure solution que celle construite par un autre algorithme de liste récent [ORL 2006] quand ils traitent la même liste de sommets (dans certains graphes particuliers, la différence de taille peut être arbitrairement grande). Nous avons également comparé analytiquement (en utilisant des outils comme les séries génératrices) les performances moyennes de six algorithmes sur les chemins. Nous les avons ensuite expérimentées sur un grand nombre de graphes de diverses familles bien choisies. On constate dans ces études que les algorithmes 2-approchés étudiés sont ceux qui obtiennent les plus mauvaises performances en moyenne et que ceux qui ont les meilleurs comportements moyens ont de mauvais rapports d'approximation (fonction du degré max. du graphe). Tous ces résultats montrent que le rapport d'approximation en pire cas n'est pas toujours suffisant pour caractériser l'intégralité de la qualité d'un algorithme et que d'autres analyses (en moyenne notamment) doivent être effectuées pour en faire le tour. II. Le problème de la connexion de groupes dynamiques dans les réseaux Nous avons analysé un processus de mise-à-jour d'un arbre connectant dans un réseau un groupe que les membres peuvent rejoindre ou quitter à tout moment. Notre processus possède de bonnes propriétés : il est simple à implémenter et il garantit, après chaque opération d'ajout ou de retrait, que le diamètre de l'arbre est au plus 2 fois l'optimal. Cependant, pour obtenir cette garantie, nous devons autoriser la reconstruction totale de l'arbre lorsque le membre identifié comme sa racine quitte le groupe. Ces étapes de reconstruction sont très coûteuses et nous cherchons donc à en évaluer le nombre. Des travaux précédents montraient que dans le pire cas, il faut reconstruire (quasiment) à chaque étape pour conserver la garantie sur le diamètre. Nous montrons dans cette thèse (en utilisant les marches aléatoires, etc.) que, en fonction de certains paramètres du problèmes (comme les probabilités associées aux opérations d'ajout et de retrait), l'espérance du nombre de reconstructions est soit logarithmique en le nombre d'évènements (ajout ou retrait), soit constant. Ce résultat montre que le comportement moyen est très bon (malgré un pire cas très défavorable) et que notre processus de mise-à-jour peut être une solution viable en pratique.
|
137 |
Contributions à la chaine logistique numérique : conception de circuits courts et planification décentralisée.Ogier, Maxime 05 December 2013 (has links) (PDF)
Le concept de chaîne logistique numérique regroupe l'ensemble des modèles, méthodes et outils qui permettent de planifier les décisions sur des prototypes numériques de chaîne logistique. Dans ce travail de thèse, nous proposons deux contributions à la chaîne logistique numérique. Nos résultats se destinent en particulier aux réseaux de Petites et Moyennes Entreprises/Industries. D'une part, nous étudions deux nouveaux problèmes liés à la conception de réseaux logistiques en circuits courts et de proximité pour les produits agricoles frais. Pour chacun d'eux nous proposons une formulation en Programme Linéaire à Variables Mixtes. De plus des méthodes de résolution fondées sur des décompositions du modèle nous permettent de résoudre des instances de grande taille. Pour chaque problème, cette approche est mise en œuvre sur une étude de cas menée avec plusieurs collectivités territoriales. D'autre part, nous étudions le problème de planification tactique des activités de production, de transport et de stockage. Contrairement aux approches classiques centralisées, nous considérons que les décisions des différents acteurs sont prises de manière décentralisée. Nous étudions la manière de décomposer les décisions entre les acteurs ainsi que leurs comportements individuels. Nous analysons aussi des protocoles de concertation basés sur un échange limité d'informations. Afin de répondre à la double complexité du problème, nous proposons un outil innovant qui couple une simulation à base de multi-agents à des approches d'optimisation par programmation mathématique.
|
138 |
Contributions à la conception de réseau de service en transportSchrenk, Susann 23 September 2010 (has links) (PDF)
Dans cette thèse, nous nous sommes intéressés à deux problèmes industriels dans le domaine du transport. Le premier est un problème de conception de réseau de service avec gestion de ressources pour un transport régulier de fret. Le second est le problème de gestion de perturbation dans le domaine aérien, sujet du challenge ROADEF'2009. Dans les deux cas, il s'agit de problèmes pratiques difficiles qui comportent des contraintes complexes non standard. Le défi est d'autant plus marqué que les instances à résoudre sont de grandes tailles et que les problèmes comportent une dimension temporelle forte. Nous avons analysé la complexité des problèmes en étudiant la complexité de problèmes combinatoires purs, sous-problèmes au cœur de nos problèmes industriels. Nous présentons différentes formulations MIP du problème de conception d'un réseau de service avec gestion de flotte. Il ressort de notre étude que les formulations à base de cycles pour les véhicules sont très prometteuses. Finalement, nous présentons notre contribution au challenge ROADEF'2009. Nous proposons une méthode de résolution rapide, basée sur une décomposition, permettant de trouver de bonnes solutions à un problème industriel complexe en temps limité.
|
139 |
Planification réactive et robuste au sein d'une chaîne logistiqueGharbi, Hassen 10 November 2012 (has links) (PDF)
Ce travail s'intéresse à la planification tactique de chaînes logistiques dans un environnement incertain et perturbé. Dans le cadre de relations "point-à point", nous proposons une approche permettant d'élaborer une planification tactique optimale et réactive d'un maillon d'une chaîne logistique en présence de paramètres incertains et de perturbations. Notre approche se fonde sur une structure à deux niveaux décisionnels. Le premier niveau effectue une planification agrégée en minimisant le coût global de production. Il établit ensuite "un plan de guidage" qui est transmis au niveau détaillé. Ce dernier effectue sa planification en suivant "au mieux" le plan de guidage et en prenant en compte les contraintes et données détaillées ignorées au niveau supérieur. Le niveau détaillé adopte un processus dynamique de planification à horizon glissant. Il réactualise ses données à chaque étape de planification afin d'assurer la réactivité du processus décisionnel. Nous caractérisons explicitement l'inertie du système décisionnel en distinguant deux phases : la phase d'anticipation et la phase de réalisation. Chaque phase est caractérisée par un délai temporel. Ainsi, nous proposons une modélisation originale du processus décisionnel de chaque décision via trois variables. Le niveau détaillé est formulé selon un programme linéaire. Au niveau agrégé, nous proposons un modèle global ayant l'originalité de prendre en compte les spécificités du processus décisionnel détaillé. Le couplage entre les deux niveaux est assuré par le plan de guidage. Selon les informations incluses dans le plan de guidage, le niveau agrégé accorde un certain degré d'autonomie au niveau détaillé, ceci conditionne la réactivité et la robustesse de la planification. Dans notre travail, nous considérons trois types de guidage : deux guidages budgétaires "globaux" et un guidage "prescriptif" par la sous-traitance agrégée. Notre approche est évaluée par simulation dans le cadre d'une demande incertaine. Pour cela, nous développons deux outils de simulation et un ensemble d'indicateurs de performances. Les expérimentations réalisées confirment la performance de notre approche par rapport à des approches classiques et mettent en évidence l'influence du type de guidage et du profil de la demande détaillée sur la réactivité et la robustesse des solutions trouvées.
|
140 |
Recherche locale pour l'optimisation en variables mixtes : méthodologie et applications industriellesJeanjean, Antoine 10 October 2011 (has links) (PDF)
Les problèmes d'optimisation en variables mixtes sont souvent résolus par décomposition quand ils sont de grande taille, avec quelques inconvénients : difficultés de garantir la qualité voire l'admissibilité des solutions et complexité technique des projets de développement. Dans cette thèse, nous proposons une approche directe, en utilisant la recherche locale, pour résoudre des problèmes d'optimisation mixte. Notre méthodologie se concentre sur deux points : un vaste ensemble de mouvements et une évaluation incrémentale basée sur des algorithmes approximatifs, travaillant simultanément sur les dimensions combinatoire et continue. Tout d'abord, nous présentons un problème d'optimisation des stocks de banches sur chantiers. Ensuite, nous appliquons cette technique pour optimiser l'ordonnancement des mouvements de terre pour le terrassement d'autoroutes et de voies ferrées. En n, nous discutons d'un problème de routage de véhicules avec gestion des stocks. Les coûts logistiques sont optimisés pour livrer un produit fluide par camion dans des zones géographiques d'une centaine de clients, avec la gestion de l'inventaire con ée au fournisseur.
|
Page generated in 0.081 seconds