• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 148
  • 103
  • 43
  • Tagged with
  • 301
  • 241
  • 184
  • 158
  • 101
  • 91
  • 82
  • 75
  • 65
  • 64
  • 64
  • 64
  • 61
  • 60
  • 58
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Contribution à l'étude de la stabilité des systèmes linéaires

Pouget, Gilles January 1968 (has links)
Étant donné un processus physique linéaire dont nous connaissons les équations d'évolution nous pouvons décrire son évolution par un certain nombre d'équations différentielles linéaires. Cette forme mathématique est souvent inexploitable, c'est pourquoi l'on préfère mettre le système sous forme d'équations d'états ou de fonction de transfert ; si le système est à commande échantillonnée on adopte une formulation matricielle dans l'espace d'état. L'une ou l'autre de ces formulations sont équivalentes et le choix ne dépend que des conclusions qui doivent être tirées sur l'évolution du système soumis à une certaine commande. Tout système, quelles que soient ses performances, est inutilisable s'il est instable ou s'il ne peut pas être stabilisé par adjonction d'un correcteur d'où l'importance primordiale d'une étude de stabilité. 11 existe un très grand nombre de méthodes d'étude de la stabilité des systèmes linéaires ; citons pour mémoire la méthode de Routh-hurwitz, les critères de Bode et de Nyquist ... Ces méthodes conviennent parfaitement pour des systèmes d'ordre peu élevé mais deviennent inexploitables, sans calculateur, pour des systèmes plus complexes. Le but de l'étude qui va suivre est de choisir un critère de stabilité s'adaptant au calcul numérique à partir duquel nous élaborerons divers programmes permettant de conclure sur la stabilité des systèmes (jusqu'à l'ordre 14) quelle que soit leur formulation ; rappelons qu'un système peut se mettre sous forme d'équations d'état, de fonction de transfert, d'équations différentielles.
12

Formulations and Algorithms for General and Security Stackelberg Games

Casorran Amilburu, Carlos 16 October 2017 (has links)
General Stackelberg games (GSG) confront two contenders, each wanting to optimize their rewards. One of the players, referred to as the leader, can commit to a given action or strategy first, and the other player, referred to as the follower, then responds by selecting an action or strategy of his own. The objective of the game is for the leader to commit to a reward-maximizing strategy, anticipating that the follower will best respond.Finding an optimal mixed strategy for the leader in a GSG is NP-hard when the leader faces one out of a group of several followers and polynomial when there exists a single follower. Additionally, GSGs in which the strategies of the leader consist in covering a subset of at most $m$ targets and the strategies of the followers consist in attacking some target, are called Stackelberg security games (SSG) and involve an exponential number of pure strategies for the leader.The goal of this thesis is to provide efficient algorithms to solve GSGs and SSGs. These algorithms must not only be able to produce optimal solutions quickly, but also be able to solve real life, and thus large scale, problems efficiently. To that end, the main contributions of this thesis are divided into three parts:First, a comparative study of existing mixed integer linear programming (MILP) formulations is carried out for GSGs, where the formulations are ranked according to the tightness of their linear programming (LP) relaxations. A formal theoretical link is established between GSG and SSG formulations through projections of variables and this link is exploited to extend the comparative study to SSG formulations. A new strong SSG MILP formulation is developed whose LP relaxation is shown to be the tightest among SSG formulations. When restricted to a single attacker type, the new SSG formulation is ideal, i.e. the constraints of its LP relaxation coincide with its convex hull of feasible solutions. Computational experiments show that the tightest formulations in each setting are the fastest. Notably, the new SSG formulation proposed is competitive with respect to solution time, and due to the tightness of its LP relaxation, it is better suited to tackle large instances than competing formulations.Second, the bottleneck encountered when solving the formulations studied in the first part of the thesis is addressed: The tightest formulations in each setting have heavy LP relaxations which can be time-consuming to solve and thus limit the effectiveness of the formulations to tackle instances. To address this issue, in both the general and the security case, Benders cuts from the LP relaxation of the tightest MILP formulations are embedded into a Cut and Branch scheme on a sparse equivalent formulation in each setting. By combining the tightness of the bound provided by the strong formulations with the resolution speed of the formulations, the proposed algorithm efficiently solves large GSG and SSG instances which were out of the scope of previous methods.Third, a special type of SSG, defined on a network, is studied, where the leader has to commit to two coverage distributions, one over the edges of the network and one over the targets, which are contained inside the nodes. A particular case of this SSG is used to tackle a real life border patrol problem proposed by the Carabineros de Chile in which the use of their limited security resources is optimized while taking into account both global and local planning considerations. A methodology is provided to adequately generate the game's parameters. Computational experiments show the good performance of the approach and a software application developed for Carabineros to schedule their border resources is described. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
13

Étude de deux méthodes d'ajustement de matrices origine-destination à partir des flots des véhicules observés

Deneault, Luc January 1993 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
14

Jeux de policiers et voleurs : modèles et applications

Simard, Frédéric 14 December 2024 (has links)
Les jeux de policiers et voleurs sont étudiés depuis une trentaine d’années en informatique et en mathématiques. Comme dans les jeux de poursuite en général, des poursuivants (les policiers) cherchent à capturer des évadés (les voleurs), cependant ici les joueurs agissent tour à tour et sont contraints de se déplacer sur une structure discrète. On suppose toujours que les joueurs connaissent les positions exactes de leurs opposants, autrement dit le jeu se déroule à information parfaite. La première définition d’un jeu de policiers-voleurs remonte à celle de Nowakowski et Winkler [39] et, indépendamment, Quilliot [46]. Cette première définition présente un jeu opposant un seul policier et un seul voleur avec des contraintes sur leurs vitesses de déplacement. Des extensions furent graduellement proposées telles que l’ajout de policiers et l’augmentation des vitesses de mouvement. En 2014, Bonato et MacGillivray [6] proposèrent une généralisation des jeux de policiers-voleurs pour permettre l’étude de ceux-ci dans leur globalité. Cependant, leur modèle ne couvre aucunement les jeux possédant des composantes stochastiques tels que ceux dans lesquels les voleurs peuvent bouger de manière aléatoire. Dans ce mémoire est donc présenté un nouveau modèle incluant des aspects stochastiques. En second lieu, on présente dans ce mémoire une application concrète de l’utilisation de ces jeux sous la forme d’une méthode de résolution d’un problème provenant de la théorie de la recherche. Alors que les jeux de policiers et voleurs utilisent l’hypothèse de l’information parfaite, les problèmes de recherches ne peuvent faire cette supposition. Il appert cependant que le jeu de policiers et voleurs peut être analysé comme une relaxation de contraintes d’un problème de recherche. Ce nouvel angle de vue est exploité pour la conception d’une borne supérieure sur la fonction objectif d’un problème de recherche pouvant être mise à contribution dans une méthode dite de branch and bound. / Cops and robbers games have been studied for the last thirty years in computer science and mathematics. As in general pursuit evasion games, pursuers (cops) seek to capture evaders (robbers), however here the players move in turn and are constrained to move on a discrete structure. It is always assumed that players know the exact location of their adversary, in other words the game is played with perfect information. The first definition of a cops and robbers game dates back to Nowakowski and Winkler [39] and, independantly, Quilliot [46]. This first definition presents a game opposing a single cop against a lone robber, both with constraints on their speed. Extensions were gradually formulated such as increasing the number of cops and the speed of the players. In 2014, Bonato and MacGillivray [6] presented a general characterization of cops and robbers games in order for them to be globally studied. However, their model does not take into account stochastic events that may occur such as the robbers moving in a random fashion. In this thesis, a novel model that includes stochastic elements is presented. Furthermore, we present in this thesis a concrete application of cops and robbers games in the form of a method of resolution of a problem from search theory. Although cops and robbers games assume perfect information, this hypothesis cannot be maintained in search problems. It appears however that cops and robbers games can be viewed as constraint relaxations of search problems. This point of view is made use of in the conception of an upper bound on the objective function of a search problem that is a applied in a branch and bound method.
15

Optimisation multi-objectif de missions de satellites d'observation de la Terre

Tangpattanakul, Panwadee 26 September 2013 (has links) (PDF)
Cette thèse considère le problème de sélection et d'ordonnancement des prises de vue d'un satellite agile d'observation de la Terre. La mission d'un satellite d'observation est d'obtenir des photographies de la surface de la Terre afin de satisfaire des requêtes d'utilisateurs. Les demandes, émanant de différents utilisateurs, doivent faire l'objet d'un traitement avant transmission d'un ordre vers le satellite, correspondant à une séquence d'acquisitions sélectionnées. Cette séquence doit optimiser deux objectifs sous contraintes d'exploitation. Le premier objectif est de maximiser le profit global des acquisitions sélectionnées. Le second est d'assurer l'équité du partage des ressources en minimisant la différence maximale de profit entre les utilisateurs. Deux métaheuristiques, composées d'un algorithme génétique à clé aléatoire biaisées (biased random key genetic algorithm - BRKGA) et d'une recherche locale multi-objectif basée sur des indicateurs (indicator based multi-objective local search - IBMOLS), sont proposées pour résoudre le problème. Pour BRKGA, trois méthodes de sélection, empruntées à NSGA-II, SMS-EMOA, et IBEA, sont proposées pour choisir un ensemble de chromosomes préférés comme ensemble élite. Trois stratégies de décodage, parmi lesquelles deux sont des décodages uniques et la dernière un décodage hybride, sont appliquées pour décoder les chromosomes afin d'obtenir des solutions. Pour IBMOLS, plusieurs méthodes pour générer la population initiale sont testées et une structure de voisinage est également proposée. Des expériences sont menées sur des cas réalistes, issus d'instances modifiées du challenge ROADEF 2003. On obtient ainsi les fronts de Pareto approximés de BRKGA et IBMOLS dont on calcule les hypervolumes. Les résultats de ces deux algorithmes sont comparés.
16

Recherche opérationnelle et optimisation pour la conception testable de circuits intégrés complexes

Zaourar, Lilia 24 September 2010 (has links) (PDF)
Le travail de cette thèse est à l'interface des dom aines de la recherche opérationnelle et de la micro -électronique. Il traite de l'utilisation des techniques d'optimisation combinatoire pour la DFT (Design For Test) des Circuits Intégrés (CI). Avec la croissance rapide et la complexité des CI actuels, la qualité ainsi que le coût du test sont devenus des paramètres importants dans l'industrie des semi-con ducteurs. Afin de s'assurer du bon fonctionnement du CI, l'étape de test est plus que jamais une étape essentielle et délicate dans le processus de fabrication d'un CI. Pour répondre aux exigences du marché, le test doit être rapide et efficace dans la révélation d'éventuels défauts. Pour cela, il devient incontournable d'appréhender la phase de test dès les étapes de conception du CI. Dans ce contexte, la conception testable plus connue sous l'appellation DFT vise à améliorer la testabilité des CI. Plusieurs problèmes d'optimisation et d'aide à la décision découlent de la micro-électronique. La plupart de ces travaux traitent des problèmes d'optimisation combinatoire pour le placement et routage des circuits. Nos travaux de recherche sont à un niveau de conception plus amont, la DFT en présynthèse au niveau transfert de registres ou RTL (Register Transfer Level). Cette thèse se découpe en trois parties. Dans la première partie nous introduisons les notions de bases de recherche opérationnelle, de conception et de test des CI. La démarche suivie ainsi que les outils de résolution utilisés dans le reste du document sont présentés dans cette partie. Dans la deuxième partie, nous nous intéressons au problème de l'optimisation de l'insertion des chaîne s de scan. A l'heure actuelle, le "scan interne" est une des techniques d'amélioration de testabilité ou de DFT les plus largement adoptées pour les circuits intégrés numériques. Il s'agit de chaîner les éléments mémoires ou bascules du circuit de sorte à former des chaînes de scan qui seront considérées pendant la phase de test comme points de contrôle et d'observation de la logique interne du circuit. L'objectif de notre travail est de développer des algorithmes permettant de générer pour un CI donné et dès le niveau RTL des chaînes de scan optimales en termes de surface, de temps de test et de consommation en puissance, tout en respectant des critères de performance purement fonctionnels. Ce problème a été modélisé comme la recherche de plus courtes chaînes dans un graphe pondéré. Les méthodes de résolution utilisées sont basées sur la recherche de chaînes hamiltoniennes de longueur minimale. Ces travaux ont été réalisés en collaboration avec la start-up DeFacTo Technologies. La troisième partie s'intéresse au problème de partage de blocs BIST (Built In Self Test) pour le test des mémoires. Le problème peut être formulé de la façon suivante : étant données des mémoires de différents types et tailles, ainsi que des règles de partage des colliers en série et en parallèle, il s'agit d'identifier des solutions au problème en associant à chaque mémoire un collier. La solution obtenue doit minimiser à la fois la surface, la consommation en puissance et le temps de test du CI. Pour résoudre ce problème, nous avons conçu un prototype nommé Memory BIST Optimizer (MBO). Il est constitué de deux phases de résolution et d'une phase de validation. La première phase consiste à créer des groupes de compatibilité de mémoires en tenant compte des règles de partage et d'abstraction des technologies utilisées. La deuxième phase utilise les algorithmes génétiques pour l'optimisation multi-objectifs afin d'obtenir un ensemble de solutions non dominées. Enfin, la validation permet de vérifier que la solution fourn ie est valide. De plus, elle affiche l'ensemble des solutions à travers une interface graphique ou textuelle. Cela permet à l'utilisateur de choisir la solution qui lui correspond le mieux. Actuellement, l'outil MBO est intégré dans un flot d'outils a ST-microelectronics pour une utilisation par ses clients.
17

Optimization models and methods for real-time transportation planning in forestry

Amrouss, Amine 04 1900 (has links)
Lors du transport du bois de la forêt vers les usines, de nombreux événements imprévus peuvent se produire, événements qui perturbent les trajets prévus (par exemple, en raison des conditions météo, des feux de forêt, de la présence de nouveaux chargements, etc.). Lorsque de tels événements ne sont connus que durant un trajet, le camion qui accomplit ce trajet doit être détourné vers un chemin alternatif. En l’absence d’informations sur un tel chemin, le chauffeur du camion est susceptible de choisir un chemin alternatif inutilement long ou pire, qui est lui-même "fermé" suite à un événement imprévu. Il est donc essentiel de fournir aux chauffeurs des informations en temps réel, en particulier des suggestions de chemins alternatifs lorsqu’une route prévue s’avère impraticable. Les possibilités de recours en cas d’imprévus dépendent des caractéristiques de la chaîne logistique étudiée comme la présence de camions auto-chargeurs et la politique de gestion du transport. Nous présentons trois articles traitant de contextes d’application différents ainsi que des modèles et des méthodes de résolution adaptés à chacun des contextes. Dans le premier article, les chauffeurs de camion disposent de l’ensemble du plan hebdomadaire de la semaine en cours. Dans ce contexte, tous les efforts doivent être faits pour minimiser les changements apportés au plan initial. Bien que la flotte de camions soit homogène, il y a un ordre de priorité des chauffeurs. Les plus prioritaires obtiennent les volumes de travail les plus importants. Minimiser les changements dans leurs plans est également une priorité. Étant donné que les conséquences des événements imprévus sur le plan de transport sont essentiellement des annulations et/ou des retards de certains voyages, l’approche proposée traite d’abord l’annulation et le retard d’un seul voyage, puis elle est généralisée pour traiter des événements plus complexes. Dans cette ap- proche, nous essayons de re-planifier les voyages impactés durant la même semaine de telle sorte qu’une chargeuse soit libre au moment de l’arrivée du camion à la fois au site forestier et à l’usine. De cette façon, les voyages des autres camions ne seront pas mo- difiés. Cette approche fournit aux répartiteurs des plans alternatifs en quelques secondes. De meilleures solutions pourraient être obtenues si le répartiteur était autorisé à apporter plus de modifications au plan initial. Dans le second article, nous considérons un contexte où un seul voyage à la fois est communiqué aux chauffeurs. Le répartiteur attend jusqu’à ce que le chauffeur termine son voyage avant de lui révéler le prochain voyage. Ce contexte est plus souple et offre plus de possibilités de recours en cas d’imprévus. En plus, le problème hebdomadaire peut être divisé en des problèmes quotidiens, puisque la demande est quotidienne et les usines sont ouvertes pendant des périodes limitées durant la journée. Nous utilisons un modèle de programmation mathématique basé sur un réseau espace-temps pour réagir aux perturbations. Bien que ces dernières puissent avoir des effets différents sur le plan de transport initial, une caractéristique clé du modèle proposé est qu’il reste valable pour traiter tous les imprévus, quelle que soit leur nature. En effet, l’impact de ces événements est capturé dans le réseau espace-temps et dans les paramètres d’entrée plutôt que dans le modèle lui-même. Le modèle est résolu pour la journée en cours chaque fois qu’un événement imprévu est révélé. Dans le dernier article, la flotte de camions est hétérogène, comprenant des camions avec des chargeuses à bord. La configuration des routes de ces camions est différente de celle des camions réguliers, car ils ne doivent pas être synchronisés avec les chargeuses. Nous utilisons un modèle mathématique où les colonnes peuvent être facilement et naturellement interprétées comme des itinéraires de camions. Nous résolvons ce modèle en utilisant la génération de colonnes. Dans un premier temps, nous relaxons l’intégralité des variables de décision et nous considérons seulement un sous-ensemble des itinéraires réalisables. Les itinéraires avec un potentiel d’amélioration de la solution courante sont ajoutés au modèle de manière itérative. Un réseau espace-temps est utilisé à la fois pour représenter les impacts des événements imprévus et pour générer ces itinéraires. La solution obtenue est généralement fractionnaire et un algorithme de branch-and-price est utilisé pour trouver des solutions entières. Plusieurs scénarios de perturbation ont été développés pour tester l’approche proposée sur des études de cas provenant de l’industrie forestière canadienne et les résultats numériques sont présentés pour les trois contextes. / When wood is transported from forest sites to mills, several unforeseen events may occur, events which perturb planned trips (e.g., because of weather conditions, forest fires, or the occurrence of new loads). When such events take place while the trip is under way, the truck involved must be rerouted to an alternative itinerary. Without relevant information on such alternative itineraries, the truck driver may choose a needlessly long one or, even worse, an itinerary that may itself be "closed" by an unforeseen event (the same event as for the original itinerary or another one). It is thus critical to provide drivers with real-time information, in particular, suggestions of alternative itineraries, when the planned one cannot be performed. Recourse strategies to deal with unforeseen events depend on the characteristics of the studied supply chain, such as the presence of auto-loaders and the management policy of forestry transportation companies. We present three papers dealing with three differ- ent application contexts, as well as models and solution methods adapted to each context. In the first paper, we assume a context where truck drivers are provided a priori with the whole weekly plan. In this context, every effort must be made to minimize the changes in the initial plan. Although the fleet of trucks is homogeneous, there is a priority ranking of the truck drivers. The priority drivers are ensured the highest work- loads. Minimizing the changes in their plans is also a priority. Since the consequences of unforeseen events on transportation are cancellations and/or delaying of some trips, the proposed approach deals first with single cancellations and single delayed trips and builds on these simple events to deal with more complex ones. In this approach, we try to reschedule the impacted trips within the same week in such a way that a loader is free at the truck arrival time both at the forest site and at the mill. In this way, none of the other trips will be impacted or changed. This approach provides the dispatchers with alternative plans in a few seconds. Better solutions could be found if the dispatcher is allowed to make more changes to the original plan. In the second paper, we assume a context where only one trip at a time is communicated to the drivers. The dispatcher waits until the truck finishes its trip before revealing the next trip. This context is more flexible and provides more recourse possibilities. Also, the weekly problem can be divided into daily problems since the demand is daily and the mills are open only for limited periods in the day. We use a mathematical programming model based on a time-space network representation to react to disruptions. Although the latter can have different impacts on the initial transportation plan, one key characteristic of the proposed model is that it remains valid for dealing with all the unforeseen events, regardless of their nature. Indeed, the impacts of such events are reflected in the time-space network and in the input parameters rather than in the model itself. The model is solved for the current day each time an unforeseen event is revealed. In the last paper, the fleet of trucks is heterogeneous, including trucks with onboard loaders. The route configuration of the latter is different than the regular truck routes, since they do not have to be synchronized with the loaders. We use a mathematical model where the columns can be easily and naturally interpreted as truck routes. We solve this model using column generation. As a first step, we relax the integrality of the decision variables and consider only a subset of feasible routes. The feasible routes with a potential to improve the solution are added iteratively to the model. A time-space network is used both to represent the impacts of unforeseen events and to generate these routes. The solution obtained is generally fractional and a heuristic branch-and-price algorithm is used to find integer solutions. Several disruption scenarios were developed to test the proposed approach on case studies from the Canadian forest industry and numerical results are presented for the three contexts.
18

Exploitation de structures de graphe en programmation par contraintes / On the use of graphs within constraint-programming

Fages, Jean-Guillaume 23 October 2014 (has links)
De nombreuses applications informatiques nécessitent de résoudre des problèmes de décision qui sont difficiles d’un point de vue mathématique. La programmation par contraintes permet de modéliser et résoudre certains de ces problèmes, parfois définis sur des graphes. Au delà des difficultés intrinsèques aux problèmes étudiés, la taille des instances à traiter contribue à la difficulté de la résolution. Cette thèse traite de l’utilisation des graphes en programmation par contraintes, dans le but d’en améliorer la capacité de passage à l’échelle. Une première partie porte sur l’utilisation de contraintes pour résoudre des problèmes de graphes impliquant la recherche d’arbres, de chemins et de cycles Hamiltoniens. Ce sont des problèmes importants que l’on retrouve dans de nombreuses applications industrielles. Nous étudions à la fois le filtrage et les stratégies d’exploration de l’espace de recherche. Nous chercherons ensuite à nous extraire progressivement des problèmes classiquement définis sur les graphes pour exploiter ce concept sur des problèmes définis sur les entiers, voire les réels. Une seconde partie porte ainsi sur l’utilisation des graphes pour le filtrage de contraintes globales très répandues. Nous proposerons entre autres d’utiliser des graphes comme support pour décomposer dynamiquement des algorithmes de filtrage, de manière générique. Le fil conducteur de ces travaux sera d’une part l’utilisation du concept de graphe à la base de chaque raisonnement et d’autre part, la volonté pratique d’augmenter la taille des problèmes pouvant être traités en programmation par contraintes. / Many IT applications require to solve decision problems which are hard from a mathematical point of view. Constraint-programming enables to model and solve some of these problems. Among them, some are defined over graphs. Beyond the difficulty stemming from each of these problems, the size of the instance to solve increases the difficulty of the task. This PhD thesis is about the use of graphs within constraint programming, in order to improve its scalability. First, we study the use of constraint-programming to solve some graph problems involving the computation of trees and Hamiltonian paths and cycles. These problems are important and can be found in many industrial applications. Both filtering and search are investigated. Next, we move on problems which are no longer defined in terms of graph properties. We then study the use of graphs to propagate global constraints. In particular, we suggest a generic schema, relying ona graph structure, to dynamically decompose filtering algorithms. The central theme in this work is the use of graph concepts at the origin of every reasoning and the practical will to increase the size of problems that can be addressed in constraint-programming.
19

Forecasting for operational planning of M1M systems

Amini, Mohammad 12 1900 (has links)
Cette thèse porte sur la prévision de la demande des expéditeurs et des offres de capacité des transporteurs pour la planification opérationnelle des systèmes `Many-to-One-to-Many' (M1M). Un tel système agit comme un décideur intermédiaire entre les expéditeurs et les transporteurs en coordonnant le transport des marchandises des expéditeurs aux destinataires en utilisant les capacités offertes par les transporteurs. Le décideur prend ses décisions dans un horizon de planification opérationnelle, en optimisant ces décisions en tenant compte de l'incertitude sur les périodes futures. Pour accompagner les décisions du décideur, il est essentiel de prédire les nouvelles demandes des expéditeurs et les nouvelles capacités des transporteurs. Cela conduit à des problèmes de prévision de séries chronologiques à plusieurs variables et à plusieurs étapes. L'objectif de ce travail est d'analyser l'impact des erreurs de prévision sur la qualité de la solution pour un problème de planification opérationnelle M1M donné. Cette thèse présente d'abord la structure du système M1M, la planification opérationnelle et les tâches de prévision associées. Nous décrivons la caractérisation des demandes des expéditeurs et des offres des transporteurs ainsi que comment la prévision peut soutenir les décisions en définissant les informations nécessaires pour le décideur sur l'horizon opérationnel. Nous couvrons ensuite l’optimisation de l’affectation charge-transporteur en introduisant un modèle d'optimisation déterministe et les prévisions utilisées en entrée. En l'absence de données réelles, nous générons un ensemble de données synthétiques qui est ensuite utilisé pour estimer les modèles de prévision. L'objectif est de définir quelques modèles de prévision qui présentent des erreurs afin que nous puissions évaluer leur impact sur la qualité de la solution pour le problème de planification opérationnelle. Dans ce contexte, nous comparons plusieurs modèles ARIMA pour prédire les futures demandes et offres. Nous constatons que les modèles avec des erreurs de prévision relativement faibles peuvent conduire à des améliorations significatives de la qualité de la solution. Enfin, nous exposons quelques pistes de recherches futures. / This thesis is about forecasting new shipper-demand requests and carrier-capacity offers for operational planning of Many-to-One-to-Many (M1M) systems. Such a system acts as an intermediary decision-maker between shippers and carriers, coordinating the transportation of goods from shippers to consignees (shipment recipients) using capacity offered from carriers. The decision-maker makes the decisions within an operational planning horizon, optimizing these decisions accounting for uncertainty over future time periods. To support the decisions, forecasting new shipper-demands and carrier capacities is essential. This leads to multi-variate multi-step time series forecasting problems. The objective of this work is to analyze the impact of forecast errors on the solution quality for a given M1M operational planning optimisation method. This thesis first presents the M1M system structure, operational planning, and related forecasting tasks. It explains the characterization of the shipper requests and carrier offers. We describe how forecasting can support the decisions by defining the needed information for the decision-maker over the operational horizon. We then cover the optimization of load-to-carrier assignments introducing a deterministic formulation and the forecasts used as input. In the absence of real data, we generate a synthetic data set that is then used for estimating forecasting models. The aim is to define a few forecasting models that exhibit some errors so that we can assess their impact on the solution quality for the operational planning problem. In this context, we compare several ARIMA models to predict future requests and offers. We find that the models with relatively low forecast errors can lead to significant improvements in solution quality. Finally, we outline a few directions for future research.
20

Agrégation de relations valuées par la méthode de Borda, en vue d'un rangement. Considérations axiomatiques

Marchant, Thierry 15 October 1996 (has links)
<p align="justify">Depuis 20 à 30 ans, l'aide multicritère à la décision est apparue. L'expansion de cette nouvelle discipline s'est marquée dans la littérature essentiellement par un foisonnement de nouvelles méthodes multicritères d'aide à la décision et par des applications de celles-ci à des problèmes "réels". Pour la plupart de ces méthodes, il n'y pas ou peu de fondements théoriques. Seul le bon sens a guidé les créateurs de ces méthodes.</p> <p align="justify">Depuis une dizaine d'années, le besoin de bases théoriques solides se fait de plus en plus sentir. C'est dans cette perspective que nous avons réalisé le présent travail. Ceci étant dit, nous n'allons pas vraiment nous occuper de méthodes multicritères à la décision dans ce travail, mais seulement de fragments de méthodes. En effet, les méthodes multicritères d'aide à la décision peuvent généralement être décomposées en trois parties (outre la définition de l'ensemble des alternatives et le choix des critères):</p> <p align="justify"><ol><li>Modélisation des préférences: pendant cette étape, les préférences du décideur sont modélisées le long de chaque critère. <li>Agrégation des préférences: un modèle global de préférences est construit au départ des modèles obtenus critère par critère à la fin de la phase précédente. <li>Exploitation des résultats de l'agrégation: du modèle global de préférences issu de la phase 2, on déduit un choix, un rangement, une partition, ... selon les besoins.</ol></p> <p align="justify">Jusqu'à présent, à cause de la difficulté du problème, peu de méthodes ont été axiomatisées de bout en bout; la plupart des travaux ne s'intéressent qu'à une ou deux des trois étapes que nous venons de décrire.</p> <p align="justify">Nous nous sommes intéressés à une méthode bien connue: la méthode de Borda. Elle accepte comme données de départ des relations binaires. Elle intervient donc après la phase de modélisation des préférences. Le résultat de cette méthode est un rangement. Elle effectue donc les opérations correspondant aux étapes 2 et 3. Dans la suite de ce travail nous appellerons méthode de rangement toute méthode effectuant les étapes 2 et 3 pour aboutir à un rangement. Etant donné que les méthodes de rangement, celle de Borda en particulier, sont utilisées également en choix social, nous puiserons abondamment dans le vocabulaire, les outils et les résultats du choix social. Les résultats présentés seront valides en choix social, mais nous nous sommes efforcés de les rendre aussi pertinents que possible en aide multicritère à la décision.</p> <p align="justify">Dans le chapitre II, après quelques définitions et notations, nous présentons quelques méthodes de rangement classiques, y compris la méthode de Borda, et quelques résultats majeurs de la littérature. Nous généralisons une caractérisation des méthodes de scorage due à Myerson (1995).</p> <p align="justify">Nous nous tournons ensuite vers les relations valuées. La raison en est la suivante: elles sont utilisées depuis longtemps dans plusieurs méthodes multicritères et, depuis peu, elles le sont aussi en choix social (p.ex. Banerjec 1994) car elles permettent de modéliser plus finement les préférences des décideurs confrontés à des informations incertaines, imprécises, contradictoires, lacunaires, ... Nous commençons donc le chapitre III par des notations et définitions relatives aux relations valuées.</p> <p align="justify">Ensuite, nous présentons quelques méthodes de rangement opérant au départ de relations valuées. C'est-à-dire des méthodes de rangement qui agissent non pas sur des relations nettes, mais sur des relations valuées et qui fournissent comme précédemment un rangement des alternatives. N'ayant trouvé dans la littérature aucune méthode de ce type, toutes celles que nous présentons sont neuves ou des généralisations de méthodes existantes; comme par exemple, les méthodes de scorage généralisées, que nous caractérisons en généralisant encore une fois le résultat de Myerson.</p> <p align="justify">Nous présentons enfin ce que nous appelons la méthode de Borda généralisée, qui est une des généralisations possibles de la méthode de Borda au cas valué. Nous basant sur un article de Farkas et Nitzan (1979), nous montrons que contrairement à ce qui se passait dans le cas particulier envisagé par Farkas et Nitzan (agrégation d'ordres totaux), la méthode de Borda généralisée (et sa particularisation au cas net) n'est pas toujours équivalente à la méthode proximité à l'unanimité. Cette dernière méthode classe chaque alternative en fonction de l'importance des changements qu'il faudrait faire subir à un ensemble de relations pour que l’alternative considérée gagne à l'unanimité. Nous identifions quelques cas où l'équivalence est vraie.</p> <p align="justify">Ensuite, nous reprenons un résultat de Debord (1987). Il s'agit d'une caractérisation de la méthode de Borda en tant que méthode de choix appliquée à des préordres totaux. Nous la généralisons de deux façons au cas de la méthode de Borda en tant que méthode de rangement appliquée à des relations valuées. Lorsqu'on applique la méthode de Borda, on est amené à calculer une fonction à valeurs réelles sur l'ensemble des alternatives.</p> <p align="justify">La valeur prise par cette fonction pour une alternative s'appelle le score de Borda de cette alternative. Ensuite, on range les alternatives par ordre décroissant de leur score de Borda. La tentation est grande - et beaucoup y succombent (peut-être avec raison) d'utiliser le score de Borda non seulement pour calculer le rangement mais aussi pour estimer si l'écart entre deux alternatives est important ou non (voir par exemple Brans 1994). Cette approche n'a, à notre connaissance, jamais été étudiée d'un point de vue théorique. Nous présentons deux caractérisations de la méthode de Borda utilisée à cette fin.</p> <p align="justify">Dans la dernière partie du chapitre III, nous abandonnons la démarche qui visait à caractériser une méthode par un ensemble de propriétés le plus petit possible. Nous comparons 12 méthodes sur base d'une vingtaine de propriétés. Les résultats de cette partie sont résumés dans quelques tableaux.</p> <p align="justify">Ce travail aborde donc la méthode de Borda et sa généralisation au cas valué sous différents angles. Il livre une série de résultats qui, espérons-le, devraient permettre de mieux comprendre la méthode de Borda et peut-être de l'utiliser à meilleur escient. Toutefois, quoique notre objectif ait été de présenter des résultats pertinents en aide multicritère à la décision (et nous avons fait des progrès dans ce sens), il reste du chemin à faire. Nous sommes probablement encore trop proche du choix social. Ceci constitue donc une voie de recherche intéressante, de même que l'étude d'autres méthodes de rangement et l'étude de méthodes complètes d'aide multicritère à la décision: modélisation du problème (identification du ou des décideur(s), des alternatives et des critères), modélisation des préférences, agrégation des préférences et exploitation des résultats de l'agrégation.</p>

Page generated in 0.0777 seconds