• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 20
  • 19
  • 1
  • Tagged with
  • 40
  • 40
  • 23
  • 22
  • 10
  • 9
  • 9
  • 8
  • 7
  • 6
  • 6
  • 6
  • 6
  • 6
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Combinatorial optimization and Markov decision process for planning MRI examinations / Planification des examens IRM à l'aide de processus de décision markovien et optimisation combinatoire

Geng, Na 29 April 2010 (has links)
Cette thèse propose un nouveau processus de réservation d'examens IRM (Imagerie par Résonance Magnétique) afin de réduire les temps d’attente d’examens d'imagerie des patients atteint d'un AVC (Accident Vasculaire Cérébral) soignés dans une unité neurovasculaire. Le service d’imagerie réserve chaque semaine pour l'unité neurovasculaire un nombre donné de créneaux d'examens IRM appelés CTS afin d’assurer un diagnostic rapide aux patients. L'unité neurovasculaire garde la possibilité de réservations régulières appelées RTS pour pallier les variations des flux de patients.Nous donnons d'abord une formulation mathématique du problème d'optimisation pour déterminer le nombre et la répartition des créneaux CTS appelée contrat et une politique d'affectation des patients entre les créneaux CTS ou les réservations RTS. L'objectif est de trouver le meilleur compromis entre le délai d'examens et le nombre de créneaux CTS non utilisés. Pour un contrat donné, nous avons mis en évidence les propriétés et la forme des politiques d'affectation optimales à l'aide d'une approche de processus de décision markovien à coût moyen et coût actualisé. Le contrat est ensuite déterminé par une approche d'approximation Monté Carlo et amélioré par des recherches locales. Les expérimentations numériques montrent que la nouvelle méthode de réservation permet de réduire de manière importante les délais d'examens au prix des créneaux inutilisés.Afin de réduire le nombre de CTS inutilisé, nous explorons ensuite la possibilité d’annuler des créneaux CTS un ou deux jours en avance. Une approche de processus de décision markovien est de nouveau utilisée pour prouver les propriétés et la forme de la politique optimale d’annulation. Les expérimentations numériques montrent que l'annulation avancée des créneaux CTS permet de réduire de manière importante les créneaux CTS inutilisés avec une augmentation légère des délais d'attente. / This research is motivated by our collaborations with a large French university teaching hospital in order to reduce the Length of Stay (LoS) of stroke patients treated in the neurovascular department. Quick diagnosis is critical for stroke patients but relies on expensive and heavily used imaging facilities such as MRI (Magnetic Resonance Imaging) scanners. Therefore, it is very important for the neurovascular department to reduce the patient LoS by reducing their waiting time of imaging examinations. From the neurovascular department perspective, this thesis proposes a new MRI examinations reservation process in order to reduce patient waiting times without degrading the utilization of MRI. The service provider, i.e., the imaging department, reserves each week a certain number of appropriately distributed contracted time slots (CTS) for the neurovascular department to ensure quick MRI examination of stroke patients. In addition to CTS, it is still possible for stroke patients to get MRI time slots through regular reservation (RTS). This thesis first proposes a stochastic programming model to simultaneously determine the contract decision, i.e., the number of CTS and its distribution, and the patient assignment policy to assign patients to either CTS or RTS. To solve this problem, structure properties of the optimal patient assignment policy for a given contract are proved by an average cost Markov decision process (MDP) approach. The contract is determined by a Monte Carlo approximation approach and then improved by local search. Computational experiments show that the proposed algorithms can efficiently solve the model. The new reservation process greatly reduces the average waiting time of stroke patients. At the same time, some CTS cannot be used for the lack of patients.To reduce the unused CTS, we further explore the possibility of the advance cancellation of CTS. Structure properties of optimal control policies for one-day and two-day advance cancellation are established separately via an average-cost MDP approach with appropriate modeling and advanced convexity concepts used in control of queueing systems. Computational experiments show that appropriate advance cancellations of CTS greatly reduce the unused CTS with nearly the same waiting times.
22

Planification des blocs opératoires avec prise en compte des aléas

Lamiri, Mehdi 04 October 2007 (has links) (PDF)
Le bloc opératoire constitue l'un des secteurs les plus coûteux et les plus importants dans un établissement hospitalier. Afin, d'utiliser de manière efficace et rationnelle les ressources (humaines et matérielles) disponibles tout en assurant une bonne qualité de service vis-à-vis des patients, la planification du bloc opératoire est devenue l'une des premières préoccupations des établissements hospitaliers. Le problème de planification du bloc opératoire consiste à déterminer pour un horizon de plusieurs jours, l'ensemble d'interventions qui seront réalisées dans chaque salle opératoire. Ce problème a été traité dans la littérature et plusieurs approches de planification ont été proposées. Toutefois, les approches existantes sont essentiellement basées sur des modèles déterministes qui font abstraction de toutes sortes d'aléas. Or, le bloc opératoire est sujet à nombreuses formes d'aléas qui concernent essentiellement la chirurgie d'urgence et les durées d'interventions. À ce titre, l'objectif de notre travail de recherche est de développer des modèles et méthodes pour la planification des activités chirurgicales dans le bloc opératoire tout en tenant compte des aléas importants. Dans le cadre de cette thèse, nous avons proposé des modèles stochastiques qui (i) capturent les éléments essentiels à considérer lors de la planification des activités chirurgicales, (ii) permettent de modéliser de manière explicite différentes formes d'aléas tels que les incertitudes relatives aux durées des interventions et à la chirurgie d'urgence, et (iii) peuvent être facilement étendus pour modéliser d'autres contraintes dues aux pratiques du terrain. Nous avons aussi développé plusieurs approches et méthodes d'optimisation complètes et complémentaires pour la planification stochastique du bloc opératoire. Moyennant des expérimentations numériques, nous avons évalué les performances de ces différentes approches et nous avons montré leurs efficacités. En particulier, nous avons montré que des gains considérables peuvent être réalisés moyennant une modélisation stochastique du problème de planification du bloc opératoire.
23

Parallel metaheuristics for stochastic capacitated multicommodity network design

Fu, Xiaorui January 2008 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
24

Models and algorithms for network design problems

Poss, Michaël 22 February 2011 (has links)
Dans cette thèse, nous étudions différents modèles, déterministes et stochastiques, pour les problèmes de dimensionnement de réseaux. Nous examinons également le problème du sac-à-dos stochastique ainsi que, plus généralement, les contraintes de capacité en probabilité.<p>\ / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
25

Allocation stratégique d’actifs et ALM pour les régimes de retraites / Strategic assets allocation and ALM for retirement schemes

Faleh, Alaeddine 13 May 2011 (has links)
La présente thèse s’intéresse aux modèles d’allocation stratégiques d’actifs et à leurs applications pour la gestion des réserves financières des régimes de retraite par répartition, en particulier ceux partiellement provisionnés. L’étude de l’utilité des réserves pour un système par répartition et a fortiori de leur gestion reste un sujet peu exploré. Les hypothèses classiques sont parfois jugées trop restrictives pour décrire l'évolution complexe des réserves. De nouveaux modèles et de nouveaux résultats sont développés à trois niveaux : la génération de scénarios économiques (GSE), les techniques d’optimisation numérique et le choix de l’allocation stratégique optimale dans un contexte de gestion actif-passif (ALM). Dans le cadre de la génération de scénarios économiques et financiers, certains indicateurs de mesure de performance du GSE ont été étudiés. Par ailleurs, des améliorations par rapport à ce qui se pratique usuellement lors de la construction du GSE ont été apportées, notamment au niveau du choix de la matrice de corrélation entre les variables modélisées. Concernant le calibrage du GSE, un ensemble d’outils permettant l’estimation de ses différents paramètres a été présenté. Cette thèse a également accordé une attention particulière aux techniques numériques de recherche de l'optimum, qui demeurent des questions essentielles pour la mise en place d'un modèle d'allocation. Une réflexion sur un algorithme d’optimisation globale d’une fonction non convexe et bruitée a été développée. L’algorithme permet de moduler facilement, au moyen de deux paramètres, la réitération de tirages dans un voisinage des points solutions découverts, ou à l’inverse l’exploration de la fonction dans des zones encore peu explorées. Nous présentons ensuite des techniques novatrices d'ALM basées sur la programmation stochastique. Leur application a été développée pour le choix de l’allocation stratégique d’actifs des régimes de retraite par répartition partiellement provisionnés. Une nouvelle méthodologie pour la génération de l’arbre des scénarios a été adoptée à ce niveau. Enfin, une étude comparative du modèle d’ALM développé avec celui basé sur la stratégie Fixed-Mix a été effectuée. Différents tests de sensibilité ont été par ailleurs mis en place pour mesurer l’impact du changement de certaines variables clés d’entrée sur les résultats produits par notre modèle d’ALM / This thesis focuses on the strategic asset allocation models and on their application for the financial reserve management of a pay-as-you-go (PAYG) retirement schemes, especially those with partial provision. The study of the reserve utility for a PAYG system and of their management still leaves a lot to be explored. Classical hypothesis are usually considered too restrictive for the description of the complex reserve evolution. New models and new results have been developed over three levels : economic scenario generation (ESG), numerical optimization techniques and the choice of optimal strategic asset allocation in the case of an Asset-Liability Management (ALM). For the generation of financial and economic scenarios, some ESG performance indicators have been studied. Also, we detailed and proposed to improve ESG construction, notably the choice of the correlation matrix between modelled variables. Then, a set of tools were presented so that we could estimate ESG parameters variety. This thesis has also paid particular attention to numerical techniques of optimum research, which is an important step for the asset allocation implementation. We developed a reflexion about a global optimisation algorithm of a non convex and a noisy function. The algorithm allows for simple modulating, through two parameters, the reiteration of evaluations at an observed point or the exploration of the noisy function at a new unobserved point. Then, we presented new ALM techniques based on stochastic programming. An application to the strategic asset allocation of a retirement scheme with partial provision is developed. A specific methodology for the scenario tree generation was proposed at this level. Finally, a comparative study between proposed ALM model and Fixed-Mix strategy based model was achieved. We also made a variety of a sensitivity tests to detect the impact of the input values changes on the output results, provided by our ALM model
26

Evaluating the utility of short-term hydrological forecasts in a hydropower system

Nikghalb Ashouri, Hajar 26 January 2019 (has links)
Le fonctionnement optimal d'un système de réservoirs est un processus décisionnel complexe impliquant, entre autres, l'identication d'un compromis temporel concernant l'utilisation de l'eau : la dernière unité d'eau doit-elle être conservée ou plutôt utilisée pour un usage immédiat? La variabilité des apports hydrologiques complique encore davantage ce processus décisionnel puisque la recherche de ce compromis doit être effectuée sans une connaissance parfaite des conditions futures. De manière générale, l'équilibre optimal entre les utilisations immédiates et futures de l'eau nécessite l'intégration de règles de gestion à court et à long terme. Si les règles à court terme conduisent à des décisions à courte vue, les stratégies opérationnelles à long terme ne sont pas appropriées pour gérer des événements à court terme tels que les inondations. Nous proposons un cadre de modélisation basé sur l'approche de décomposition temporelle (DT) : Les stratégies à moyen/long terme sont tout d'abord déterminées puis utilisées comme limites pour l'optimisation des stratégies à court terme. Le modèle d'optimisation à moyen terme capture la persistance temporelle trouvée dans le processus des apports hydrologiques hebdomadaires, alors que les prévisions hydrologiques d'ensemble (PHE) sont utilisées pour piloter le modèle à court terme sur un pas de temps journalier. Plus spécifiquement, la programmation dynamique stochastique duale (SDDP) génère les fonctions des bénéces de valeur hebdomadaires qui sont ensuite imposées à un modèle de programmation linéaire implémenté sur chaque membre des PHE de 14 jours. Ce cadre de modélisation est mis en oeuvre selon un mode de gestion en horizon roulant sur une cascade de centrales hydroélectriques dans le bassin de la rivière Gatineau dans la province du Québec au Canada. À l'aide de ce cadre de modélisation, nous analysons la relation entre la valeur économique et les caractéristiques statistiques des PHE. Les résultats montrent que l'énergie générée par le système hydroélectrique augmente avec la précision et la résolution de la prévision, mais que la relation n'est pas univoque. En effet, d'autres facteurs semblent contribuer à l'utilité de la prévision / The optimal operation of a system of reservoirs is a complex decision-making problem involving, among others, the identification of a temporal trade-offs regarding the use of water. Should the last unit of water be kept in storage or rather be released for use downstream? The variability of natural inflows further complicates this decision-making problem: at any given point in space and time, this trade-off must be made without a perfect knowledge of future reservoir in flows. Generally speaking, the optimal balance between immediate and future uses of water requires the integration of short- and long-term policies. If short-term policies lead to shortsighted decisions, long-term operational strategies are not appropriate to handle short-term events such as floods. We propose a modeling framework based on the time decomposition (TD) approach: mid/long-term policies are determined first and then used as boundary conditions for the optimization of short-term policies. The mid-term optimization model captures the temporal persistence found in the weekly streamflow process whereas Ensemble Streamflow Forecasts (ESF) are used to drive the short-term model on a daily time step. More specifically, a Stochastic Dual Dynamic Programming (SDDP) generates the weekly benefit-to-go functions that are then imposed to a linear programming model implemented on each 14-days member of the ESF. This modelling framework is implemented in a rolling-horizon mode on a cascade of hydropower stations in the Gatineau River basin, Quebec, Canada. Using this modelling framework, we analyze the relationship between the economic value of different sets of short-term hydrologic forecasts. The results show that the energy generated by the hydropower system increases with the forecast's accuracy and resolution but that the relationship is not univocal; other factors seem to contribute to the forecast's utility.
27

Optimisation stochastique des systèmes multi-réservoirs par l'agrégation de scénarios et la programmation dynamique approximative

Zéphyr, Luckny 23 April 2018 (has links)
Les problèmes de gestion des réservoirs sont stochastiques principalement à cause de l’incertitude sur les apports naturels. Ceci entraine des modèles d’optimisation de grande taille pouvant être difficilement traitables numériquement. La première partie de cette thèse réexamine la méthode d’agrégation de scénarios proposée par Rockafellar et Wets (1991). L’objectif consiste à améliorer la vitesse de convergence de l’algorithme du progressive hedgging sur lequel repose la méthode. L’approche traditionnelle consiste à utiliser une valeur fixe pour ce paramètre ou à l’ajuster selon une trajectoire choisie a priori : croissante ou décroissante. Une approche dynamique est proposée pour mettre à jour le paramètre en fonction d’information sur la convergence globale fournie par les solutions à chaque itération. Il s’agit donc d’une approche a posteriori. La thèse aborde aussi la gestion des réservoirs par la programmation dynamique stochastique. Celle-ci se prête bien à ces problèmes de gestion à cause de la nature séquentielle de leurs décisions opérationnelles. Cependant, les applications sont limitées à un nombre restreint de réservoirs. La complexité du problème peut augmenter exponentiellement avec le nombre de variables d’état, particulièrement quand l’approche classique est utilisée, i.e. en discrétisant l’espace des états de « manière uniforme ». La thèse propose une approche d’approximation sur une grille irrégulière basée sur une décomposition simpliciale de l’espace des états. La fonction de valeur est évaluée aux sommets de ces simplexes et interpolée ailleurs. À l’aide de bornes sur la vraie fonction, la grille est raffinée tout en contrôlant l’erreur d’approximation commise. En outre, dans un contexte décision-information spécifique, une hypothèse « uni-bassin », souvent utilisée par les hydrologues, est exploitée pour développer des formes analytiques pour l’espérance de la fonction de valeur. Bien que la méthode proposée ne résolve pas le problème de complexité non polynomiale de la programmation dynamique, les résultats d’une étude de cas industrielle montrent qu’il n’est pas forcément nécessaire d’utiliser une grille très dense pour approximer la fonction de valeur avec une précision acceptable. Une bonne approximation pourrait être obtenue en évaluant cette fonction uniquement en quelques points de grille choisis adéquatement. / Reservoir operation problems are in essence stochastic because of the uncertain nature of natural inflows. This leads to very large optimization models that may be difficult to handle numerically. The first part of this thesis revisits the scenario aggregation method proposed by Rochafellar and Wets (1991). Our objective is to improve the convergence of the progressive hedging algorithm on which the method is based. This algorithm is based on an augmented Lagrangian with a penalty parameter that plays an important role in its convergence. The classical approach consists in using a fixed value for the parameter or in adjusting it according a trajectory chosen a priori: decreasing or increasing. This thesis presents a dynamic approach to update the parameter based on information on the global convergence provided by the solutions at each iteration. Therefore, it is an a posteriori scheme. The thesis also addresses reservoir problems via stochastic dynamic programming. This scheme is widely used for such problems because of the sequential nature of the operational decisions of reservoir management. However, dynamic programing is limited to a small number of reservoirs. The complexity may increase exponentially with the dimension of the state variables, especially when the classical approach is used, i.e. by discretizing the state space into a "regular grid". This thesis proposes an approximation scheme over an irregular grid based on simplicial decomposition of the state space. The value function is evaluated over the vertices of these simplices and interpolated elsewhere. Using bounds on the true function, the grid is refined while controlling the approximation error. Furthermore, in a specific information-decision context, a "uni-bassin" assumption often used by hydrologists is exploited to develop analytical forms for the expectation of the value function. Though the proposed method does not eliminate the non-polynomial complexity of dynamic programming, the results of an industrial case study show that it is not absolutely necessary to use a very dense grid to appropriately approximate the value function. Good approximation may be obtained by evaluating this function at few appropriately selected grid points.
28

Modèles et méthodes pour la planification de la récolte forestière

Gémieux, Géraldine 08 1900 (has links)
Ce projet de recherche a été réalisé avec la collaboration de FPInnovations. Une part des travaux concernant le problème de récolte chilien a été effectuée à l'Instituto Sistemas Complejos de Ingeniería (ISCI) à Santiago (Chili). / La planification de la récolte forestière comporte différents niveaux de planification selon l'horizon de temps du problème et la nature des décisions à prendre. Dans un premier temps, nous nous intéressons à un problème de planification annuelle de la récolte, à mi-chemin entre la planification tactique et opérationnelle. Ce problème appliqué à l'exploitation forestière au Québec, naît d'un besoin de l'industrie québécoise d'un outil pour la planification annuelle intégrée qui fournit aux équipes de récolte leur calendrier. L'intégration consiste à déterminer les affectations des équipes aux blocs en fonction des besoins des usines, et qui respectent les contraintes de transport, de gestion des stocks, et bien entendu les conditions d'exploitation en forêt. Plusieurs modèles de types MIP ont été formulés, des approches de résolution adaptées à la structure de chacun des modèles ont été développées. L'approche par horizon roulant est celle dont les résultats surpassent les deux autres et surtout, améliorent de façon significative les plans usuellement suivis, notamment en réduisant les volumes non livrés aux usines de moitié, ou encore en divisant entre 2 et 6 fois les volumes en stock quand la demande diminue. De plus, le développement d'une interface pour systématiser le processus de résolution et élargir le nombre d'utilisateurs, est la seconde contribution de la thèse. Cette étape du projet correspond à un transfert de technologie de l'université vers l'industrie. Le second problème de planification se situe au Chili, est une planification tactique de la récolte dirigée par les prix et demandes en produits finis, ces derniers étant considérés comme des paramètres aléatoires. Le problème stochastique formulé est résolu suivant une méthode de décomposition par scénarios dont le nombre varie entre 10 et 100. Pour chaque scénario, la solution déterministe, lorsqu'elle est réalisable, est comparée avec celle issue de la résolution du problème stochastique. La solution déterministe n'est réalisable que pour une dizaine de scénarios parmi 100, et les pertes encourues sont en moyenne de 9%. / Harvest planning has different levels according to the time horizon of the problem and the nature of the decisions to be taken. Initially, we are interested in an annual harvest scheduling problem, halfway between tactical and operational planning. This problem applied in Qu\'ebec, is motivated by a need from the industry for an integrated tool that provides annual schedules to harvest teams. The integration is to determine demand driven assignments of teams to cutblocks and to manage transportation and inventory accordingly. Several MIP models have been formulated, and three solution approaches have been developed according to the structure of each model. The rolling horizon approach performs better than the other two, by improving significantly from the traditional harvest plan, especially by reducing by half non delivered volumes or by dividing between 2 and 6 times volumes in storage when demands decrease. Another contribution of the thesis is the creation of an interface to systematize solution process and to allow other users. This is the object of a transfer project between academics and industry. The second problem is a Chilean tactical harvest planning. Harvesting decisions are driven by stochastic demands and prices of final products. The stochastic problem is solved using a heuristic based on a scenario decomposition technique. The number of scenarios considered is between 10 and 100 scenarios. For each scenario, when the deterministic solution is feasible, it is compared with the stochastic solution for the current scenario. The deterministic solution is only feasible for 10% of the scenarios, and induces losses of 9% in average.
29

Aide à la conception de chaînes logistiques humanitaires efficientes et résilientes : application au cas des crises récurrentes péruviennes / Resilient and efficient humanitarian supply chain design approach : application to recurrent peruvian disasters

Vargas Florez, Jorge 15 October 2014 (has links)
Chaque année, plus de 400 catastrophes naturelles frappent le monde. Pour aider les populations touchées, les organisations humanitaires stockent par avance de l’aide d’urgence dans des entrepôts. Cette thèse propose des outils d’aide à la décision pour les aider à localiser et dimensionner ces entrepôts. Notre approche repose sur la construction de scénarios représentatifs. Un scénario représente la survenue d’une catastrophe dont on connaît l’épicentre, la gravité et la probabilité d’occurrence. Cette étape repose sur l’exploitation et l’analyse de bases de données des catastrophes passées. La seconde étape porte sur la propagation géographique de la catastrophe et détermine son impact sur la population des territoires touchés. Cet impact est fonction de la vulnérabilité et de la résilience du territoire. La vulnérabilité mesure la valeur attendue des dégâts alors que la résilience estime la capacité à résister au choc et à se rétablir rapidement. Les deux sont largement déterminées par des facteurs économiques et sociaux, soit structurels (géographie, PIB…) ou politiques (existence d’infrastructure d’aide, normes de construction…). Nous proposons par le biais d’analyses en composantes principales (ACP) d’identifier les facteurs influents de résilience et de vulnérabilité, puis d’estimer le nombre de victimes touchées à partir de ces facteurs. Souvent, les infrastructures (eau, télécommunication, électricité, voies de communication) sont détruits ou endommagés par la catastrophe (ex : Haïti en 2010). La dernière étape a pour objectif d’évaluer les impacts logistiques en ce qui concerne : les restrictions des capacités de transport existant et la destruction de tout ou partie des stocks d’urgence. La suite de l’étude porte sur la localisation et le dimensionnement du réseau d’entrepôt. Nos modèles présentent l’originalité de tenir compte de la dégradation des ressources et infrastructures suite due à la catastrophe (dimension résilience) et de chercher à optimiser le rapport entre les coûts engagés et le résultat obtenu (dimension efficience). Nous considérons d’abord un scénario unique. Le problème est une extension d’un problème de location classique. Puis, nous considérons un ensemble de scénarios probabilisés. Cette approche est indispensable à la considération du caractère très incertain des catastrophes humanitaires. L’ensemble de ces contributions a été confronté à la réalité des faits dans le cadre d’une application au cas des crises récurrentes du Pérou. Ces crises, essentiellement dues aux tremblements de terre et aux inondations (El Niño), imposent la constitution d’un réseau logistique de premiers secours qui soit résilient et efficient. / Every year, more than 400 natural disasters hit the world. To assist those affected populations, humanitarian organizations store in advance emergency aid in warehouses. This PhD thesis provides tools for support decisions on localization and sizing of humanitarian warehouses. Our approach is based on the design of representative and realistic scenarios. A scenario expresses some disasters’ occurrences for which epicenters are known, as well as their gravity and frequency. This step is based on the exploitation and analysis of databases of past disasters. The second step tackles about possible disaster’s propagation. The objective consists in determining their impact on population on each affected area. This impact depends on vulnerability and resilience of the territory. Vulnerability measures expected damage values meanwhile resilience estimates the ability to withstand some shock and recover quickly. Both are largely determined by social and economic factors, being structural (geography, GDP, etc.) or political (establishment or not relief infrastructure, presence and strict enforcement of construction standards, etc.). We propose through Principal Component Analysis (PCA) to identify, for each territory, influential factors of resilience and vulnerability and then estimate the number of victims concerned using these factors. Often, infrastructure (water, telecommunications, electricity, communication channels) are destroyed or damaged by the disaster (e.g. Haiti in 2010). The last step aims to assess the disaster logistics impact, specifically those related to with: transportation flows capacity limitations and destruction of all or part of emergency relief inventories. The following of our study focuses on location and allocation of a warehouses’ network. The proposed models have the originality to consider potential resources and infrastructure degradation after a disaster (resilience dimension) and seek optimizing the equilibrium between costs and results (effectiveness dimension). Initially we consider a single scenario. The problem is an extension of classical location studies. Then we consider a set of probable scenarios. This approach is essential due to the highly uncertain character of humanitarian disasters. All of these contributions have been tested and validated through a real application case: Peruvian recurrent disasters. These crises, mainly due to earthquakes and floods (El Niño), require establishment of a first aid logistics network that should be resilient and efficient.
30

Optimisation et simulation d'une chaîne logistique : application au secteur de l'agriculture / Supply chain optimization and simulation : an application to agricultural sector

Borodin, Valeria 01 December 2014 (has links)
Dans le cadre de la thèse portant sur l’optimisation et simulation de la chaîne logistique agricole, c'est l'activité de collecte qui est concernée, la période de moisson étant primordiale en matière de quantité et qualité de production, i.e. des revenus pour les agri-culteurs et des richesses pour le territoire. Plus spécifiquement, celle-ci implique les opérations de récolte, transport et stockage des céréales, réalisées par plusieurs exploitations agricoles, dispersées géographiquement. En vue d'aborder la complexité et la nature dyna-mique de la chaîne logistique d’une coopérative agricole française dans son intégralité, nous avons développé un système d'aide à la décision, qui s'inscrit dans la cadre de la recherche opérationnelle (RO) et plus précisément se réfère à l'optimisation linéaire, robuste et stochastique; la simulation de flux à évènements discrets; ainsi qu'à leur couplage. De plus, la synergie créée entre les outils de la RO, le système d’information géographique, la statistique inférentielle et prédictive rend le système d'aide à la décision compétitif et performant, capable de répondre convenablement au besoin de l’industriel / To overcome the new challenges facing agricultural sector, imposed by globalisation, changing market demands and price instability, the crop production supply chain must particularly be very reactive, flexible, with a high yield and at low cost. Its improving and eventual re-configuration can lead to an upgrade in efficiency, responsiveness, business integration and make it able to confront the market competitiveness. The thesis is thus placed in this particular context and aims to support decision making in crop harvesting activity, which is considered the pivotal stage in the cereal production circuit owing to its high cost and impact on the returns earned. Managing the harvest activity involves gathering, transportation and storage operations, performed by a collection of agricultural holdings geographically dispersed. Besides its practical relevance, this thesis forms part of the Operational Research (OR) and more specifically, refers to the linear and stochastic programming, discrete event simulation, and their coupling. In addition, the synergy created between OR, inferential and predictive statistics, geographical information system tools makes the decision support system competitive, efficient and responsive

Page generated in 0.1775 seconds