• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 24
  • 20
  • 1
  • Tagged with
  • 45
  • 45
  • 17
  • 15
  • 14
  • 10
  • 9
  • 9
  • 8
  • 7
  • 6
  • 6
  • 6
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Optimisation des transferts inter-sites chez un fabricant de produits agricoles

Nde Pekuelkue, Hornella Sylvanie 17 June 2021 (has links)
Ce mémoire aborde la problématique des transferts inter-sites. Utilisés comme moyen d'accroître la disponibilité des produits, de limiter les ruptures de stocks, et de mieux servir les clients, les transferts inter-sites tendent à devenir un fardeau pour les entreprises lorsque la gestion de l'inventaire est inefficace et décentralisée. Ils sont en effet sources de coûts, de transports parfois inutiles, et d'émissions de gaz à effet de serre, d'où la nécessité de les optimiser. En collaboration avec un partenaire industriel dans le secteur agricole, ce projet vise l'optimisation des coûts et émissions associés aux transferts inter-sites. Pour y parvenir, nous modélisons et résolvons un problème d'inventory transshipment problem, dont la fonction objectif est la minimisation du coût total, comprenant les coûts de transfert, de distribution, de stockage et de location. Nos résultats montrent que d'importants gains peuvent être obtenus grâce à la gestion centralisée de l'inventaire et à l'intégration des décisions. On observe une réduction comprise entre 36,86% et 99,92% pour les coûts de transferts, 41,33% et 99,98% pour les émissions associées aux transferts, et 0,56% et 92,48% pour le coût total. Le présent document est structuré comme suit. Premièrement, une introduction générale est présentée. Puis, les données sont analysées dans le chapitre 1. Le problème est ensuite résolu dans le chapitre 2. Finalement, nos conclusions et des orientations pour de futurs travaux sont présentées. / This master thesis addresses the issue of inter-plants transfers. Although used as a strategy to increase products availability, manage unanticipated stock-outs, and improve service levels, inter-plant transfers tend to become a burden on companies when inventory management is inefficient and decentralized. Indeed, they generate important costs and contribute to greenhouse gas emissions. Thus, they must be optimized. In collaboration with an industrial partner in the agricultural sector, this project aims to optimize costs and emissions linked to inter-plant transfers. In order to achieve that, we model and solve an inventory transshipment problem in which the objective function minimises total costs consisting of transshipment, distribution, inventory, and renting costs. Our results show that significant gains can be achieved through centralized inventory management and integration. We observe savings between 36.86% and 99.92% for transshipment costs, 41.33% and 99.98% for emissions linked to transfers, and 0.56% and 92.48% for the total cost. This document is organized as follows. First, a general introduction is presented. Then, data are analyzed in Chapter 1. The optimization problem is solved in Chapter 2. Finally, our conclusions and directions for future work are presented.
22

Development of a GIS-based method for sensor network deployment and coverage optimization

Argany, Meysam 23 April 2018 (has links)
Au cours des dernières années, les réseaux de capteurs ont été de plus en plus utilisés dans différents contextes d’application allant de la surveillance de l’environnement au suivi des objets en mouvement, au développement des villes intelligentes et aux systèmes de transport intelligent, etc. Un réseau de capteurs est généralement constitué de nombreux dispositifs sans fil déployés dans une région d'intérêt. Une question fondamentale dans un réseau de capteurs est l'optimisation de sa couverture spatiale. La complexité de l'environnement de détection avec la présence de divers obstacles empêche la couverture optimale de plusieurs zones. Par conséquent, la position du capteur affecte la façon dont une région est couverte ainsi que le coût de construction du réseau. Pour un déploiement efficace d'un réseau de capteurs, plusieurs algorithmes d'optimisation ont été développés et appliqués au cours des dernières années. La plupart de ces algorithmes reposent souvent sur des modèles de capteurs et de réseaux simplifiés. En outre, ils ne considèrent pas certaines informations spatiales de l'environnement comme les modèles numériques de terrain, les infrastructures construites humaines et la présence de divers obstacles dans le processus d'optimisation. L'objectif global de cette thèse est d'améliorer les processus de déploiement des capteurs en intégrant des informations et des connaissances géospatiales dans les algorithmes d'optimisation. Pour ce faire, trois objectifs spécifiques sont définis. Tout d'abord, un cadre conceptuel est développé pour l'intégration de l'information contextuelle dans les processus de déploiement des réseaux de capteurs. Ensuite, sur la base du cadre proposé, un algorithme d'optimisation sensible au contexte local est développé. L'approche élargie est un algorithme local générique pour le déploiement du capteur qui a la capacité de prendre en considération de l'information spatiale, temporelle et thématique dans différents contextes d'applications. Ensuite, l'analyse de l'évaluation de la précision et de la propagation d'erreurs est effectuée afin de déterminer l'impact de l'exactitude des informations contextuelles sur la méthode d'optimisation du réseau de capteurs proposée. Dans cette thèse, l'information contextuelle a été intégrée aux méthodes d'optimisation locales pour le déploiement de réseaux de capteurs. L'algorithme développé est basé sur le diagramme de Voronoï pour la modélisation et la représentation de la structure géométrique des réseaux de capteurs. Dans l'approche proposée, les capteurs change leur emplacement en fonction des informations contextuelles locales (l'environnement physique, les informations de réseau et les caractéristiques des capteurs) visant à améliorer la couverture du réseau. La méthode proposée est implémentée dans MATLAB et est testée avec plusieurs jeux de données obtenus à partir des bases de données spatiales de la ville de Québec. Les résultats obtenus à partir de différentes études de cas montrent l'efficacité de notre approche. / In recent years, sensor networks have been increasingly used for different applications ranging from environmental monitoring, tracking of moving objects, development of smart cities and smart transportation system, etc. A sensor network usually consists of numerous wireless devices deployed in a region of interest. A fundamental issue in a sensor network is the optimization of its spatial coverage. The complexity of the sensing environment with the presence of diverse obstacles results in several uncovered areas. Consequently, sensor placement affects how well a region is covered by sensors as well as the cost for constructing the network. For efficient deployment of a sensor network, several optimization algorithms are developed and applied in recent years. Most of these algorithms often rely on oversimplified sensor and network models. In addition, they do not consider spatial environmental information such as terrain models, human built infrastructures, and the presence of diverse obstacles in the optimization process. The global objective of this thesis is to improve sensor deployment processes by integrating geospatial information and knowledge in optimization algorithms. To achieve this objective three specific objectives are defined. First, a conceptual framework is developed for the integration of contextual information in sensor network deployment processes. Then, a local context-aware optimization algorithm is developed based on the proposed framework. The extended approach is a generic local algorithm for sensor deployment, which accepts spatial, temporal, and thematic contextual information in different situations. Next, an accuracy assessment and error propagation analysis is conducted to determine the impact of the accuracy of contextual information on the proposed sensor network optimization method. In this thesis, the contextual information has been integrated in to the local optimization methods for sensor network deployment. The extended algorithm is developed based on point Voronoi diagram in order to represent geometrical structure of sensor networks. In the proposed approach sensors change their location based on local contextual information (physical environment, network information and sensor characteristics) aiming to enhance the network coverage. The proposed method is implemented in MATLAB and tested with several data sets obtained from Quebec City spatial database. Obtained results from different case studies show the effectiveness of our approach.
23

Multi-criteria optimization algorithms for high dose rate brachytherapy

Cui, Songye 08 November 2019 (has links)
L’objectif général de cette thèse est d’utiliser les connaissances en physique de la radiation, en programmation informatique et en équipement informatique à la haute pointe de la technologie pour améliorer les traitements du cancer. En particulier, l’élaboration d’un plan de traitement en radiothérapie peut être complexe et dépendant de l’utilisateur. Cette thèse a pour objectif de simplifier la planification de traitement actuelle en curiethérapie de la prostate à haut débit de dose (HDR). Ce projet a débuté à partir d’un algorithme de planification inverse largement utilisé, la planification de traitement inverse par recuit simulé (IPSA). Pour aboutir à un algorithme de planification inverse ultra-rapide et automatisé, trois algorithmes d’optimisation multicritères (MCO) ont été mis en oeuvre. Suite à la génération d’une banque de plans de traitement ayant divers compromis avec les algorithmes MCO, un plan de qualité a été automatiquement sélectionné. Dans la première étude, un algorithme MCO a été introduit pour explorer les frontières de Pareto en curiethérapie HDR. L’algorithme s’inspire de la fonctionnalité MCO intégrée au système Raystation (RaySearch Laboratories, Stockholm, Suède). Pour chaque cas, 300 plans de traitement ont été générés en série pour obtenir une approximation uniforme de la frontière de Pareto. Chaque plan optimal de Pareto a été calculé avec IPSA et chaque nouveau plan a été ajouté à la portion de la frontière de Pareto où la distance entre sa limite supérieure et sa limite inférieure était la plus grande. Dans une étude complémentaire, ou dans la seconde étude, un algorithme MCO basé sur la connaissance (kMCO) a été mis en oeuvre pour réduire le temps de calcul de l’algorithme MCO. Pour ce faire, deux stratégies ont été mises en oeuvre : une prédiction de l’espace des solutions cliniquement acceptables à partir de modèles de régression et d’un calcul parallèle des plans de traitement avec deux processeurs à six coeurs. En conséquence, une banque de plans de traitement de petite taille (14) a été générée et un plan a été sélectionné en tant que plan kMCO. L’efficacité de la planification et de la performance dosimétrique ont été comparées entre les plans approuvés par le médecin et les plans kMCO pour 236 cas. La troisième et dernière étude de cette thèse a été réalisée en coopération avec Cédric Bélanger. Un algorithme MCO (gMCO) basé sur l’utilisation d’un environnement de développement compatible avec les cartes graphiques a été mis en oeuvre pour accélérer davantage le calcul. De plus, un algorithme d’optimisation quasi-Newton a été implémenté pour remplacer le recuit simulé dans la première et la deuxième étude. De cette manière, un millier de plans de traitement avec divers compromis et équivalents à ceux générés par IPSA ont été calculés en parallèle. Parmi la banque de plans de traitement généré par l’agorithme gMCO, un plan a été sélectionné (plan gMCO). Le temps de planification et les résultats dosimétriques ont été comparés entre les plans approuvés par le médecin et les plans gMCO pour 457 cas. Une comparaison à grande échelle avec les plans approuvés par les radio-oncologues montre que notre dernier algorithme MCO (gMCO) peut améliorer l’efficacité de la planification du traitement (de quelques minutes à 9:4 s) ainsi que la qualité dosimétrique des plans de traitements (des plans passant de 92:6% à 99:8% selon les critères dosimétriques du groupe de traitement oncologique par radiation (RTOG)). Avec trois algorithmes MCO mis en oeuvre, cette thèse représente un effort soutenu pour développer un algorithme de planification inverse ultra-rapide, automatique et robuste en curiethérapie HDR. / The overall purpose of this thesis is to use the knowledge of radiation physics, computer programming and computing hardware to improve cancer treatments. In particular, designing a treatment plan in radiation therapy can be complex and user-dependent, and this thesis aims to simplify current treatment planning in high dose rate (HDR) prostate brachytherapy. This project was started from a widely used inverse planning algorithm, Inverse Planning Simulated Annealing (IPSA). In order to eventually lead to an ultra-fast and automatic inverse planning algorithm, three multi-criteria optimization (MCO) algorithms were implemented. With MCO algorithms, a desirable plan was selected after computing a set of treatment plans with various trade-offs. In the first study, an MCO algorithm was introduced to explore the Pareto surfaces in HDR brachytherapy. The algorithm was inspired by the MCO feature integrated in the Raystation system (RaySearch Laboratories, Stockholm, Sweden). For each case, 300 treatment plans were serially generated to obtain a uniform approximation of the Pareto surface. Each Pareto optimal plan was computed with IPSA, and each new plan was added to the Pareto surface portion where the distance between its upper boundary and its lower boundary was the largest. In a companion study, or the second study, a knowledge-based MCO (kMCO) algorithm was implemented to shorten the computation time of the MCO algorithm. To achieve this, two strategies were implemented: a prediction of clinical relevant solution space with previous knowledge, and a parallel computation of treatment plans with two six-core CPUs. As a result, a small size (14) plan dataset was created, and one plan was selected as the kMCO plan. The planning efficiency and the dosimetric performance were compared between the physician-approved plans and the kMCO plans for 236 cases. The third and final study of this thesis was conducted in cooperation with Cédric Bélanger. A graphics processing units (GPU) based MCO (gMCO) algorithm was implemented to further speed up the computation. Furthermore, a quasi-Newton optimization engine was implemented to replace simulated annealing in the first and the second study. In this way, one thousand IPSA equivalent treatment plans with various trade-offs were computed in parallel. One plan was selected as the gMCO plan from the calculated plan dataset. The planning time and the dosimetric results were compared between the physician-approved plans and the gMCO plans for 457 cases. A large-scale comparison against the physician-approved plans shows that our latest MCO algorithm (gMCO) can result in an improved treatment planning efficiency (from minutes to 9:4 s) as well as an improved treatment plan dosimetric quality (Radiation Therapy Oncology Group (RTOG) acceptance rate from 92.6% to 99.8%). With three implemented MCO algorithms, this thesis represents a sustained effort to develop an ultra-fast, automatic and robust inverse planning algorithm in HDR brachytherapy.
24

Optimisation de l'ingénierie de réseaux manufacturiers

Paquet, Marc 12 April 2018 (has links)
La tendance actuelle est à la restructuration rapide des entreprises. Dans un contexte dynamique, ces entreprises doivent être en mesure de s'adapter rapidement aux changements s'opérant dans leur environnement. Ces changements se répercutent presqu'assurément sur leur réseau logistique. L'analyse des stratégies de production, qui incluent les technologies à privilégier ainsi que la capacité requise des processeurs et de la main d'œuvre, doit être effectuée de plus en plus fréquemment afin de permettre aux entreprises de demeurer compétitives. Ces stratégies doivent être flexibles et robustes dans le but de favoriser les réorganisations souhaitées. Cette thèse propose des outils mathématiques d'aide à la réingénierie de réseaux manufacturiers dont le but est de faciliter la prise de décision de la part des entreprises subissant ce type de pressions. Ces outils fournissent des indicateurs de performance afin d'aider efficacement ces entreprises. De plus, ils permettent de réaliser différentes analyses en considérant des scénarios probables et de les comparer. Enfin, les alternatives fournies par ces outils permettent d'obtenir de l'information pertinente a l'étude du réseau manufacturier et ce, dans des délais raisonnables. Trois différents modèles mathématiques de programmation linéaires en nombres entiers sont développés dans le cadre de cette thèse et font office d'outils d'aide à la décision. Les modèles proposés intègrent des aspects complexes que les outils conventionnels ne sont pas en mesure de considérer adéquatement. En effet, ce type de modèle devient rapidement très complexe et difficile à résoudre. Les éléments considérés incluent la localisation des sites de production et leur organisation, le choix et les habiletés des processeurs et de la main d'œuvre et le temps de réponse et le niveau de service offerts aux clients dans un contexte de maximisation des profits dans le cas du dernier modèle. Différentes techniques avancées de recherche opérationnelle ont été investiguées. Notons les approches de décomposition et les techniques accélératrices comme l'ajout de coupes d'optimalité valides. Les résultats obtenus d'après le contexte des expérimentations réalisées démontrent la valeur managériale des outils proposés. Enfin, différentes perspectives de travail intéressantes sont soulevées, favorisant les avancées dans ce domaine de recherche motivant et en pleine ébullition. / Today's enterprises need fast reorganizations. In a dynamic context, enterprises must be able to quickly adapt to environment changes. Moreover, these changes generally reflect on their supply chain. Site selection and production strategies, including technology choices and capacity planning of processors and workers, must be analyzed more frequently in order for the enterprise to remain competitive. These strategies must be flexible and robust in order to support reorganizations of the enterprise. The thesis proposes a set of mathematical tools which aim to help enterprises in the design of their manufacturing networks. The objective of theses tools is to facilitate decision making for enterprises in this context. They provide a means for assessing through key performance indicators the impact of a manufacturing network on the competitiveness of the enterprise. They enable the analysis and comparison of actual versus proposed alternative network designs. They also provide a means for generating in satisfying time sets of realistic optimized alternatives. Mixed integer linear programming models are developed and act as decision-support tools. These models integrate complex aspects that conventional tools are not able to consider adequately. Actually, these models are difficult to solve. Many advanced techniques of operations research were investigated and implemented in this thesis, including decomposition methods and accelerative techniques, like the addition of valid cuts. The results obtained by experimentation show the value of these models as managerial tools. Interesting avenues of research were raised supporting the development of this motivating field of research.
25

Bénéfices et exigences de l'optimisation mathématique pour la planification de l'allocation du bois aux usines de produits forestiers

Auger, Maxime 24 April 2018 (has links)
La planification des approvisionnements représente un grand un défi pour l’industrie forestière, surtout dans le contexte où la forêt naturelle est caractérisée par une grande hétérogénéité de la matière première servant à générer différents produits. Ainsi, l’élaboration de plans pour répondre à la demande des usines devient un problème complexe pour les planificateurs forestiers. La planification automatisée faisant usage d’outils d’optimisation permet de tenir compte de plusieurs facteurs importants pour la planification. Dans la littérature, plusieurs modèles théoriques ont été proposés, mais il semble que très peu de ces modèles soient actuellement utilisés par les entreprises. On suppose que la complexité du problème, l’environnement naturel en constante évolution, de même que l’expertise nécessaire pour utiliser ces modèles limitent leur application dans un contexte industriel. Néanmoins, la mise en œuvre de ces outils pourrait améliorer significativement le bénéfice des entreprises forestières. Les objectifs de l’étude sont (i) évaluer le potentiel d'implantation de l'optimisation mathématique en entreprise, notamment en identifiant les ressources supplémentaires nécessaires à l’adoption d’une telle approche (ii) estimer les bénéfices et avantages d'utiliser l'optimisation mathématique pour soutenir les décisions de planification dans un contexte industriel (iii) analyser l’effet d’une variation dans les informations utilisées pour la confection des plans. Le logiciel d’optimisation LogiLab, développé par le consortium de recherche FORAC, a été utilisé en support à cette étude. L’outil permet de maximiser le profit généré dans la chaîne d’approvisionnement grâce à une allocation optimale de la matière première vers les usines du réseau. Le modèle considère simultanément la récolte, le transport, l’hétérogénéité de la forêt et la performance des usines. Dans ce projet, nous avons adapté LogiLab pour permettre son application dans une étude de cas visant une entreprise de produits forestiers canadienne. Nous avons ensuite analysé les bénéfices générés et évalué le potentiel de mise en œuvre. Pour réaliser le deuxième objectif, nous avons étudié la méthode de planification actuelle de l’entreprise partenaire, pour ensuite la comparer à l’approche d’optimisation utilisée pour générer le plan optimal. Finalement, nous avons ajusté les données d’inventaires de départ en utilisant des données réelles provenant du mesurage pour tester l’effet de la variabilité des informations utilisées dans le développement des plans. L’approche de planification optimisée a permis de générer un bénéfice net plus élevé que la méthode de planification actuelle en entreprise. Cette différence est en partie due à une allocation plus efficace de la matière première aux usines. En ce qui concerne le deuxième objectif, plusieurs avantages ont été identifiés, notamment la réduction du temps nécessaire pour produire un plan. En outre, même si le coût de la mise en œuvre est élevé, ces dépenses supplémentaires sont récupérées en moins de deux ans dus à l’économie de temps associée à la réalisation de la planification. De plus, les gains générés suite à l’utilisation des plans optimisés dépassent largement les coûts initiaux liés à la mise en place du système. / Supply planning is a significant challenge for the forest industry, particularly in natural forests characterized by great heterogeneity. Such forests produce raw material suitable for different final products. Thus, developing plans to match supply with demand becomes a complex problem for forest planners. The automatization of the planning approach using an optimization tool allows many important factors to be taken into consideration during planning. In the literature, several theoretical models have been proposed, but it appears that very few of these are currently used by companies. It is assumed that the complexity of the problem, the ever changing nature of the planning environment, and the expertise required to use these models limit their application in industrial context. Nevertheless, the implementation of such tools could bring significant improvements in profits for the forest companies. The aims of the study are threefold : (i) to evaluate the potential for the implementation of mathematical optimization in companies, in particular by identifying the additional resources needed to adopt such an approach, (ii) to estimate the potential gains associated with utilization of optimization model in formulating wood procurement planning in an industrial case, and (iii) to analyze the effect of variation in the information used could have on the plans. An optimization software (LogiLab) developed by the FORAC research consortium was used. The tool allows to maximize the profit generated on the entire supply chain through optimal allocation of raw materials to mills in the network. The model simultaneously considers both harvesting and transportation cost, the heterogeneity of the forest and mill performances. The planning done now in companies visually focuses on lower transportation distance. We adapted LogiLab to a case study involving a Canadian forest products company, to analyze the generated profits, and assess its potential for implementation. To realize the second objective, we studied the planning method of our Partner Company and compared it to the optimization approach that we used for generating the optimal plan. Finally, we adjusted the baseline inventory data using actual data from the measurement to test the effect of the variability of the information used in developing the plans. A higher net profit was generated when using our planning approach in comparison to the plan prepared by the company. This difference is due, in part, to a more efficient allocation of raw materials to the mills. With regards to the second objective, we found several advantages such as a reduction in the time needed to produce a plan. Moreover, even if the cost of implementation is high they are recovered in less than two years by savings in planning time. The gains generated following the optimized plans exceed by several orders of magnitude the initial costs of the system to be set up.
26

Description, déploiement et optimisation de chaînes de traitements d'analyse d'images médicales sur grilles de production

Glatard, Tristan 20 November 2007 (has links) (PDF)
En permettant le partage à grande échelle de données et d'algorithmes et en fournissant une quantité importante de puissance de calcul et de stockage, les grilles de calcul sont des plates-formes intéressantes pour les applications d'analyse d'images médicales. Dans cette thèse, nous étudions un problème d'analyse d'images médicales qui s'avère être une application dimensionnante pour les grilles, conduisant au développement de nouvelles méthodes et outils pour la description, l'implémentation et l'optimisation de flots de traitements. Le problème applicatif étudié est l'évaluation de la précision d'algorithmes de recalage d'images médicales en l'absence de vérité terrain. Nous faisons passer à l'échelle une méthode statistique d'évaluation de ces algorithmes et nous montrons des résultats de précision sur une base de données liée au suivi de la radiothérapie du cerveau. Ces résultats permettent notamment de détecter des défauts très légers au sein des données. Nous étendons ce schéma pour quantifier l'impact de la compression des images sur la qualité du recalage. Cette application étant représentative de problèmes typiques survenant sur les grilles, nous nous attachons à son déploiement et à son exécution sur ce type d'infrastructures. Pour faciliter une parallélisation transparente, nous adoptons un modèle générique de flots de traitements, dont nous proposons une nouvelle taxonomie. Pour répondre aux limitations de performance des moteurs d'exécution de flots existants, nous présentons MOTEUR, qui permet d'exploiter les différents types de parallélisme inhérents à ces applications. La définition d'un nouvel opérateur de composition de données facilite la description des applications d'analyse d'images médicales sur les grilles. Par une comparaison entre la grille de production EGEE et des grappes dédiées de Grid'5000, nous mettons en évidence l'importance de la variabilité de la latence sur une grille de production. En conséquence, nous proposons un modèle probabiliste du temps d'exécution d'un flot de traitement sur une grille. Ce modèle est centré sur l'utilisateur : il considère la grille toute entière comme une boîte noire introduisant une latence aléatoire sur le temps d'exécution d'une tâche. A partir de ce modèle, nous proposons trois stratégies d'optimisation visant à réduire l'impact de la latence et de sa variabilité : dans un flot de traitement, grouper les tâches séquentiellement liées permet de réduire la latence moyenne rencontrée, optimiser la valeur du délai d'expiration des tâches prémunit contre les valeurs extrêmes de la latence et optimiser la granularité des tâches permet de réduire le risque de rencontrer de fortes latences. Des accélérations significatives sont ainsi obtenues.
27

Optimization of (R, Q) policies for multi-echelon inventory systems with guaranteed service / Optimisation de politiques de stockage (R, Q) pour les systèmes multi-échelons avec service garanti

Li, Peng 09 July 2013 (has links)
Face à une concurrence féroce par suite de la modélisation économique, les entreprises doivent bien gérer leurs chaînes logistiques afin de réduire leurs coûts d’exploitation tout en améliorant leurs services au client. Un enjeu majeur de cette gestion et la gestion efficace des stocks multi-échelons. Dans cette thèse, nous étudions des systèmes de stocks multi-échelons avec des coûts de passation de commande à chaque stock. En raison de l’existence des coûts de passation de commande, l’optimisation d’un tel système devient très compliquée. Récemment, l’approche de service garanti (GSA) a été utilisée pour déterminer les stocks de sécurité pour les systèmes de stocks multi-échelons, mais sans coûts fixes de passation de commande. Nous généralisons la GSA pour optimiser la politique de stockage (R, Q) d’un système de stocks multi-échelons avec la demande suivant un processus de Poisson et coûts fixes de passation de commande à chaque stock. Nous considérons trois types de systèmes de stocks multi-échelons, et pour chaque type, nous d'abord établissons un modèle mathématique pour le problème d’optimisation. Ensuite, le modèle est résolu par une procédure itérative fondée sur deux algorithmes de programmation dynamique (DP). Un algorithme DP est utilisé pour résoudre le sous-problème de détermination de quantités de commande et l'autre est utilisé pour résoudre le sous-problème de détermination de points de recommande du modèle. Les résultats numériques démontrent l'efficacité des algorithmes et de la procédure / With the increasing complexity of supply chains led by economic globalization, integrated supply chain management has become an important strategy utilized by the firms to reduce the overall cost while meeting the customer service. This change has made academic researchers and industrial practitioners pay more and more attention to multi-echelon inventory management over the last two decades. In this thesis, we study multi-echelon inventory systems with fixed order costs at each stock. Because of the existence of fixed order costs, the optimization of such system becomes very complicated. Recently, Guaranteed Service Approach (GSA) was used to set safety stock for multi-echelon inventory systems, but without fixed order costs. We extend the GSA to optimize (R, Q) inventory policies for multi-echelon inventory systems with Poisson demand and fixed order costs. Our objective is to find optimal (R, Q) policy for such a system so that its total cost is minimized while achieving a service level to customer. Three types of multi-echelon inventory systems, serial systems, assembly systems and two-level distribution systems are considered. For each type, we first establish a mathematical model for the optimization problem. Then, the model is solved by an iterative procedure based on two dynamic programming (DP) algorithms. One DP algorithm is used to solve the order size decision subproblem and the other is used to solve the reorder point decision subproblem of the model. Numerical experiments demonstrate the efficiency of the algorithms and the procedure
28

Optimisation de la conception du stockage de déchets radioactifs HA-MAVL à l’aide de la gestion de flux / Flow design optimization of storing radioactive waste ha-mavl

Rubaszewski, Julie 20 November 2013 (has links)
Ce projet de recherche s’inscrit dans un partenariat entre l’ANDRA (Agence Nationale pour la gestion des Déchets Radioactifs) et le LOSI de l’Institut Charles Delaunay (STMR UMR CNRS), UTT.La thèse vise à dimensionner les ouvrages de stockage vis-à-vis des divers flux industriels. Les flux concernés sont de nature variée et cela constitue l’une des caractéristiques du stockage. Les ouvrages doivent en effet être conçus pour permettre un développement progressif, à l’origine d’une coexistence de flux nucléaires (les colis de déchets nucléaires et les flux associés, telle la ventilation nucléaire) et de flux de chantiers conventionnels. Le dimensionnement des flux et la conception des ouvrages pour autoriser ces flux se trouvent donc au cœur du processus de conception du stockage.La problématique de notre partenaire industriel porte sur la conception de réseau (appelé flow path design). Notre contribution est dédiée au développement de modèles de flow path design avec de nouvelles contraintes ainsi qu’au développement de méthodes. Les extensions au modèle de base prennent en compte une flotte hétérogène, des segments interdits d’accès à certains véhicules et des coûts de construction. Différentes méthodes d'optimisation approchées ont aussi été développées et testées. Il s’agit de métaheuristiques basées sur les recherches locales, l’algorithme de colonies de fourmis ainsi que l’algorithme des abeilles. L’efficacité des méthodes est prouvée grâce à des tests sur des instances de la littérature et l’application au cas réel est faite par simulation / This research project is part of a partnership between ANDRA (National Agency for Radioactive Waste Management) and the LOSI, Institut Charles Delaunay (TSR UMR CNRS), UTT.The thesis aims to design the storage structures for various industrial flows. Flows involved are varied in nature and it is one of the characteristics of the storage. The works must be designed to effect a gradual development, from a "coactivity", that is to say, a coexistence of nuclear flux (the nuclear waste packages and the associated flow, such nuclear ventilation) and conventional flow sites. The design flow and the design of structures to allow these flows are therefore at the heart of the design process of storage.The problem of our industrial partner focuses on flow path design. Our contribution is dedicated to the development of models of flow path design with new constraints and the development of methods. Extensions to the basic model takes into account different type of vehicle, not allowed some segments and taking into account construction costs. Different optimization methods have also been developed and tested. Metaheuristics are based on local search, the ant colony algorithm and the algorithm of bees. Efficiency of methods is demonstrated through tests on literature benchmarks and application to the real case is done by simulation
29

Méthodes d'optimisation pour l'analyse de processus invariants d'échelle / Optimization methods for the analysis of scale invariant processes

Frécon, Jordan 11 October 2016 (has links)
L'invariance d'échelle repose sur l'intuition que les dynamiques temporelles ne sont pas gouvernées par une (ou quelques) échelle(s) caratéristique(s). Cette propriété est massivement utilisée dans la modélisation et l'analyse de données univariées issues d'applications réelles. Son utilisation pratique se heurte pourtant à deux difficultés dans les applications modernes : les propriétés d'invariance d'échelle ne sont plus nécessairement homogènes en temps ou espace ; le caractère multivarié des données rend fortement non linéaires et non convexes les fonctionnelles à minimiser pour l'estimation des paramètres d'invariance d'échelle. La première originalité de ce travail est d'envisager l'étude de l'invariance d'échelle inhomogène comme un problème conjoint de détection/segmentation et estimation et d'en proposer une formulation par minimisation de fonctionnelles vectorielles, construites autour de pénalisation par variation totale, afin d'estimer à la fois les frontières délimitant les changements et les propriétés d'invariance d'échelle de chaque région. La construction d'un algorithme de débruitage par variation totale vectorielle à la volée est proposée. La seconde originalité réside dans la conception d'une procédure de minimisation de fonctionnelle non convexe type « branch and bound » pour l'identification complète de l'extension bivariée, du mouvement brownien fractionnaire, considéré comme référence pour la modélisation de l'invariance d'échelle univariée. Cette procédure est mise en œuvre en pratique sur des données de trafic Internet dans le contexte de la détection d'anomalies. Dans un troisième temps, nous proposons des contributions spécifiques au débruitage par variation totale : modèle poissonnien d'attache aux données en relation avec un problème de détection d'états pour la fluorescence intermittente ; sélection automatique du paramètre de régularisation. / Scale invariance relies on the intuition that temporal dynamics are not driven by one (or a few) characteristic scale(s). This property is massively used in the modeling and analysis of univariate data stemming from real-world applications. However, its use in practice encounters two difficulties when dealing with modern applications: scaling properties are not necessarily homogenous in time or space ; the multivariate nature of data leads to the minimization of highly non-linear and non-convex functionals in order to estimate the scaling parameters.The first originality of this work is to investigate the study of non-homogenous scale invariance as a joint problem of detection/segmentation and estimation, and to propose its formulation by the minimization of vectorial functionals constructed around a total variation penalization, in order to estimate both the boundaries delimiting the changes and the scaling properties within each region.The second originality lies in the design of a branch and bound minimization procedure of non-convex functional for the full identification of the bivariate extension of fractional Brownian motion, considered as the reference for modeling univariate scale invariance. Such procedure is applied in practice on Internet traffic data in the context of anomaly detection.Thirdly, we propose some contributions specific to total variation denoising: Poisson data-fidelity model related to a state detection problem in intermittent fluorescence ; automatic selection of the regularization parameter.
30

Algorithms for optimizing shared mobility systems / Outil d'aide à la décision pour l'exploitation des systèmes de transport en libre-service

Chemla, Daniel 19 October 2012 (has links)
Les systèmes de vélos en libre-service ont connu ces dernières années un développement sans précédent. Bien que les premières tentatives de mise en place remontent aux années 60, l'arrivée de technologies permettant un suivi des différents véhicules mis à la disposition du grand public et de l'état des bornes de stationnement en temps réel a rendu ces systèmes plus attractifs. Plus de 200 villes disposent de tels systèmes et cette tendance se poursuit avec l'entrée en fonctionnement du système de New York prévue pour mars 2013. La fin de l'année 2011 a été marquée par l'arrivée d'un nouvel avatar de ce type de transport avec la mise en place d'Autolib à Paris. L'objectif de cette thèse est de proposer des algorithmes d'aide à la décision pour l'optimisation de réseaux de transport en libre-service. L'exploitation de ces systèmes, qui fleurissent actuellement un peu partout dans le monde, pose en effet de nombreux problèmes, l'un des plus cruciaux étant celui de la régulation. Cette dernière a pour objectif de maintenir dans chaque station un nombre de vélos ni trop faible, ni trop élevé, afin de satisfaire au mieux la demande. Cette régulation se fait souvent par le biais de camions qui effectuent des tournées sur le réseau. Il apparaît rapidement que la question d'une régulation optimale à l'aide d'une flotte fixée de camions est une question difficile. La thèse est divisée en deux parties. Dans la première partie, le cas “statique” est considéré. Les déplacements de véhicules dus aux usagers sont négligés. Cela traduit la situation la nuit ou lorsque le système est fermé à la location. L'opérateur doit redistribuer les véhicules afin que ceux-ci soient disposés selon une répartition définie. Les problèmes de rééquilibrage avec un ou plusieurs camions sont traités. Pour chacun des deux cas, un algorithme est proposé et utilisé pour résoudre des instances de tailles variées. La seconde partie traite du cas “dynamique” dans lequel les utilisateurs interagissent avec le système. Afin d'étudier ce système complexe, un simulateur a été développé. Il est utilisé pour comparer différentes stratégies de redistribution des véhicules. Certaines utilisent des camions se déplaçant dans la ville pendant la journée. D'autres tentent d'organiser une régulation intrinsèque du système par le biais d'une politique d'incitation : des prix mis à jour régulièrement encouragent les usagers à rendre leur véhicule dans certaines stations. Enfin, si on choisit de ne pas utiliser de camion durant la journée, la question de la détermination du nombre optimal de véhicules à disposer à chaque station se pose. Deux méthodes de recherche locale visant à minimiser le temps total perdu par les usagers sont présentées. Les résultats obtenus peuvent servir pour la définition des répartitions cibles de la première partie. Durant ma thèse, j'ai pu participer à deux challenges EURO/ROADEF, celui de 2010 proposé par EDF et celui de 2012 proposé par Google. Dans les deux cas, mon équipe a atteint les phases finales. Lors de l'édition de 2010, notre méthode est arrivée quatrième et a donné lieu à une publication. En 2012, notre méthode est arrivée dix-huitième sur tous les participants. Les travaux menés dans ces cadres sont ajoutés en annexe / Bikes sharing systems have known a growing success all over the world. Several attempts have been made since the 1960s. The latest developments in ICT have enabled the system to become efficient. People can obtain real-time information about the position of the vehicles. More than 200 cities have already introduced the system and this trend keeps on with the launching of the NYC system in spring 2013. A new avatar of these means of transportation has arrived with the introduction of Autolib in Paris end of 2011.The objective of this thesis is to propose algorithms that may help to improve this system efficiency. Indeed, operating these systems induces several issues, one of which is the regulation problem. Regulation should ensures users that a right number of vehicles are present at any station anytime in order to fulfill the demand for both vehicles and parking racks. This regulation is often executed thanks to trucks that are travelling the city. This regulation issue is crucial since empty and full stations increase users' dissatisfaction. Finding the optimal strategy for regulating a network appears to be a difficult question. This thesis is divided into two parts. The first one deals with the “static” case. In this part, users' impact on the network is neglected. This is the case at night or when the system is closed. The operator faces a given repartition of the vehicles. He wants the repartition to match a target one that is known a priori. The one-truck and multiple-truck balancing problems are addressed in this thesis. For each one, an algorithm is proposed and tested on several instances. To deal with the “dynamic” case in which users interact with the system, a simulator has been developed. It is used to compare several strategies and to monitor redistribution by using trucks. Strategies not using trucks, but incentive policies are also tested: regularly updated prices are attached to stations to deter users from parking their vehicle at specified stations. At last, the question to find the best initial inventory is also addressed. It corresponds to the case when no truck are used within the day. Two local searches are presented and both aim at minimizing the total time lost by users in the system. The results obtained can be used as inputs for the target repartitions used in the first part. During my thesis, I participated to two EURO-ROADEF challenges, the 2010 edition proposed by EDF and the 2012 one by Google. In both case, my team reached the final phase. In 2010, our method was ranked fourth over all the participants and led to the publication of an article. In 2012, we ranked eighteenth over all the participants. Both works are added in the appendix

Page generated in 0.2161 seconds