• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 93
  • 26
  • 5
  • 2
  • 1
  • 1
  • Tagged with
  • 129
  • 34
  • 22
  • 19
  • 16
  • 14
  • 14
  • 11
  • 11
  • 9
  • 8
  • 8
  • 8
  • 8
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Justification Factory : de l'élicitation d'exigences de justification jusqu'à leur production en continu / Justification Factory : from justification requirements elicitation to their continuous production

Duffau, Clément 16 November 2018 (has links)
Dans de nombreux domaines où il existe des risques pour l'homme, comme la médecine, le nucléaire ou l'avionique, il est nécessaire de passer par une phase de certification visant à garantir le bon fonctionnement d'un système ou d'un produit. La certification se fait en fonction de documents normatifs qui expriment les exigences de justifications auxquelles le produit et le processus de développement doivent se conformer. Un audit de certification consiste alors à produire une documentation attestant la conformité avec ce cadre réglementaire.Pour faire face à ce besoin de justifications visant à assurer la conformité avec les normes en vigueur et la complétude des justifications apportées, il faut dès lors être capable de cibler les exigences de justification à revendiquer pour un projet et produire les justifications durant le développement du projet. Dans ce contexte, éliciter les exigences de justifications à partir des normes et produire les justifications nécessaires et suffisantes sont des enjeux pour assurer le respect des normes et éviter la sur-justification.Dans ces travaux nous cherchons à structurer les exigences de justification pour ensuite aider à la production des justifications associées tout en restant attentif à la confiance que l'on peut placer en elles. Pour relever ces défis, nous avons défini une sémantique formelle pour une modélisation existante des justifications : les Diagrammes de Justification. A partir de cette sémantique, nous avons pu définir un ensemble d'opérations permettant de contrôler le cycle de vie des justifications pour assurer la conformité des justifications au regard des exigences de justification. Par ce formalisme, nous avons également pu guider, voire automatiser dans certains cas, la production des justifications et la vérification de la conformité.Ces contributions ont été appliquées dans le contexte des technologies médicales pour l'entreprise AXONIC, porteuse de ces travaux. Ceci a permis de i) éliciter les exigences de justification des normes médicales et pratiques internes de l'entreprise, ii) produire automatiquement les justifications associées à la norme IEC 62304 pour le logiciel en médical, iii) automatiser la vérification et validation des justifications ainsi que la production de documents utilisables lors d'audit. / In many areas where it exists human risks, such as medicine, nuclear or avionics, it is necessary to go through a certification stage to ensure the proper functioning of a system or product. Certification is based on normative documents that express the justification requirements to which the product and the development process must conform. A certification audit then consists of producing documentation certifying compliance with this regulatory framework.To cope with this need for justifications to ensure compliance with the standards in force and the completeness of the justifications provided, it must therefore be able to target the justification requirements to be claimed for a project and produce justifications during the development of the project. In this context, eliciting the justification requirements from the standards and producing the necessary and sufficient justifications are issues to ensure compliance with standards and avoid over-justification.In these works we seek to structure the justification requirements and then help to produce the associated justifications while remaining attentive to the confidence that can be placed in them. To address these challenges, we have defined a formal semantics for an existing model of justifications: Justification Diagrams. From this semantics, we have been able to define a set of operations to control the life cycle of the justifications to ensure that the justifications regarding the justification requirements. Through this semantics, we have also been able to guide, and even automate in some cases, the production of justifications and the verification of conformance.These contributions were applied in the context of medical technologies for the company AXONIC, the bearer of this work. This made it possible to i) elicitate the justification requirements of the medical standards and company's internal practicals, ii) automatically produce the justifications associated with the IEC 62304 standard for medical software, iii) automate the verification and validation of the justifications as well as the production of documents that can be used during the audit.
52

Přenosné automatizované pracoviště pro měření vzduchotechnických veličin / Automatized working place for measuring of airfow parameters

Veis, Samuel January 2018 (has links)
This work deals with the design and realization of the workplace for the measurement of ventilation parameters of fans, electric machines and other elements. The thesis contains an extensive research part regarding the air-conditioning issues. In the work was designed a channel for measurement, electronics, sensorics, control algorithm and user application. The workplace was completed and tested.
53

Automatic outlier detection in automated water quality measurement stations

Saberi, Atefeh 23 April 2018 (has links)
Des stations de mesure de la qualité de l’eau sont utilisées pour mesurer la qualité de l'eau à haute fréquence. Pour une gestion efficace de ces mesures, la qualité des données doit être vérifiée. Dans une méthode univariée précédemment développée, des points aberrants et des fautes étaient détectés dans les données mesurées par ces stations en employant des modèles à lissage exponentiel pour prédire les données au moment suivant avec l’intervalle de confiance. Dans la présente étude, ne considérant que le cas univarié, la détection de points aberrants est améliorée par l’identification d’un modèle autorégressif à moyenne mobile sur une fenêtre mobile de données pour prédire la donnée au moment suivant. Les données de turbidité mesurées à l'entrée d'une station d'épuration municipale au Danemark sont utilisées comme étude de cas pour comparer la performance de l’utilisation des deux modèles. Les résultats montrent que le nouveau modèle permet de prédire la donnée au moment suivant avec plus de précision. De plus, l’inclusion du nouveau modèle dans la méthode univariée présente une performance satisfaisante pour la détection de points aberrants et des fautes dans les données de l'étude de cas. / Water quality monitoring stations are used to measure water quality at high frequency. For effective data management, the quality of the data must be evaluated. In a previously developed univariate method both outliers and faults were detected in the data measured by these stations by using exponential smoothing models that give one-step ahead forecasts and their confidence intervals. In the present study, the outlier detection step of the univariate method is improved by identifying an auto-regressive moving average model for a moving window of data and forecasting one-step ahead. The turbidity data measured at the inlet of a municipal treatment plant in Denmark is used as case study to compare the performance of the use of the two models. The results show that the forecasts made by the new model are more accurate. Also, inclusion of the new forecasting model in the univariate method shows satisfactory performance for detecting outliers and faults in the case study data.
54

Détection, reconstruction 3D et identification des êtres vivants du règne animal

Lévesque, Olivier 24 April 2018 (has links)
L’automatisation de la détection et de l’identification des animaux est une tâche qui a de l’intérêt dans plusieurs domaines de recherche en biologie ainsi que dans le développement de systèmes de surveillance électronique. L’auteur présente un système de détection et d’identification basé sur la vision stéréo par ordinateur. Plusieurs critères sont utilisés pour identifier les animaux, mais l’accent a été mis sur l’analyse harmonique de la reconstruction en temps réel de la forme en 3D des animaux. Le résultat de l’analyse est comparé avec d’autres qui sont contenus dans une base évolutive de connaissances. / Automating the detection and identification of animals is a task that has an interest in many biological research fields and in the development of electronic security systems. The author present a detection and identification system based on computer stereo vision to achieve this task. A number of criteria are being used to identify the animals, but the emphasis is on the harmonic analysis of the animal real time reconstructed 3D shape. The result of the analysis is compared with others stored in an evolutive knowledge base.
55

Création d'outils pour l'automatisation d'analyses phylogénétiques de génomes d'organites

Gagnon, Jules. 11 April 2018 (has links)
Le traitement des données de séquençage pour les rendre utilisables dans une analyse phylogénétique est long et répétitif. De plus, certaines analyses plus complexes peuvent difficilement être entreprises sans l'automatisation de certaines tâches. La création d'outils bioinformatiques permettrait de diminuer le temps consacré à la préparation des données. Le but de cette recherche est de développer des outils informatiques permettant d'automatiser le traitement de données provenant du séquençage d'organites. Pour ce faire, il a été nécessaire de créer: item des bases de données de gènes d'organites; item des outils pour l'extraction des séquences génétiques dans différents formats; item des outils pour l'identification des gènes d'organismes nouvellement séquencés; item des outils de préparation des données pour l'utilisation lors d'analyses phylogénétiques. Finalement, le bon fonctionnement des outils a été vérifié par l'exécution d'une analyse phylogénétique dont les résultats ont déjà été publiés.
56

Industrie 4.0 : ordonnancement intelligent d'une cellule robotisée de soudage

Kone, Aminata 18 January 2023 (has links)
Dans ce mémoire, nous concevons un plan d'ordonnancement de la production dans un contexte d'industrie 4.0. L'environnement de travail est un atelier de soudure doté de trois stations pour le chargement et le déchargement des pièces, d'un robot de transport, d'un robot positionneur, de deux robots soudeurs et de gabarits sur lesquels sont montées les pièces. Dans un souci de construction de modèles reflétant la réalité de l'usine de production, des caractéristiques et des contraintes ont été considérées. Il s'agit entre autres des caractéristiques liées au type et aux temps de changement de gabarit, des contraintes d'entreposage, de ressources matérielles limitées (machines) et de recirculation. Le problème considéré est un problème de job shop flexible dont l'objectif est de minimiser la durée totale des opérations. Différentes variantes de la méthode exacte basée sur la programmation linéaire mixte en nombres entiers sont présentées. Ces méthodes sont de deux catégories à savoir les méthodes en une étape de résolution et les méthodes en deux étapes de résolution. La comparaison de ces différentes méthodes proposées montre que les méthodes en une étape de résolution offrent les meilleures valeurs de la fonction objectif mais sont plus lents dans la résolution tandis que les méthodes en deux étapes de résolution sont plus rapides dans la résolution mais n'ont pas les meilleures valeurs de la fonction objectif. / In this master's thesis, we design a production scheduling plan in an Industry 4.0 context. The working environment is a welding shop with three stations for loading and unloading parts, a transport robot, a positioner robot, two welding robots and jigs on which parts are mounted. In order to build models that reflect the reality of the production plant, additional characteristics and constraints were considered. These include characteristics related to the type and duration of jig change, constraints of storage, limited material resources (machines) and recirculation. The problem considered is a flexible job shop problem with the objective to minimize the total execution time (the makespan). Different variants of the exact method based on mixed integer linear programming are presented. These methods are of two categories, namely the one-step and the two-step methods. The comparison of these different proposed methods shows that the one-step method yields the best objective function values but requires relatively long computing times while the two-step method is faster but does not give the best objective function values.
57

Saisie photogrammétrique multi-représentation de bâtiments : une approche Semi-Automatisée Initialisée et Supportée par l'Intervention humainE

Frédéricque, Benoit 13 April 2018 (has links)
Le peuplement de BDRM-3D (Bases de Données à Représentation Multiple 3D) est de plus en plus requis pour supporter des applications avancées de cartographie sur demande et d’analyse décisionnelle géospatiale. Cette thèse présente une nouvelle approche de saisie photogrammétrique en représentation multiple visant à peupler une BDRM-3D de bâtiments. L’approche proposée est nommée approche SAISIE car elle est Semi-Automatique, Initialisée et Supportée par l’Intervention humainE. Elle traite simultanément l’extraction des Géométries Détaillées (GD) et des Géométries Simplifiées (GS). Elle s’appuie notamment sur les nouveaux concepts de Patron d’Acquisition en Représentation Multiple et d’« Instance Driven SASS » (Sélection et Gestion des Algorithmes, des Sources et des Réglages gérée au niveau de l’instance) afin d’améliorer la performance des traitements automatiques mis en œuvre. Ces deux concepts ont été introduits lors de cette recherche. Le concept de PARM résulte du rapprochement des concepts de patron géométrique (introduit pour supporter la généralisation) et de modèle paramétrique (introduit pour supporter la saisie photogrammétrique). Deux nouveaux algorithmes de reconnaissance de forme, l’un traitant de la détermination automatique des paramètres d’implantation de patrons géométriques 3D et l’autre de l’extraction automatique des emprises au sol de bâtiments, ont par ailleurs été introduits lors de la réalisation de cette thèse. L’approche SAISIE ainsi que les concepts et algorithmes proposés pour la supporter ont été mis en œuvre et expérimentés sur quatre sites de tests couvrant plus de trois cent bâtiments. Les résultats obtenus et l’expérience acquise lors des développements des prototypes nous ont permis d’établir une analyse de l’approche SAISIE ainsi que des recommandations pour les recherches futures. / 3D MRDB (Multi Representation Data Base) population is more and more required to support advanced cartographical applications and advanced geospatial decisional analysis. This dissertation presents a new photogrammetric approach dedicated to multiple representation acquisition process to populate the buildings of a 3D MRDB. The proposed approach is named SAISIE (this French acronym matches with a semi-automatic acquisition process, initialized and supported by human intervention). The SAISIE approach tackles simultaneously the Detailed Geometries (DG) extraction and the Simplified Geometries (GS) extraction. This uses both the Multi-Representation Acquisition Pattern concept and the Instance Driven SASS concept (SASS : Selection of the Algorithms, Sources and Setting) to improve the process performance. These two new concepts have been introduced during this research. The MRAP concept stems from bridging together the geometric pattern concept (used to support generalisation process) and the parametric model (used to support the photogrammetric building extraction). Two new algorithms have also been introduced. The first one deals with the automatic implantation of 3D geometric pattern and the second one with the automatic extraction of building footprints. The SAISIE approach, the new concepts and the two new algorithms, have been implemented and tested with four test sites. These test sites cover more than three hundred buildings. Results analysis and several recommendations, based on our experimentation and experience, are proposed to conclude this dissertation.
58

Développement d'une nouvelle approche d'extraction du réseau de surface à partir d'un nuage de points LiDAR massif basée sur la théorie de Morse

Dahbi, Aymane 16 January 2024 (has links)
Titre de l'écran-titre (visionné le 11 janvier 2024) / Aujourd'hui, la cartographie des réseaux hydrographiques est un sujet important pour la gestion et l'aménagement de l'espace forestier, la prévention contre les risques d'inondation, etc. Les données sources pour cartographier les cours d'eau sont des nuages de points obtenus par des lidars aéroportés. Cependant, les méthodes d'extraction des réseaux usuelles nécessitent des opérations de découpage, de rééchantillonnage et d'assemblage des résultats pour produire un réseau complet, altérant la qualité des résultats et limitant l'automatisation des traitements. Afin de limiter ces opérations, une nouvelle approche d'extraction est considérée. Cette approche propose de construire un réseau de crêtes et de talwegs à partir des points lidar, puis transforme ce réseau en réseau hydrographique. Notre recherche consiste à concevoir une méthode d'extraction robuste du réseau adaptée aux données massives. Ainsi, nous proposons d'abord une approche de calcul du réseau adaptée aux surfaces triangulées garantissant la cohérence topologique du réseau. Nous proposons ensuite une architecture s'appuyant sur des conteneurs pour paralléliser les calculs et ainsi traiter des données massives. / Nowadays, the mapping of hydrographic networks is an important subject for forestry management and planning, flood risk prevention, and so on. The source data for mapping watercourses are point clouds obtained by airborne lidars. However, conventional network extraction methods require cutting, resampling, and assembling the results to produce a complete network, thereby altering the quality of the results, and limiting the automation of processing. In order avoid these processing steps, a new computational approach is considered. This approach involves building a network of ridges and talwegs from lidar points, and then transforming this network into a hydrographic network. Our research consists in designing a robust network extraction method adapted to massive data. First, we propose a network calculation approach adapted to triangulated surfaces, guaranteeing the network's topological consistency. We then propose a container-based architecture for parallelizing computations to handle big data processing.
59

Estimation de l'état fonctionnel de l'opérateur

Gagnon, Olivier 24 April 2018 (has links)
L’estimation de l’état fonctionnel de l’opérateur (c’est-à-dire le patron multidimensionnel de conditions physiologiques et comportementales qui régule les performances) a un grand potentiel pour l’augmentation de la sécurité et de la fiabilité de systèmes critiques. L’apprentissage automatique, qui a connu des avancées importantes au cours des dernières années, est une avenue à explorer pour effectuer cette estimation. Une problématique dans l’utilisation de ces techniques est la formalisation de l’OFS en une mesure objective permettant de fournir un signal d’entraînement à l’apprentissage automatique. Ce mémoire présente une mesure, la performance dynamique décontextualisée, permettant d’utiliser ces techniques pour estimer l’état fonctionnel de plusieurs participants, pour plusieurs tâches expérimentales différentes. Cet ouvrage explore également les performances obtenues par plusieurs techniques d’apprentissage automatique dans divers contextes. Entre autres, la généralisation des modèles entraînés à de nouveaux participants ou de nouvelles tâches expérimentales et l’utilisation du contexte expérimental sont étudiées. / The assessment of an operator’s functional state (i.e., the multidimensional pattern of human psycho-physiological conditions that mediates performance) has great potential for increasing safety and reliability of critical systems. Machine learning, which has had success in recent years, is a technique which should be investigated for this task. An open question in the use of machine learning algorithms for the assessment of the operator’s functional state is the formalization of the operator’s state in an objective measure that can provide a training signal for the algorithms. This Master’s thesis introduces the decontextualized dynamic performance, a measure which enables the use of machine learning for many experimental tasks and many participants simultaneously.This work also explores the performances obtained by machine learning techniques in some contexts. The generalization of the trained models to new participants, or new tasks as well as the utilization of the training context is investigated.
60

Optimization of storage and picking systems in warehouses

Fernandes Da Costa Silva, Allyson 28 March 2022 (has links)
La croissance du commerce électronique exige une hausse des performances des systèmes d'entreposage, qui sont maintenant repensés pour faire face à un volume massif de demandes à être satisfait le plus rapidement possible. Le système manuel et le système à robots mobile (SRM) sont parmi les plus utilisés pour ces activités. Le premier est un système centré sur l'humain pour réaliser des opérations complexes que les robots actuels ne peuvent pas effectuer. Cependant, les nouvelles générations de robots autonomes mènent à un remplacement progressif par le dernier pour augmenter la productivité. Quel que soit le système utilisé, plusieurs problèmes interdépendants doivent être résolus pour avoir des processus de stockage et de prélèvement efficaces. Les problèmes de stockage concernent les décisions d'où stocker les produits dans l'entrepôt. Les problèmes de prélèvement incluent le regroupement des commandes à exécuter ensemble et les itinéraires que les cueilleurs et les robots doivent suivre pour récupérer les produits demandés. Dans le système manuel, ces problèmes sont traditionnellement résolus à l'aide de politiques simples que les préparateurs peuvent facilement suivre. Malgré l'utilisation de robots, la même stratégie de solution est répliquée aux problèmes équivalents trouvés dans le SRM. Dans cette recherche, nous étudions les problèmes de stockage et de prélèvement rencontrés lors de la conception du système manuel et du SRM. Nous développons des outils d'optimisation pour aider à la prise de décision pour mettre en place leurs processus, en améliorant les mesures de performance typiques de ces systèmes. Certains problèmes traditionnels sont résolus avec des techniques améliorées, tandis que d'autres sont intégrés pour être résolus ensemble au lieu d'optimiser chaque sous-système de manière indépendante. Nous considérons d'abord un système manuel avec un ensemble connu de commandes et intégrons les décisions de stockage et de routage. Le problème intégré et certaines variantes tenant compte des politiques de routage communes sont modélisés mathématiquement. Une métaheuristique générale de recherche de voisinage variable est présentée pour traiter des instances de taille réelle. Des expériences attestent de l'efficience de la métaheuristique proposée par rapport aux modèles exacts et aux politiques de stockage communes. Lorsque les demandes futures sont incertaines, il est courant d'utiliser une stratégie de zonage qui divise la zone de stockage en zones et attribue les produits les plus demandés aux meilleures zones. Les tailles des zones sont à déterminer. Généralement, des dimensions arbitraires sont choisies, mais elles ignorent les caractéristiques de l'entrepôt et des demandes. Nous abordons le problème de dimensionnement des zones pour déterminer quels facteurs sont pertinents pour choisir de meilleures tailles de zone. Les données générées à partir de simulations exhaustives sont utilisées pour trainer quatre modèles de régression d'apprentissage automatique - moindres carrés ordinaire, arbre de régression, forêt aléatoire et perceptron multicouche - afin de prédire les dimensions optimales des zones en fonction de l'ensemble de facteurs pertinents identifiés. Nous montrons que tous les modèles entraînés suggèrent des dimensions sur mesure des zones qui performent meilleur que les dimensions arbitraires couramment utilisées. Une autre approche pour résoudre les problèmes de stockage pour le système manuel et pour le SRM considère les corrélations entre les produits. L'idée est que les produits régulièrement demandés ensemble doivent être stockés près pour réduire les coûts de routage. Cette politique de stockage peut être modélisée comme une variante du problème d'affectation quadratique (PAQ). Le PAQ est un problème combinatoire traditionnel et l'un des plus difficiles à résoudre. Nous examinons les variantes les plus connues du PAQ et développons une puissante métaheuristique itérative de recherche tabou mémétique en parallèle capable de les résoudre. La métaheuristique proposée s'avère être parmi les plus performantes pour le PAQ et surpasse considérablement l'état de l'art pour ses variantes. Les SRM permettent de repositionner facilement les pods d'inventaire pendant les opérations, ce qui peut conduire à un processus de prélèvement plus économe en énergie. Nous intégrons les décisions de repositionnement des pods à l'attribution des commandes et à la sélection des pods à l'aide d'une stratégie de prélèvement par vague. Les pods sont réorganisés en tenant compte du moment et de l'endroit où ils devraient être demandés au futur. Nous résolvons ce problème en utilisant la programmation stochastique en tenant compte de l'incertitude sur les demandes futures et suggérons une matheuristique de recherche locale pour résoudre des instances de taille réelle. Nous montrons que notre schéma d'approximation moyenne de l'échantillon est efficace pour simuler les demandes futures puisque nos méthodes améliorent les solutions trouvées lorsque les vagues sont planifiées sans tenir compte de l'avenir. Cette thèse est structurée comme suit. Après un chapitre d'introduction, nous présentons une revue de la littérature sur le système manuel et le SRM, et les décisions communes prises pour mettre en place leurs processus de stockage et de prélèvement. Les quatre chapitres suivants détaillent les études pour le problème de stockage et de routage intégré, le problème de dimensionnement des zones, le PAQ et le problème de repositionnement de pod. Nos conclusions sont résumées dans le dernier chapitre. / The rising of e-commerce is demanding an increase in the performance of warehousing systems, which are being redesigned to deal with a mass volume of demands to be fulfilled as fast as possible. The manual system and the robotic mobile fulfillment system (RMFS) are among the most commonly used for these activities. The former is a human-centered system that handles complex operations that current robots cannot perform. However, newer generations of autonomous robots are leading to a gradual replacement by the latter to increase productivity. Regardless of the system used, several interdependent problems have to be solved to have efficient storage and picking processes. Storage problems concern decisions on where to store products within the warehouse. Picking problems include the batching of orders to be fulfilled together and the routes the pickers and robots should follow to retrieve the products demanded. In the manual system, these problems are traditionally solved using simple policies that pickers can easily follow. Despite using robots, the same solution strategy is being replicated to the equivalent problems found in the RMFS. In this research, we investigate storage and picking problems faced when designing manual and RMFS warehouses. We develop optimization tools to help in the decision-making process to set up their processes and improve typical performance measures considered in these systems. Some classic problems are solved with improved techniques, while others are integrated to be solved together instead of optimizing each subsystem sequentially. We first consider a manual system with a known set of orders and integrate storage and routing decisions. The integrated problem and some variants considering common routing policies are modeled mathematically. A general variable neighborhood search metaheuristic is presented to deal with real-size instances. Computational experiments attest to the effectiveness of the metaheuristic proposed compared to the exact models and common storage policies. When future demands are uncertain, it is common to use a zoning strategy to divide the storage area into zones and assign the most-demanded products to the best zones. Zone sizes are to be determined. Commonly, arbitrary sizes are chosen, which ignore the characteristics of the warehouse and the demands. We approach the zone sizing problem to determine which factors are relevant to choosing better zone sizes. Data generated from exhaustive simulations are used to train four machine learning regression models - ordinary least squares, regression tree, random forest, and multilayer perceptron - to predict the optimal zone sizes given the set of relevant factors identified. We show that all trained models suggest tailor-made zone sizes with better picking performance than the arbitrary ones commonly used. Another approach to solving storage problems, both in the manual and RMFS, considers the correlations between products. The idea is that products constantly demanded together should be stored closer to reduce routing costs. This storage policy can be modeled as a quadratic assignment problem (QAP) variant. The QAP is a traditional combinatorial problem and one of the hardest to solve. We survey the most traditional QAP variants and develop a powerful parallel memetic iterated tabu search metaheuristic capable of solving them. The proposed metaheuristic is shown to be among the best performing ones for the QAP and significantly outperforms the state-of-the-art for its variants. The RMFS allows easy repositioning of inventory pods during operations that can lead to a more energy-efficient picking process. We integrate pod repositioning decisions with order assignment and pod selection using a wave picking strategy such that pods are parked after being requested considering when and where they are expected to be requested next. We solve this integrated problem using stochastic programming considering the uncertainty about future demands and suggest a local search matheuristic to solve real-size instances. We show that our sample average approximation scheme is effective to simulate future demands since our methods improve solutions found when waves are planned without considering the future demands. This thesis is structured as follows. After an introductory chapter, we present a literature review on the manual and RMFS, and common decisions made to set up their storage and picking processes. The next four chapters detail the studies for the integrated storage and routing problem, the zone sizing problem, the QAP, and the pod repositioning problem. Our findings are summarized in the last chapter.

Page generated in 0.1253 seconds