Spelling suggestions: "subject:"schemaläggning"" "subject:"schemaläggnings""
41 |
Local search hybridization of a genetic algorithm for solving the University Course Timetabling Problem / Lokalsökningshybridisering av en genetisk algoritm som löser schemaläggningsproblemet UCTPForsberg, Mikael January 2018 (has links)
The University Course Timetabling Problem (UCTP) is the problem of assigning locations (lecture halls, computer rooms) and time slots (time and date) to a set of events (lectures, labs) while satisfying a number of constraints such as avoiding double-bookings. Many variants of problem formulations exist, and most realistic variants are thought to be NP-hard. A recent trend in solving hard scheduling problems lies in the application of hybrid metaheuristics, where improvements are often found by hybridizing a population-based approach with some form of local search. In this paper, an implementation of a Genetic Algorithm (GA) that solves the UCTP is hybridized with local search in the form of Tabu Search (TS). The results show significant improvements to the performance and scalability over the non-hybridized GA. Two application strategies for the TS are investigated. The first strategy performs a switch-over from the GA to the TS, while the second interleaves the two algorithms. The effectiveness of each application strategy is seen to depend on the characteristics of the individual algorithms. / Schemaläggningsproblemet UCTP (University Course Timetabling Problem) består av problemet att tilldela platser (föreläsningssalar, laborationssalar) och tidpunkter (datum och klockslag) till en mängd tillställningar (föreläsningar, laborationer) under kravet att upprätthålla en mängd restriktioner, exempelvis att undvika dubbelbokningar. Det finns många varianter av problemformuleringen och de flesta realistiska formuleringer anses ge upphov till NP-svåra optimeringsproblem. En förhållandevis ny trend för lösningsmodeller till svåra schemaläggningsproblem ligger i tillämpningen av hybrida metaheuristiker, där förbättringar ofta ses när populationsbaserade algoritmer kombineras med någon typ av lokalsökning. I denna rapport undersöks en UCTP-lösning baserad på en Genetisk Algoritm (GA) som hybridiseratsmed en lokalsökning i form av en Tabusökning (TS). Resultaten visar på signifikanta förbättringar i prestanda och skalbarhet jämfört med den icke-hybridiserade GA:n. Två appliceringsstrategier för TS undersöks. Den första strategin utgörs av att byta algoritm från GA till TS, medan den andra utgörs av att sammanfläta de två algoritmerna. Appliceringsstrategiernas effektivitet ses bero av de individuella algoritmernas egenskaper.
|
42 |
Optimal Multi-Skilled Workforce Scheduling for Contact Centers Using Mixed Integer Linear Programming : A Method to Automatize Workforce Management / Optimal schemaläggning av multikompetent arbetskraft vid kundtjänstkontor med mixad linjär heltalsprogrammering : En metod för att automatisera personalplaneringEriksson, Sara January 2020 (has links)
This master thesis in optimization and systems theory is a development of two different optimization models formulated to schedule multi-skilled agents for contact centers depending on the forecasted demand, assigned by Teleopti. Four mixed integer linear programming models are created with the optimization programming language GAMS and solved by the internet based solver NEOS. Two of the models are formulated to perform an optimal scheduling that matches a forecasted demand per skill and day and the remaining two models are formulated to perform an optimal scheduling that matches a forecasted demand per skill, day and half hour. The first two models are referred to as the Basic Models and the second two are referred to as the Complex Models. The Basic Models includes seven constraints and the Complex Model includes nine constraints, describing regulations at the contact center. The main goal of the project is to find an optimal solution that results in an as even distribution of under or over scheduling. The scheduling optimization covers a period of 28 days, starting on a Monday which results in four weeks. The optimization models are based on two sets of data, there are 104 assigned agents that possesses one, two or three of the skills Channel, Direct and Product. All agents are bound to work according to a contract specified through the constraints. In the Basic Model the forecasted demand is given in amount of hours per day and skill, the demand is non-cyclical. In the Complex model the forecasted demand is given in amount of half hours per day, skill and half hour. Each day is scheduled from 7 a.m. to 11 p.m. resulting in 32 available half hours. All optimization models are developed to correctly mathematically formulate the constraints specified by Teleopti. Any non-linear equation that arises are linearized to maintain linearity, this is favourable in the sense of computational time solving the models. The objective functions in this thesis are formulated to describe the main goal of even distribution as correctly as possible. The result for the Basic Model shows that an optimal solution is achieved after 34 seconds. This model contains 169,080 variables and 39,913 equations. In the Complex Models integer solutions are achieved, but no optimal solution is found in 8 hours of computational time. The larger Complex Model contains 9,385,984 variables and 1,052,253 equations and the smaller Complex Model contains 5,596,952 variables and 210,685 equations. Teleopti’s scheduler produces an integer solution matching the Complex Model in 4 minutes. / Detta examensarbete i optimering och systemteori är framtagningen av två olika optimeringsmodeller formulerade för att schemalägga multikompetenta agenter för kontaktcenters beroende av den förväntade efterfrågan, tilldelad av Teleopti. Fyra blandade heltals linjära programmeringsmodeller skapas med optimeringsprogrammeringsspråket GAMS och löses av den internetbaserade lösaren NEOS. Två av modellerna är formulerade för att utföra en optimal schemaläggning som matchar en prognostiserad efterfrågan per skicklighet och dag och de återstående två modellerna är formulerade för att utföra en optimal schemaläggning som matchar en prognostiserad efterfrågan per färdighet, dag och en halvtimme. De två första modellerna i detta arbete benämns de Grundläggande Modellerna och de resterande två benämns de Komplexa Modellerna. Grundmodellerna inkluderar sju bivillkor och de Komplexa modellerna innehåller nio bivillkor, vilka beskriver arbetsvillkoren på kontaktcentret. Projektets huvudmål är att hitta en optimal lösning som resulterar i en jämn fördelning av under- eller överschemaläggning. Den schemalagda optimeringen täcker en period av 28 dagar, vilken börjar på en måndag vilket resulterar i fyra veckor. Optimeringsmodellerna är baserade på två uppsättningar data, det finns 104 tillgängliga agenter vilka har en, två eller tre av kompetenserna Channel, Direct och Product. Alla agenter är bundna att arbeta enligt det kontrakt som specificeras genom bivillkoren. I grundmodellen anges den prognostiserade efterfrågan i timmar per dygn och kompetens, efterfrågan är icke-cyklisk. I den komplexa modellen anges den beräknade efterfrågan i mängd halvtimmar per dag, kompetens och halvtimme. Varje dag är schemalagd från kl. 07.00 till 23.00 vilket resulterar i 32 tillgängliga halvtimmar. Alla optimeringsmodeller är utvecklade för att matematiskt beskriva de begränsningar som Teleopti specificerar. Alla icke-linjära ekvationer som uppstår linjäriseras för att upprätthålla linjäritet, detta är gynnsamt i avseendet mängd tid beräkningen av modellerna tar. Målfunktionerna i detta arbete är formulerade för att beskriva huvudmålet för jämn distribution så korrekt som möjligt. Resultatet för grundmodellen visar att en optimal lösning uppnås efter 34 sekunder. Denna modell innehåller 169,080 variabler och 39,913 ekvationer. I de komplexa modellerna uppnås heltalslösningar, men ingen optimal lösning hittas på 8 timmars beräkningstid. Den större komplexa modellen innehåller 9,385,984 variabler och 1,052,253 ekvationer och den mindre komplexa modellen innehåller 5,596,952 variabler och 210,665 ekvationer. Teleoptis schemaläggare producerar en heltalslösning som matchar den komplexa modellen på 4 minuter.
|
43 |
Highly Available Task Scheduling in Distinctly Branched Directed Acyclic Graphs / Högt tillgänglig schemaläggning av uppgifter i distinkt grenade riktade acykliska graferZhong, Patrik January 2023 (has links)
Big data processing frameworks utilizing distributed frameworks to parallelize the computing of datasets have become a staple part of the data engineering and data science pipelines. One of the more known frameworks is Dask, a widely utilized distributed framework used for parallelizing data processing jobs. In Dask, the main component that traverses and plans out the execution of the job is the scheduler. Dask utilizes a centralized scheduling approach, having a single server node as the scheduler. With no failover mechanism implemented for the scheduler, the work in progress is potentially lost if the scheduler fails. As a consequence, jobs that might have been executed for hours or longer need to be restarted. In this thesis, a highly available scheduler is designed, based on Dask. We introduce a highly-available scheduler that replicates the state of the job on a distributed key-value store. The replicated schedulers allow us to design an architecture where the schedulers are able to take over the job in case of a scheduler failure. To reduce the performance overhead of replication, we further explore optimizations based on partitioning typical task graphs and sending each partition to its own scheduler. The results show that the replicated scheduler is able to tolerate server failures and is able to complete the job without restarting but at a cost of reduced throughput due to the replication. This is mitigated by our partitioning, which achieves almost linear performance gains relative to our baseline fault-tolerant scheduler, through the utilization of a parallelized scheduling architecture. / Dataprocesseringsramverk av stora datamängder har blivit en viktig del inom Data Engineering och Data Science pipelines. Ett av de mer kända ramverken är Dask som används för att parallelisera jobb inom data processering. En av huvudkomponenterna i Dask är dess schemaläggare som traverserar och planerar exekveringen av av arbete. Dask använder en centraliserad schemaläggning, med en enda server nod som schemaläggare. Utan en implementerad felhanteringsmekanism innebär det att allt arbete är förlorat ifall schemaläggaren kraschar. I denna uppsats så skapar vi en schemaläggare baserad på Dask. Vi introducerar hög tillgänglighet till schemaläggaren genom att replikera statusen av ett jobb till en distribuerad Key-Value store. För att reducera kostnaden av replikationen så utforskas optimeringar genom att partitionera typiska uppgifts-grafer för att sedan skicka dem till varsin schemaläggare. Resultaten visar att en replikerad schemaläggare tolererar att schemaläggningsservarna kraschar, och att den kan slutföra ett jobb utan att behöva starta om, på en kostnad av reducerad schemaläggningseffektivitet på grund av replikationen. Denna reduktion av effektivitet mitigeras av vår partitioningsstrategi, som genom att använda en paralliserad schemaläggningsarkitektur, uppnår nästan linjära prestandaökningar jämfört med den simpla feltoleranta schemaläggaren.
|
44 |
Optimising the Planning- and Scheduling in a Complex Production : Discrete-Event Simulation in a pharmaceutical contextBörjesson, Johan, Boutros, Paulina January 2022 (has links)
The aim of this study is to investigate the optimisation of production planning- and scheduling in a pharmaceutical facility using DES.Research questions: “How can DES be used to achieve flexibility and efficiency in a pharmaceutical facility?” and “How can DES be used to increase efficiency of the resource allocation in a pharmaceutical facility?”Methodology: This study has been compared to a deductive- and a quantitative research approach where a process simulation has been modelled. The theoretical framework was based on books and scientific publications. Empirical data was collected through unstructured observations at the production site, frequent meetings together with the company and through the company’s database Discoverant. Based on the results from the simulation model conclusions could be drawn.Conclusion: The study concluded that there are bottlenecks at the beginning of the processes in all three production flows for Medicine A, Medicine B and Medicine C. If these are raised it would generate greater flexibility and efficiency in the production. There were also indications of a new allocation of resources that would raise efficiency in the production, thus making it possible to increase the output from the production. / Syftet med studien är att undersöka optimering av produktionsplanering- och schemaläggning inom en läkemedelsproduktion med användning av DES.Frågeställningar: ”Hur kan DES användas för att uppnå flexibilitet och effektivitet i en läkemedelsproiduktion?” och ”Hur kan DES användas för att öka effektiviteten kring användandet av resurser i en läkemedelsproduktion?”Metod: Denna studie har liknats vid en deduktiv- och en kvantitativ forskningsansats där en processimulering utformats. Den teoretiska referensramen baserades på böcker och vetenskapliga publikationer. Empirisk data samlades in genom ostrukturerade observationer i produktionen, regelbundna möten tillsammans med företaget och genom företagets databas Discoverant. Baserat på resultaten från simuleringsmodellen kunde slutsatser dras.Slutsats: Studiens slutsats landade i att det finns flaskhalsar i början av alla tre produktionsflöden för Medicin A, Medicin B och Medicin C. Om dessa kan höjas skulle det generera en högre flexibilitet och effektivitet i produktionen. Det finns också tecken som visar på att en ny resursfördelning hade höjt effektiviteten i produktionen, därmed gjort det möjligt att producera mer produkter.
|
45 |
Diffuser: Packet Spraying While Maintaining Order : Distributed Event Scheduler for Maintaining Packet Order while Packet Spraying in DPDK / Diffusor: Packet Spraying While Upprätthålla Ordning : Distribuerad händelseschemaläggare för att upprätthålla paketordning medan Paketsprutning i DPDKPurushotham Srinivas, Vignesh January 2023 (has links)
The demand for high-speed networking applications has made Network Processors (NPs) and Central Computing Units (CPUs) increasingly parallel and complex, containing numerous on-chip processing cores. This parallelism can only be exploited fully by the underlying packet scheduler by efficiently utilizing all the available cores. Classically, packets have been directed towards the processing cores at flow granularity, making them susceptible to traffic locality. Ensuring a good load balance among the processors improves the application’s throughput and packet loss characteristics. Hence, packet-level schedulers dispatch flows to the processing core at a packet granularity to improve the load balance. However, packet-level scheduling combined with advanced parallelism introduces out-of-order departure of the processed packets. Simultaneously optimizing both the load balance and packet order is challenging. In this degree project, we micro-benchmark the DPDK’s (Dataplane Development Kit) event scheduler and identify many performance and scalability bottlenecks. We find the event scheduler consumes around 40% of the cycles on each participating core for event scheduling. Additionally, we find that DSW (Distributed Software Scheduler) cannot saturate all the workers with traffic because a single NIC (Network Interface Card) queue is polled for packets in our test setup. Then we propose Diffuser, an event scheduler for DPDK that combines the functional properties of both the flow and packet-level schedulers. The diffuser aims to achieve optimal load balance while minimizing out-of-order packet transmission. Diffuser uses stochastic flow assignments along with a load imbalance feedback mechanism to adaptively control the rate of flow migrations to optimize the scheduler’s load distribution. Diffuser reduces packet reordering by at least 65% with ten flows of 100 bytes at 25 MPPS (Million Packet Per Second) and at least 50% with one flow. While Diffuser improves the reordering performance, it slightly reduces throughput and increases latency due to flow migrations and reduced cache locality / Efterfrågan på höghastighets-nätverksapplikationer har gjort nätverkspro-cessorer (NP) och centrala beräkningsenheter (CPU:er) alltmer parallella, komplexa och innehållande många processorkärnor. Denna parallellitet kan endast utnyttjas fullt ut av den underliggande paketschemaläggaren genom att effektivt utnyttja alla tillgängliga kärnor. Vanligtvis har paketschemaläggaren skickat paket till olika kärnor baserat på flödesgranularitet, vilket medför trafik-lokalitet. En bra belastningsbalans mellan processorerna förbättrar applikationens genomströmning och minskar förlorade paket. Därför skickar schemaläggare på paketnivå istället flöden till kärnan med en paketgranularitet för att förbättra lastbalansen. Schemaläggning på paketnivå kombinerat med avancerad parallellism innebär dock att de behandlade paketen avgår i oordning. Att samtidigt optimera både lastbalans och paketordning är en utmaning. I detta examensprojekt utvärderar vi DPDKs (Dataplane Development Kit) händelseschemaläggare och hittar många flaskhalsar i prestanda och skalbarhet. Vi finner att händelseschemaläggaren konsume-rar cirka 40 % av cyklerna på varje kärna.Dessutom finner vi att DSW (Schemaläggare för distribuerad programvara) inte kan mätta alla arbetande kärnor med trafik eftersom en enda nätverkskorts-kö används i vår testmiljö. Vi introducerar också Diffuser, en händelse-schemaläggare för DPDK som kombinerar egenskaperna hos både flödes-och paketnivåschemaläggare. Diffuser ämnar att uppnå optimal lastbalans samtidigt som den minimerar paketöverföring i oordning. Den använder stokastiska flödestilldelningar tillsammans med en återkopplingsmekanism för lastobalans för att adaptivt kontrollera flödesmigreringar för att optimera lastfördelningen. Diffuser minskar omordning av paket med minst 65 % med tio flöden på 100 byte vid 25 MPPS (Miljoner paket per sekund) och minst 50 % med endast ett flöde. Även om Diffuser förbättrar omordningsprestandan, minskar den genomströmningen något och ökar latensen på grund av flödesmigreringar och minskad cache-lokalitet.
|
46 |
Machine Learning-Based Instruction Scheduling for a DSP Architecture Compiler : Instruction Scheduling using Deep Reinforcement Learning and Graph Convolutional Networks / Maskininlärningsbaserad schemaläggning av instruktioner för en DSP-arkitekturkompilator : Schemaläggning av instruktioner med Deep Reinforcement Learning och grafkonvolutionella nätverkAlava Peña, Lucas January 2023 (has links)
Instruction Scheduling is a back-end compiler optimisation technique that can provide significant performance gains. It refers to ordering instructions in a particular order to reduce latency for processors with instruction-level parallelism. At the present typical compilers use heuristics to perform instruction scheduling and solve other related non-polynomial complete problems. This thesis aims to present a machine learning-based approach to challenge heuristic methods concerning performance. In this thesis, a novel reinforcement learning (RL) based model for the instruction scheduling problem is developed including modelling features of processors such as forwarding, resource utilisation and treatment of the action space. An efficient optimal scheduler is presented to be used for an optimal schedule length based reward function, however, this is not used in the final results as a heuristic based reward function was deemed to be sufficient and faster to compute. Furthermore, an RL agent that interacts with the model of the problem is presented using three different types of graph neural networks for the state processing: graph conventional networks, graph attention networks, and graph attention based on the work of Lee et al. A simple two-layer neural network is also used for generating embeddings for the resource utilisation stages. The proposed solution is validated against the modelled environment and favourable but not significant improvements were found compared to the most common heuristic method. Furthermore, it was found that having embeddings relating to resource utilisation was very important for the explained variance of the RL models. Additionally, a trained model was tested in an actual compiler, however, no informative results were found likely due to register allocation or other compiler stages that occur after instruction scheduling. Future work should include improving the scalability of the proposed solution. / Instruktionsschemaläggning är en optimeringsteknik för kompilatorer som kan ge betydande prestandavinster. Det handlar om att ordna instruktioner i en viss ordning för att minska latenstiden för processorer med parallellitet på instruktionsnivå. För närvarande använder vanliga kompilatorer heuristiker för att utföra schemaläggning av instruktioner och lösa andra relaterade ickepolynomiala kompletta problem. Denna avhandling syftar till att presentera en maskininlärningsbaserad metod för att utmana heuristiska metoder när det gäller prestanda. I denna avhandling utvecklas en ny förstärkningsinlärningsbaserad (RL) modell för schemaläggning av instruktioner, inklusive modellering av processorns egenskaper såsom vidarebefordran, resursutnyttjande och behandling av handlingsutrymmet. En effektiv optimal schemaläggare presenteras för att eventuellt användas för belöningsfunktionen, men denna används inte i de slutliga resultaten. Dessutom presenteras en RL-agent som interagerar med problemmodellen och använder tre olika typer av grafneurala nätverk för tillståndsprocessering: grafkonventionella nätverk, grafuppmärksamhetsnätverk och grafuppmärksamhet baserat på arbetet av Lee et al. Ett enkelt neuralt nätverk med två lager används också för att generera inbäddningar för resursanvändningsstegen. Den föreslagna lösningen valideras mot den modellerade miljön och gynnsamma men inte signifikanta förbättringar hittades jämfört med den vanligaste heuristiska metoden. Dessutom visade det sig att det var mycket viktigt för den förklarade variansen i RL-modellerna att ha inbäddningar relaterade till resursutnyttjande. Dessutom testades en tränad modell i en verklig kompilator, men inga informativa resultat hittades, sannolikt på grund av registerallokering eller andra kompilatorsteg som inträffar efter schemaläggning av instruktioner. Framtida arbete bör inkludera att förbättra skalbarheten hos den föreslagna lösningen.
|
47 |
Optimization of the Cloud-Native Infrastructure using Artificial Intelligence / Optimering av den molnbaserade infrastrukturen med hjälp av artificiell intelligensSingh, Animesh January 2023 (has links)
To test Cloud RAN applications, such as the virtual distributed unit (vDU) and centralized virtual unit (vCU), a test environment is required, commonly known as a “test bed” or “test channel”. This test bed comprises various cloudnative infrastructures, including different hardware and software components. Each test bed possesses distinct capacities for testing various features, leading to varying costs. With the increasing number of cloud applications, additional test beds are necessary to ensure thorough testing before releasing these applications to the market. To optimize the creation process of a Cloud-native test bed, leveraging artificial intelligence and machine learning approaches can be beneficial. This thesis presents, applies, and evaluates an AI-based approach for optimizing the construction of Cloud-native test beds. The proposed solution’s feasibility is assessed through an empirical evaluation conducted in the Telecom domain at Ericsson AB in Sweden. / För att testa Cloud RAN-applikationer, såsom en virtuell distribuerad enhet (vDU) och en centraliserad virtuell enhet (vCU), kan en testmiljö behövas, som också kallas för ”testbädd” eller ”testkanal”. En testbädd inkluderar vanligtvis olika molnbaserade infrastrukturer såsom olika hårdvaru- och mjukvarukomponenter. Varje testbädd kan ha olika kapaciteter som används för att testa olika funktioner och därigenom ha olika kostnader. I takt med att antalet molnapplikationer ökar kan det krävas fler testbäddar för att testa molnapplikationernas funktioner innan de släpps på marknaden. Genom att använda olika artificiell intelligens och maskininlärningsmetoder kan vi optimera byggprocessen av en molnbaserad testbädd. I denna avhandling introducerar, tillämpar och utvärderar vi en AI-baserad metod för att optimera byggprocessen av molnbaserade testbäddar. Genomförbarheten av den föreslagna lösningen studeras genom en empirisk utvärdering som har utförts inom telekomområdet på Ericsson AB i Sverige.
|
48 |
Task Scheduling Using Discrete Particle Swarm Optimisation / Schemaläggning genom diskret Particle Swarm OptimisationKarlberg, Hampus January 2020 (has links)
Optimising task allocation in networked systems helps in utilising available resources. When working with unstable and heterogeneous networks, task scheduling can be used to optimise task completion time, energy efficiency and system reliability. The dynamic nature of networks also means that the optimal schedule is subject to change over time. The heterogeneity and variability in network design also complicate the translation of setups from one network to another. Discrete Particle Swarm Optimisation (DPSO) is a metaheuristic that can be used to find solutions to task scheduling. This thesis will explore how DPSO can be used to optimise job scheduling in an unstable network. The purpose is to find solutions for networks like the ones used on trains. This in turn is done to facilitate trajectory planning calculations. Through the use of an artificial neural network, we estimate job scheduling costs. These costs are then used by our DPSO meta heuristic to explore a solution space of potential scheduling. The results focus on the optimisation of batch sizes in relation to network reliability and latency. We simulate a series of unstable and heterogeneous networks and compare completion time. The baseline comparison is the case where scheduling is done by evenly distributing jobs at fixed sizes. The performance of the different approaches is then analysed with regards to usability in real-life scenarios on vehicles. Our results show a noticeable increase in performance within a wide range of network set-ups. This is at the cost of long search times for the DPSO algorithm. We conclude that under the right circumstances, the method can be used to significantly speed up distributed calculations at the cost of requiring significant ahead of time calculations. We recommend future explorations into DPSO starting states to speed up convergence as well as benchmarks of real-life performance. / Optimering av arbetsfördelning i nätverk kan öka användandet av tillgängliga resurser. I instabila heterogena nätverk kan schemaläggning användas för att optimera beräkningstid, energieffektivitet och systemstabilitet. Då nätverk består av sammankopplade resurser innebär det också att vad som är ett optimalt schema kan komma att ändras över tid. Bredden av nätverkskonfigurationer gör också att det kan vara svårt att överföra och applicera ett schema från en konfiguration till en annan. Diskret Particle Swarm Optimisation (DPSO) är en meta heuristisk metod som kan användas för att ta fram lösningar till schemaläggningsproblem. Den här uppsatsen kommer utforska hur DPSO kan användas för att optimera schemaläggning för instabila nätverk. Syftet är att hitta en lösning för nätverk under liknande begränsningar som de som återfinns på tåg. Detta för att i sin tur facilitera planerandet av optimala banor. Genom användandet av ett artificiellt neuralt nätverk (ANN) uppskattar vi schemaläggningskostnaden. Denna kostnad används sedan av DPSO heuristiken för att utforska en lösningsrymd med potentiella scheman. Våra resultat fokuserar på optimeringen av grupperingsstorleken av distribuerade problem i relation till robusthet och letens. Vi simulerar ett flertal instabila och heterogena nätverk och jämför deras prestanda. Utgångspunkten för jämförelsen är schemaläggning där uppgifter distribueras jämnt i bestämda gruperingsstorlekar. Prestandan analyseras sedan i relation till användbarheten i verkliga scenarion. Våra resultat visar på en signifikant ökning i prestanda inom ett brett spann av nätverkskonfigurationer. Det här är på bekostnad av långa söktider för DPSO algoritmen. Vår slutsats är att under rätt förutsättningar kan metoden användas för att snabba upp distribuerade beräkningar förutsatt att beräkningarna för schemaläggningen görs i förväg. Vi rekommenderar vidare utforskande av DPSO algoritmens parametrar för att snabba upp konvergens, samt undersökande av algoritmens prestanda i verkliga miljöer.
|
49 |
How to Improve a Planning System and Workflow in a Quality Control Laboratory : A Case Study at Fresenius Kabi in Sweden / Hur kan ett planeringssystem och arbetsflöde i ett QC-laboratorium förbättrasEminovic, Nejra, Tajik, Rana January 2021 (has links)
Laboratories within quality control are very complicated to schedule due to the high product mix and diversified products tested with many different analysts and instruments. Thus, it requires a flexible planning system to change and improve the overall lab performance and increase efficiency. This thesis is a case study in collaboration with Fresenius Kabi AB and the quality control (QC) department in Uppsala. The QC department has an inflow of batches from the production department as well as from internal customers. Internal customers usually send batches that are part of stability studies or projects. These stability batches arrive at the QC department within irregular intervals and sometimes tightly adjacent, making the QC planning more complex, creating backlogs. Hence, the question in the study is formulated: ● How to improve a planning system and workflow in a quality control department? The current condition of batch inflow and how the planning system is managed today have to be understood to answer the question. Hence, the following sub-questions will be answered: ○ How is the current planning system at the quality control structured? ○ How is the inflow of stability batches at the department made more even andpredictable? This study aims to accomplish a practical planning system to prevent WIP, bottlenecks, and backlogs. The thesis is based on a qualitative method involving an inductive approach. The data collected mainly includes data from incoming batches, interviews, and literature studiesto gain multiple perspectives on the covered area. The study results showed that the internal customers were not satisfied with the current delivery times of QC. The common patterns identified are that internal customers want more contact and cooperation with the QC department. Furthermore, the result shows that the QC can handle the batches that arrive, but the planning system is not good enough. The proposed improvements to the current planning system are mainly to change it to a longer-term planning system and introduce a standard log or planning system between the internal departments. Also, QC should reorganize the lab and schedule based on common analysis to accomplish a higher efficiency of the scheduling. Further recommendations include more transparency and precise planning between departments to improve the inflow of the stability batches. / Quality Control (QC) laboratorium är svåra att planera detta på grund den höga mängden och variationen av produkter. Det kräver således ett flexibelt planeringssystem för att förändra och förbättra prestandan och öka effektiviteten i laboratorier. Detta examensarbete är en fallstudie i samarbete med Fresenius Kabi AB och deras kvalitetsavdelningen i Uppsala. QC avdelningen har ett inflöde av batcher från produktionsavdelningen samt från de interna kunder. De interna kunderna skickar vanligtvis batcher som ingår i stabilitetsstudier eller projekt. Dessa stabilitets batchar inkommer till QC inom icke bestämda tidpunkter och ibland tätt inpå varandra, vilket försvårar planeringen inom QC vilket in sin tur skapar backloggar. Därav är frågeställningen i studien formulerad: ● Hur kan ett planeringssystem och arbetsflöde i ett kvalitetskontroll laboratoriumförbättras? För att kunna besvara denna frågeställning bör det aktuella planeringssystemet i avdelningen att undersökas. Därav kommer även dessa delfrågor att besvaras för att i denna studie: ● Hur är det nuvarande planeringssystemet strukturerat? ● Hur kan inflödet av stabilitets studier på avdelningen jämnas ut och bli mer förutsägbara? Syftet med denna studie är därav att effektivisera det nuvarande planeringssystem för att förhindra WIP, flaskhalsar och backlogs i QC avdelningen. Examensarbetet bygger på en kvalitativ metod med en induktiv forskningsansats. Den insamlade datan främst inkluderar data från inkommande batcher, intervjuer samt litteraturstudie för att få flera perspektiv av det undersökta ämnesområdet. Studiens resultat visade att samtliga interna kunder inte är nöjda med de nuvarande leveranstider som QC har. De gemensamma mönster som identifierats är att de interna kunderna önskar mer kontakt och samarbete med QC avdelningen. Vidare visar resultatet att QC bör ha kapaciteten som krävs för att kunna hanterade batcher som inkommer men att planeringen inte är tillräckligt bra. De förbättringsförslag som föreslås till det nuvarande planeringssystemet är främst att utveckla en mer långsiktig planering samt införa en gemensam logg. QC avdelningen på Fresenius Kabi bör även se över sin organisering och dela in grupper baserat på analyser och inte utrustning. Vidare rekommendationer inkluderar mer transparent och tydlig planering mellan avdelningarna.
|
50 |
Validating Discrete Event Simulation as a tool for short-term scheduling in dynamic environment / Validera diskret händelsestyrd simulering som verktyg för kortsiktig schemaläggning i en dynamisk miljöPeri, Naga Venkata Someswara Chandra, Skog, Lena January 2021 (has links)
In order for the companies to be competitive in today’s market, it is vital to adapt quickly to the market trends. The steady shift towards mass customization from mass production has been challenging many industries globally, which demands the use of digital tools and technologies in various areas to improve performance throughout the supply chain processes. One of these areas is short-term scheduling of jobs on the shop floor. Short-term scheduling of jobs plays a very vital role in many production systems. Optimisation of short-term scheduling help the companies in improving their operational Key Performance Indicators (KPIs), thus saving both money and resources. Today’s complex production systems with multiple constraints, system level interactions and the dynamic environment have challenged the traditional static scheduling approaches. These complex production systems require new scheduling approaches which can consider all the dynamics and should be capable of real-time reconfiguring in case of uncertainties in the shop floor. In this thesis, a case study was performed in a steel manufacturing company over the period of five months to validate Discrete Event Simulation (DES) as a tool for short-term scheduling of heavy plates in a dynamic environment. The challenges related to DES for short-term scheduling during model design, development and implement phases were also identified. In addition to this, the requirements to implement DES model for short-term scheduling in a dynamic environment were also discussed. Furthermore, a Systematic Literature Review (SLR) was also conducted to support the empirical findings from the case study. The idea of this study was to generate an optimal schedule by minimizing overall makespan and maximizing resource utilization using DES model. The findings from both SLR and DES model has clearly proven that DES as a digital tool is exceptional for short-term scheduling in a dynamic environment, nevertheless there are still some challenges associated which needs to be investigated further. The same model can also be used for other purposes such as analysing and identifying bottlenecks in the whole production system. / För att företagen ska vara konkurrenskraftiga på dagens marknad är det viktigt att snabbt anpassa sig till marknadstrenderna. Vägen mot mass-anpassning från massproduktion har utmanat många industrier globalt, vilket kräver användning av digitala verktyg och tekniker inom olika områden för att förbättra prestandan under hela leveranskedjans processer. Ett av dessa områden är kortsiktig schemaläggning av arbeten på fabriksgolvet. Kortsiktig schemaläggning av arbeten spelar en mycket viktig roll i många produktionssystem. Optimering av kortsiktig schemaläggning hjälper företagen att förbättra sina operativa nyckeltal, vilket sparar både pengar och resurser. Dagens komplexa produktionssystem med flera begränsningar, systemnivåinteraktioner och den dynamiska miljön har utmanat de traditionella statiska schemaläggningsmetoderna. Dessa komplexa produktionssystem kräver nya schemaläggningsmetoder som kan ta hänsyn till all dynamik och bör ha möjligheten att omkonfigurera i realtid vid osäkerheter på fabriksgolvet. I denna avhandling genomfördes en fallstudie i ett ståltillverkningsföretag under fem månader för att validera Diskret händelsestyrd simulering som verktyg för kortsiktig schemaläggning av grovplåtstillverkning i en dynamisk miljö. Utmaningarna relaterade till Diskret händelsestyrd simulering för kortsiktig schemaläggning under modellens design, utveckling och implementeringsfaser identifierades också. Utöver detta diskuteras också kraven för att implementera Diskret händelsestyrd simulering för kortsiktig schemaläggning i en dynamisk miljö. Dessutom genomfördes en systematisk litteraturstudie för att stödja de empiriska resultaten från fallstudien. Tanken med den här studien var att generera ett optimalt schema genom att minimera den totala schemalängden och maximera resursutnyttjandet med hjälp av Diskret händelsestyrd simuleringsmodellen. Resultaten från både den systematiska litteraturöversynen och Diskreta händelse simuleringsmodellen har tydligt bevisat att Diskret händelse simulering som ett digitalt verktyg är exceptionellt för kortsiktig schemaläggning i en dynamisk miljö även om det fortfarande finns några utmaningar som måste undersökas ytterligare. Samma modell kan också användas för andra ändamål som att analysera och identifiera flaskhalsar i hela produktionssystemet.
|
Page generated in 0.1082 seconds