• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 33
  • 26
  • Tagged with
  • 59
  • 38
  • 21
  • 21
  • 21
  • 16
  • 12
  • 11
  • 11
  • 10
  • 9
  • 8
  • 8
  • 8
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Highly Available Task Scheduling in Distinctly Branched Directed Acyclic Graphs / Högt tillgänglig schemaläggning av uppgifter i distinkt grenade riktade acykliska grafer

Zhong, Patrik January 2023 (has links)
Big data processing frameworks utilizing distributed frameworks to parallelize the computing of datasets have become a staple part of the data engineering and data science pipelines. One of the more known frameworks is Dask, a widely utilized distributed framework used for parallelizing data processing jobs. In Dask, the main component that traverses and plans out the execution of the job is the scheduler. Dask utilizes a centralized scheduling approach, having a single server node as the scheduler. With no failover mechanism implemented for the scheduler, the work in progress is potentially lost if the scheduler fails. As a consequence, jobs that might have been executed for hours or longer need to be restarted. In this thesis, a highly available scheduler is designed, based on Dask. We introduce a highly-available scheduler that replicates the state of the job on a distributed key-value store. The replicated schedulers allow us to design an architecture where the schedulers are able to take over the job in case of a scheduler failure. To reduce the performance overhead of replication, we further explore optimizations based on partitioning typical task graphs and sending each partition to its own scheduler. The results show that the replicated scheduler is able to tolerate server failures and is able to complete the job without restarting but at a cost of reduced throughput due to the replication. This is mitigated by our partitioning, which achieves almost linear performance gains relative to our baseline fault-tolerant scheduler, through the utilization of a parallelized scheduling architecture. / Dataprocesseringsramverk av stora datamängder har blivit en viktig del inom Data Engineering och Data Science pipelines. Ett av de mer kända ramverken är Dask som används för att parallelisera jobb inom data processering. En av huvudkomponenterna i Dask är dess schemaläggare som traverserar och planerar exekveringen av av arbete. Dask använder en centraliserad schemaläggning, med en enda server nod som schemaläggare. Utan en implementerad felhanteringsmekanism innebär det att allt arbete är förlorat ifall schemaläggaren kraschar. I denna uppsats så skapar vi en schemaläggare baserad på Dask. Vi introducerar hög tillgänglighet till schemaläggaren genom att replikera statusen av ett jobb till en distribuerad Key-Value store. För att reducera kostnaden av replikationen så utforskas optimeringar genom att partitionera typiska uppgifts-grafer för att sedan skicka dem till varsin schemaläggare. Resultaten visar att en replikerad schemaläggare tolererar att schemaläggningsservarna kraschar, och att den kan slutföra ett jobb utan att behöva starta om, på en kostnad av reducerad schemaläggningseffektivitet på grund av replikationen. Denna reduktion av effektivitet mitigeras av vår partitioningsstrategi, som genom att använda en paralliserad schemaläggningsarkitektur, uppnår nästan linjära prestandaökningar jämfört med den simpla feltoleranta schemaläggaren.
42

Optimising the Planning- and Scheduling in a Complex Production : Discrete-Event Simulation in a pharmaceutical context

Börjesson, Johan, Boutros, Paulina January 2022 (has links)
The aim of this study is to investigate the optimisation of production planning- and scheduling in a pharmaceutical facility using DES.Research questions: “How can DES be used to achieve flexibility and efficiency in a pharmaceutical facility?” and “How can DES be used to increase efficiency of the resource allocation in a pharmaceutical facility?”Methodology: This study has been compared to a deductive- and a quantitative research approach where a process simulation has been modelled. The theoretical framework was based on books and scientific publications. Empirical data was collected through unstructured observations at the production site, frequent meetings together with the company and through the company’s database Discoverant. Based on the results from the simulation model conclusions could be drawn.Conclusion: The study concluded that there are bottlenecks at the beginning of the processes in all three production flows for Medicine A, Medicine B and Medicine C. If these are raised it would generate greater flexibility and efficiency in the production. There were also indications of a new allocation of resources that would raise efficiency in the production, thus making it possible to increase the output from the production. / Syftet med studien är att undersöka optimering av produktionsplanering- och schemaläggning inom en läkemedelsproduktion med användning av DES.Frågeställningar: ”Hur kan DES användas för att uppnå flexibilitet och effektivitet i en läkemedelsproiduktion?” och ”Hur kan DES användas för att öka effektiviteten kring användandet av resurser i en läkemedelsproduktion?”Metod: Denna studie har liknats vid en deduktiv- och en kvantitativ forskningsansats där en processimulering utformats. Den teoretiska referensramen baserades på böcker och vetenskapliga publikationer. Empirisk data samlades in genom ostrukturerade observationer i produktionen, regelbundna möten tillsammans med företaget och genom företagets databas Discoverant. Baserat på resultaten från simuleringsmodellen kunde slutsatser dras.Slutsats: Studiens slutsats landade i att det finns flaskhalsar i början av alla tre produktionsflöden för Medicin A, Medicin B och Medicin C. Om dessa kan höjas skulle det generera en högre flexibilitet och effektivitet i produktionen. Det finns också tecken som visar på att en ny resursfördelning hade höjt effektiviteten i produktionen, därmed gjort det möjligt att producera mer produkter.
43

Diffuser: Packet Spraying While Maintaining Order : Distributed Event Scheduler for Maintaining Packet Order while Packet Spraying in DPDK / Diffusor: Packet Spraying While Upprätthålla Ordning : Distribuerad händelseschemaläggare för att upprätthålla paketordning medan Paketsprutning i DPDK

Purushotham Srinivas, Vignesh January 2023 (has links)
The demand for high-speed networking applications has made Network Processors (NPs) and Central Computing Units (CPUs) increasingly parallel and complex, containing numerous on-chip processing cores. This parallelism can only be exploited fully by the underlying packet scheduler by efficiently utilizing all the available cores. Classically, packets have been directed towards the processing cores at flow granularity, making them susceptible to traffic locality. Ensuring a good load balance among the processors improves the application’s throughput and packet loss characteristics. Hence, packet-level schedulers dispatch flows to the processing core at a packet granularity to improve the load balance. However, packet-level scheduling combined with advanced parallelism introduces out-of-order departure of the processed packets. Simultaneously optimizing both the load balance and packet order is challenging. In this degree project, we micro-benchmark the DPDK’s (Dataplane Development Kit) event scheduler and identify many performance and scalability bottlenecks. We find the event scheduler consumes around 40% of the cycles on each participating core for event scheduling. Additionally, we find that DSW (Distributed Software Scheduler) cannot saturate all the workers with traffic because a single NIC (Network Interface Card) queue is polled for packets in our test setup. Then we propose Diffuser, an event scheduler for DPDK that combines the functional properties of both the flow and packet-level schedulers. The diffuser aims to achieve optimal load balance while minimizing out-of-order packet transmission. Diffuser uses stochastic flow assignments along with a load imbalance feedback mechanism to adaptively control the rate of flow migrations to optimize the scheduler’s load distribution. Diffuser reduces packet reordering by at least 65% with ten flows of 100 bytes at 25 MPPS (Million Packet Per Second) and at least 50% with one flow. While Diffuser improves the reordering performance, it slightly reduces throughput and increases latency due to flow migrations and reduced cache locality / Efterfrågan på höghastighets-nätverksapplikationer har gjort nätverkspro-cessorer (NP) och centrala beräkningsenheter (CPU:er) alltmer parallella, komplexa och innehållande många processorkärnor. Denna parallellitet kan endast utnyttjas fullt ut av den underliggande paketschemaläggaren genom att effektivt utnyttja alla tillgängliga kärnor. Vanligtvis har paketschemaläggaren skickat paket till olika kärnor baserat på flödesgranularitet, vilket medför trafik-lokalitet. En bra belastningsbalans mellan processorerna förbättrar applikationens genomströmning och minskar förlorade paket. Därför skickar schemaläggare på paketnivå istället flöden till kärnan med en paketgranularitet för att förbättra lastbalansen. Schemaläggning på paketnivå kombinerat med avancerad parallellism innebär dock att de behandlade paketen avgår i oordning. Att samtidigt optimera både lastbalans och paketordning är en utmaning. I detta examensprojekt utvärderar vi DPDKs (Dataplane Development Kit) händelseschemaläggare och hittar många flaskhalsar i prestanda och skalbarhet. Vi finner att händelseschemaläggaren konsume-rar cirka 40 % av cyklerna på varje kärna.Dessutom finner vi att DSW (Schemaläggare för distribuerad programvara) inte kan mätta alla arbetande kärnor med trafik eftersom en enda nätverkskorts-kö används i vår testmiljö. Vi introducerar också Diffuser, en händelse-schemaläggare för DPDK som kombinerar egenskaperna hos både flödes-och paketnivåschemaläggare. Diffuser ämnar att uppnå optimal lastbalans samtidigt som den minimerar paketöverföring i oordning. Den använder stokastiska flödestilldelningar tillsammans med en återkopplingsmekanism för lastobalans för att adaptivt kontrollera flödesmigreringar för att optimera lastfördelningen. Diffuser minskar omordning av paket med minst 65 % med tio flöden på 100 byte vid 25 MPPS (Miljoner paket per sekund) och minst 50 % med endast ett flöde. Även om Diffuser förbättrar omordningsprestandan, minskar den genomströmningen något och ökar latensen på grund av flödesmigreringar och minskad cache-lokalitet.
44

Machine Learning-Based Instruction Scheduling for a DSP Architecture Compiler : Instruction Scheduling using Deep Reinforcement Learning and Graph Convolutional Networks / Maskininlärningsbaserad schemaläggning av instruktioner för en DSP-arkitekturkompilator : Schemaläggning av instruktioner med Deep Reinforcement Learning och grafkonvolutionella nätverk

Alava Peña, Lucas January 2023 (has links)
Instruction Scheduling is a back-end compiler optimisation technique that can provide significant performance gains. It refers to ordering instructions in a particular order to reduce latency for processors with instruction-level parallelism. At the present typical compilers use heuristics to perform instruction scheduling and solve other related non-polynomial complete problems. This thesis aims to present a machine learning-based approach to challenge heuristic methods concerning performance. In this thesis, a novel reinforcement learning (RL) based model for the instruction scheduling problem is developed including modelling features of processors such as forwarding, resource utilisation and treatment of the action space. An efficient optimal scheduler is presented to be used for an optimal schedule length based reward function, however, this is not used in the final results as a heuristic based reward function was deemed to be sufficient and faster to compute. Furthermore, an RL agent that interacts with the model of the problem is presented using three different types of graph neural networks for the state processing: graph conventional networks, graph attention networks, and graph attention based on the work of Lee et al. A simple two-layer neural network is also used for generating embeddings for the resource utilisation stages. The proposed solution is validated against the modelled environment and favourable but not significant improvements were found compared to the most common heuristic method. Furthermore, it was found that having embeddings relating to resource utilisation was very important for the explained variance of the RL models. Additionally, a trained model was tested in an actual compiler, however, no informative results were found likely due to register allocation or other compiler stages that occur after instruction scheduling. Future work should include improving the scalability of the proposed solution. / Instruktionsschemaläggning är en optimeringsteknik för kompilatorer som kan ge betydande prestandavinster. Det handlar om att ordna instruktioner i en viss ordning för att minska latenstiden för processorer med parallellitet på instruktionsnivå. För närvarande använder vanliga kompilatorer heuristiker för att utföra schemaläggning av instruktioner och lösa andra relaterade ickepolynomiala kompletta problem. Denna avhandling syftar till att presentera en maskininlärningsbaserad metod för att utmana heuristiska metoder när det gäller prestanda. I denna avhandling utvecklas en ny förstärkningsinlärningsbaserad (RL) modell för schemaläggning av instruktioner, inklusive modellering av processorns egenskaper såsom vidarebefordran, resursutnyttjande och behandling av handlingsutrymmet. En effektiv optimal schemaläggare presenteras för att eventuellt användas för belöningsfunktionen, men denna används inte i de slutliga resultaten. Dessutom presenteras en RL-agent som interagerar med problemmodellen och använder tre olika typer av grafneurala nätverk för tillståndsprocessering: grafkonventionella nätverk, grafuppmärksamhetsnätverk och grafuppmärksamhet baserat på arbetet av Lee et al. Ett enkelt neuralt nätverk med två lager används också för att generera inbäddningar för resursanvändningsstegen. Den föreslagna lösningen valideras mot den modellerade miljön och gynnsamma men inte signifikanta förbättringar hittades jämfört med den vanligaste heuristiska metoden. Dessutom visade det sig att det var mycket viktigt för den förklarade variansen i RL-modellerna att ha inbäddningar relaterade till resursutnyttjande. Dessutom testades en tränad modell i en verklig kompilator, men inga informativa resultat hittades, sannolikt på grund av registerallokering eller andra kompilatorsteg som inträffar efter schemaläggning av instruktioner. Framtida arbete bör inkludera att förbättra skalbarheten hos den föreslagna lösningen.
45

Optimization of the Cloud-Native Infrastructure using Artificial Intelligence / Optimering av den molnbaserade infrastrukturen med hjälp av artificiell intelligens

Singh, Animesh January 2023 (has links)
To test Cloud RAN applications, such as the virtual distributed unit (vDU) and centralized virtual unit (vCU), a test environment is required, commonly known as a “test bed” or “test channel”. This test bed comprises various cloudnative infrastructures, including different hardware and software components. Each test bed possesses distinct capacities for testing various features, leading to varying costs. With the increasing number of cloud applications, additional test beds are necessary to ensure thorough testing before releasing these applications to the market. To optimize the creation process of a Cloud-native test bed, leveraging artificial intelligence and machine learning approaches can be beneficial. This thesis presents, applies, and evaluates an AI-based approach for optimizing the construction of Cloud-native test beds. The proposed solution’s feasibility is assessed through an empirical evaluation conducted in the Telecom domain at Ericsson AB in Sweden. / För att testa Cloud RAN-applikationer, såsom en virtuell distribuerad enhet (vDU) och en centraliserad virtuell enhet (vCU), kan en testmiljö behövas, som också kallas för ”testbädd” eller ”testkanal”. En testbädd inkluderar vanligtvis olika molnbaserade infrastrukturer såsom olika hårdvaru- och mjukvarukomponenter. Varje testbädd kan ha olika kapaciteter som används för att testa olika funktioner och därigenom ha olika kostnader. I takt med att antalet molnapplikationer ökar kan det krävas fler testbäddar för att testa molnapplikationernas funktioner innan de släpps på marknaden. Genom att använda olika artificiell intelligens och maskininlärningsmetoder kan vi optimera byggprocessen av en molnbaserad testbädd. I denna avhandling introducerar, tillämpar och utvärderar vi en AI-baserad metod för att optimera byggprocessen av molnbaserade testbäddar. Genomförbarheten av den föreslagna lösningen studeras genom en empirisk utvärdering som har utförts inom telekomområdet på Ericsson AB i Sverige.
46

Task Scheduling Using Discrete Particle Swarm Optimisation / Schemaläggning genom diskret Particle Swarm Optimisation

Karlberg, Hampus January 2020 (has links)
Optimising task allocation in networked systems helps in utilising available resources. When working with unstable and heterogeneous networks, task scheduling can be used to optimise task completion time, energy efficiency and system reliability. The dynamic nature of networks also means that the optimal schedule is subject to change over time. The heterogeneity and variability in network design also complicate the translation of setups from one network to another. Discrete Particle Swarm Optimisation (DPSO) is a metaheuristic that can be used to find solutions to task scheduling. This thesis will explore how DPSO can be used to optimise job scheduling in an unstable network. The purpose is to find solutions for networks like the ones used on trains. This in turn is done to facilitate trajectory planning calculations. Through the use of an artificial neural network, we estimate job scheduling costs. These costs are then used by our DPSO meta heuristic to explore a solution space of potential scheduling. The results focus on the optimisation of batch sizes in relation to network reliability and latency. We simulate a series of unstable and heterogeneous networks and compare completion time. The baseline comparison is the case where scheduling is done by evenly distributing jobs at fixed sizes. The performance of the different approaches is then analysed with regards to usability in real-life scenarios on vehicles. Our results show a noticeable increase in performance within a wide range of network set-ups. This is at the cost of long search times for the DPSO algorithm. We conclude that under the right circumstances, the method can be used to significantly speed up distributed calculations at the cost of requiring significant ahead of time calculations. We recommend future explorations into DPSO starting states to speed up convergence as well as benchmarks of real-life performance. / Optimering av arbetsfördelning i nätverk kan öka användandet av tillgängliga resurser. I instabila heterogena nätverk kan schemaläggning användas för att optimera beräkningstid, energieffektivitet och systemstabilitet. Då nätverk består av sammankopplade resurser innebär det också att vad som är ett optimalt schema kan komma att ändras över tid. Bredden av nätverkskonfigurationer gör också att det kan vara svårt att överföra och applicera ett schema från en konfiguration till en annan. Diskret Particle Swarm Optimisation (DPSO) är en meta heuristisk metod som kan användas för att ta fram lösningar till schemaläggningsproblem. Den här uppsatsen kommer utforska hur DPSO kan användas för att optimera schemaläggning för instabila nätverk. Syftet är att hitta en lösning för nätverk under liknande begränsningar som de som återfinns på tåg. Detta för att i sin tur facilitera planerandet av optimala banor. Genom användandet av ett artificiellt neuralt nätverk (ANN) uppskattar vi schemaläggningskostnaden. Denna kostnad används sedan av DPSO heuristiken för att utforska en lösningsrymd med potentiella scheman. Våra resultat fokuserar på optimeringen av grupperingsstorleken av distribuerade problem i relation till robusthet och letens. Vi simulerar ett flertal instabila och heterogena nätverk och jämför deras prestanda. Utgångspunkten för jämförelsen är schemaläggning där uppgifter distribueras jämnt i bestämda gruperingsstorlekar. Prestandan analyseras sedan i relation till användbarheten i verkliga scenarion. Våra resultat visar på en signifikant ökning i prestanda inom ett brett spann av nätverkskonfigurationer. Det här är på bekostnad av långa söktider för DPSO algoritmen. Vår slutsats är att under rätt förutsättningar kan metoden användas för att snabba upp distribuerade beräkningar förutsatt att beräkningarna för schemaläggningen görs i förväg. Vi rekommenderar vidare utforskande av DPSO algoritmens parametrar för att snabba upp konvergens, samt undersökande av algoritmens prestanda i verkliga miljöer.
47

How to Improve a Planning System and Workflow in a Quality Control Laboratory : A Case Study at Fresenius Kabi in Sweden / Hur kan ett planeringssystem och arbetsflöde i ett QC-laboratorium förbättras

Eminovic, Nejra, Tajik, Rana January 2021 (has links)
Laboratories within quality control are very complicated to schedule due to the high product mix and diversified products tested with many different analysts and instruments. Thus, it requires a flexible planning system to change and improve the overall lab performance and increase efficiency. This thesis is a case study in collaboration with Fresenius Kabi AB and the quality control (QC) department in Uppsala. The QC department has an inflow of batches from the production department as well as from internal customers. Internal customers usually send batches that are part of stability studies or projects. These stability batches arrive at the QC department within irregular intervals and sometimes tightly adjacent, making the QC planning more complex, creating backlogs. Hence, the question in the study is formulated: ● How to improve a planning system and workflow in a quality control department? The current condition of batch inflow and how the planning system is managed today have to be understood to answer the question. Hence, the following sub-questions will be answered: ○ How is the current planning system at the quality control structured? ○ How is the inflow of stability batches at the department made more even andpredictable? This study aims to accomplish a practical planning system to prevent WIP, bottlenecks, and backlogs. The thesis is based on a qualitative method involving an inductive approach. The data collected mainly includes data from incoming batches, interviews, and literature studiesto gain multiple perspectives on the covered area. The study results showed that the internal customers were not satisfied with the current delivery times of QC. The common patterns identified are that internal customers want more contact and cooperation with the QC department. Furthermore, the result shows that the QC can handle the batches that arrive, but the planning system is not good enough. The proposed improvements to the current planning  system are mainly to change it to a longer-term planning system and introduce a standard log or planning system between the internal departments. Also, QC should reorganize the lab and schedule based on common analysis to accomplish a higher efficiency of the scheduling. Further recommendations include more transparency and precise planning between departments to improve the inflow of the stability batches. / Quality Control (QC) laboratorium är svåra att planera detta på grund den höga mängden och variationen av produkter. Det kräver således ett flexibelt planeringssystem för att förändra och förbättra prestandan och öka effektiviteten i laboratorier. Detta examensarbete är en fallstudie i samarbete med Fresenius Kabi AB och deras kvalitetsavdelningen i Uppsala. QC avdelningen har ett inflöde av batcher från produktionsavdelningen samt från de interna kunder. De interna kunderna skickar vanligtvis batcher som ingår i stabilitetsstudier eller projekt. Dessa stabilitets batchar inkommer till QC inom icke bestämda tidpunkter och ibland tätt inpå varandra, vilket försvårar planeringen inom QC vilket in sin tur skapar backloggar. Därav är frågeställningen i studien formulerad: ● Hur kan ett planeringssystem och arbetsflöde i ett kvalitetskontroll laboratoriumförbättras? För att kunna besvara denna frågeställning bör det aktuella planeringssystemet i avdelningen att undersökas. Därav kommer även dessa delfrågor att besvaras för att i denna studie: ● Hur är det nuvarande planeringssystemet strukturerat? ● Hur kan inflödet av stabilitets studier på avdelningen jämnas ut och bli mer förutsägbara? Syftet med denna studie är därav att effektivisera det nuvarande planeringssystem för att förhindra WIP, flaskhalsar och backlogs i QC avdelningen. Examensarbetet bygger på en kvalitativ metod med en induktiv forskningsansats. Den insamlade datan främst inkluderar data från inkommande batcher, intervjuer samt litteraturstudie för att få flera perspektiv av det undersökta ämnesområdet. Studiens resultat visade att samtliga interna kunder inte är nöjda med de nuvarande leveranstider som QC har. De gemensamma mönster som identifierats är att de interna kunderna önskar mer kontakt och samarbete med QC avdelningen. Vidare visar resultatet att QC bör ha kapaciteten som krävs för att kunna hanterade batcher som inkommer men att planeringen inte är tillräckligt bra. De förbättringsförslag som föreslås till det nuvarande planeringssystemet är främst att utveckla en mer långsiktig planering samt införa en gemensam logg. QC avdelningen på Fresenius Kabi bör även se över sin organisering och dela in grupper baserat på analyser och inte utrustning. Vidare rekommendationer inkluderar mer transparent och tydlig planering mellan avdelningarna.
48

Validating Discrete Event Simulation as a tool for short-term scheduling in dynamic environment / Validera diskret händelsestyrd simulering som verktyg för kortsiktig schemaläggning i en dynamisk miljö

Peri, Naga Venkata Someswara Chandra, Skog, Lena January 2021 (has links)
In order for the companies to be competitive in today’s market, it is vital to adapt quickly to the market trends. The steady shift towards mass customization from mass production has been challenging many industries globally, which demands the use of digital tools and technologies in various areas to improve performance throughout the supply chain processes. One of these areas is short-term scheduling of jobs on the shop floor. Short-term scheduling of jobs plays a very vital role in many production systems. Optimisation of short-term scheduling help the companies in improving their operational Key Performance Indicators (KPIs), thus saving both money and resources. Today’s complex production systems with multiple constraints, system level interactions and the dynamic environment have challenged the traditional static scheduling approaches. These complex production systems require new scheduling approaches which can consider all the dynamics and should be capable of real-time reconfiguring in case of uncertainties in the shop floor. In this thesis, a case study was performed in a steel manufacturing company over the period of five months to validate Discrete Event Simulation (DES) as a tool for short-term scheduling of heavy plates in a dynamic environment. The challenges related to DES for short-term scheduling during model design, development and implement phases were also identified. In addition to this, the requirements to implement DES model for short-term scheduling in a dynamic environment were also discussed. Furthermore, a Systematic Literature Review (SLR) was also conducted to support the empirical findings from the case study. The idea of this study was to generate an optimal schedule by minimizing overall makespan and maximizing resource utilization using DES model. The findings from both SLR and DES model has clearly proven that DES as a digital tool is exceptional for short-term scheduling in a dynamic environment, nevertheless there are still some challenges associated which needs to be investigated further. The same model can also be used for other purposes such as analysing and identifying bottlenecks in the whole production system. / För att företagen ska vara konkurrenskraftiga på dagens marknad är det viktigt att snabbt anpassa sig till marknadstrenderna. Vägen mot mass-anpassning från massproduktion har utmanat många industrier globalt, vilket kräver användning av digitala verktyg och tekniker inom olika områden för att förbättra prestandan under hela leveranskedjans processer. Ett av dessa områden är kortsiktig schemaläggning av arbeten på fabriksgolvet. Kortsiktig schemaläggning av arbeten spelar en mycket viktig roll i många produktionssystem. Optimering av kortsiktig schemaläggning hjälper företagen att förbättra sina operativa nyckeltal, vilket sparar både pengar och resurser. Dagens komplexa produktionssystem med flera begränsningar, systemnivåinteraktioner och den dynamiska miljön har utmanat de traditionella statiska schemaläggningsmetoderna. Dessa komplexa produktionssystem kräver nya schemaläggningsmetoder som kan ta hänsyn till all dynamik och bör ha möjligheten att omkonfigurera i realtid vid osäkerheter på fabriksgolvet. I denna avhandling genomfördes en fallstudie i ett ståltillverkningsföretag under fem månader för att validera Diskret händelsestyrd simulering som verktyg för kortsiktig schemaläggning av grovplåtstillverkning i en dynamisk miljö. Utmaningarna relaterade till Diskret händelsestyrd simulering för kortsiktig schemaläggning under modellens design, utveckling och implementeringsfaser identifierades också. Utöver detta diskuteras också kraven för att implementera Diskret händelsestyrd simulering för kortsiktig schemaläggning i en dynamisk miljö. Dessutom genomfördes en systematisk litteraturstudie för att stödja de empiriska resultaten från fallstudien. Tanken med den här studien var att generera ett optimalt schema genom att minimera den totala schemalängden och maximera resursutnyttjandet med hjälp av Diskret händelsestyrd simuleringsmodellen. Resultaten från både den systematiska litteraturöversynen och Diskreta händelse simuleringsmodellen har tydligt bevisat att Diskret händelse simulering som ett digitalt verktyg är exceptionellt för kortsiktig schemaläggning i en dynamisk miljö även om det fortfarande finns några utmaningar som måste undersökas ytterligare. Samma modell kan också användas för andra ändamål som att analysera och identifiera flaskhalsar i hela produktionssystemet.
49

Digitala tidsbokningar i sjukvården : Identifiering av brister och förbättringsförslag för en effektivare tidsbokningsprocess / Digital appointment booking in health care

Åkesson, Johanna, Ågren, Josefine January 2020 (has links)
Syfte – Syftet med denna studie är att kartlägga hur digitala tidsbokningar i sjukvården används i nuläget, identifiera brister och ta fram förbättringsförslag för att skapa en effektivare tidsbokningsprocess. För att uppfylla syftet har tre frågeställningar formulerats: 1. Hur används digitala tidsbokningar i nuläget? 2. Vilka brister finns det i den digitala tidsbokningsprocessen som påverkar effektiviteten? 3. Hur kan den nuvarande digitala tidsbokningsprocessen effektiviseras? Metod – För att kunna uppnå studiens syfte har en fallstudie genomförts på kvinnohälsovården i Jönköping. Fallstudien bestod utav deltagande observationer och dokumentstudier. Även en litteraturstudie har genomförts vilket har legat till grund för det teoretiska ramverket som använts för analys av empiriska data. Resultat – I studien framkom det att kvinnohälsovården till viss del använder sig av digitala tidsbokningar. Fyra brister identifieras i tidsbokningsprocessen som påverkade effektiviteten. Dessa var schemaläggning, begränsat utbud på 1177, bristande användning av prognoser samt samordning. Efter att dessa brister identifierats kunde tre förbättringsförslag formuleras med syfte till att effektivisera tidsbokningsprocessen. Det första förbättringsförslaget gäller ett utökat utbud av tillgängliga tider på 1177. Det andra förbättringsförslaget handlar om hur prognoser kan användas i större utsträckning vid schemaläggning och planering av tillgängliga tider på 1177. Slutligen handlar det tredje förbättringsförslaget om hur en större samordning kan bidra till minskad tid för administration för barnmorskorna. Implikationer – I studien har brister identifierats och förbättringsförslag har tagits fram gällande hur tidsbokningsprocessen ska effektiviseras. Genom användning av förbättringsförslagen kan verksamheten bli mer samordnad och med hjälp av prognoser kunna tillgodose den efterfrågan som finns. Förbättringsförslagen skulle innebära nya arbetsrutiner för kvinnohälsovården. Ingen ny teori har skapats utifrån studien då den är baserad på redan existerande teori. Begränsningar – Studien utfördes endast på ett fallföretag vilket kan påverka studiens generaliserbarhet. Förbättringsförslagen gällande hur tidsbokningsprocessen kan effektiviseras har enbart beskrivits på ett teoretiskt plan och inte testats i praktiken. Studien har även främst varit av kvalitativ karaktär vilket medför att inga mätningar har gjorts gällande hur förbättringsförslagen har bidragit till en effektivare tidsbokningsprocess. / Purpose – The purpose with this study is to chart the using of digital appointment bookings in the health care, identify deficits and to generate suggestions for improvements for a more efficient process regarding appointment bookings. To fulfil the purpose three research questions have been formulated: 1. How are digital appointment bookings currently being used? 2. What deficits are there in the digital appointment booking process that affects the efficiency? 3. In what way can the current digital appointment booking process be more efficient? Method – To be able to fulfil the purpose a case study was conducted at women’s health care in Jönköping. The case study consisted of participatory observations and document studies. A literature review was also conducted to establish the theoretical framework that was used to analyze the empirical data. Findings – The study showed that digital appointment bookings are partly being used in the women’s health care. Four deficits that affected the appointment booking process were identified. The deficits were scheduling, a limited supply of appointments at 1177, limited using of forecasts in the scheduling and planning of appointments and lack of coordination. Once these deficits were identified, three suggestions for improvements to a more efficient appointment booking process were formulated. The first suggestion was to extend the supply of appointments at 1177. The second suggestion was regarding how forecasts can be used for scheduling and planning of appointments at 1177 in a greater extent. Lastly, the third suggestion mentioned how a greater use of coordination can contribute to reduced administration for the midwives. Implications – The study identified deficits and suggestions for improvements regarding how the appointment booking process can become more efficient. By using the suggestions, the organization can become more coordinated and by using forecasts be able to meet the demand. The suggestions for improvements would lead to new work procedures for the women´s health care. No additional research has been developed through this study as it was based on already existing theories. Limitations – the study was only executed at one case company which can affect how generalized the results are. The suggestions for improvement regarding how the appointment booking process can become more efficient are only described in the theory and have not been tested in the reality. The study has mainly been a qualitative research which means that no measurements has been performed regarding on how the suggestions for improvements would lead to a more efficient appointment booking process.
50

Algorithm Construction for Efficient Scheduling of Advanced Health Care at Home

Afroze, Tonima, Rosén Gardell, Moa January 2015 (has links)
Providing advanced health care at home rather than in a hospital creates a greater quality of life for patients and their families. It also lowers the risk of hospital-acquired infections and accelerates recovery. The overall cost of care per patient is decreased. Manual scheduling of patient visits by health care professionals (HCPs) has become a bottleneck for increased patient capacity at SABH, a ward providing advanced pediatric health care at home (“Sjukhusansluten Avancerad Barnsjukvård i Hemmet” in Swedish), since many parameters need to be taken into account during scheduling. This thesis aims to increase the efficiency of SABH’s daily scheduling of personnel and resources by designing an automated scheduler that constructs a daily schedule and incorporates changes in it when needed in order to remove scheduling as a limitation for increased patient capacity. Requirements on a feasible schedule are identified in cooperation with SABH and literature is investigated about similar areas where the scheduling process has been automated. The scheduling is formulated as a computerized problem and investigated from the perspective of theoretical computer science. We show that the scheduling problem is NP-hard and can therefore not be expected to be solved optimally. The algorithm for scheduling the visits minimizes violations of time windows and travel times, and maximizes person continuity and workload balancing. The algorithm constructs an initial solution that fulfills time constraints using a greedy approach and then uses local search, simulated annealing, and tabu search to iteratively improve the solution. We present an exact rescheduling algorithm that incorporates additional visits after the original schedule has been set. The scheduling algorithm was implemented and tested on real data from SABH. Although we found the algorithm to be efficient, automatic transfer of data from the patient journal system is an imperative for the scheduler to be adopted. / Barn som får avancerad sjukvård hemma istället för på sjukhus tillfrisknar ofta snabbare och risken för vårdrelaterade infektioner minskar. Barnen och deras familjer blir mer välmående av att få vistas i sin hemmiljö. På Astrid Lingrens barnsjukhus i Stockholm erbjuds avancerad hemsjukvård av avdelningen Sjukhusansluten Avancerad Barnsjukvård i Hemmet (SABH). För att schemalägga när patienterna ska besökas av sjukvårdspersonalen behöver många olika faktorer beaktas, detta sker idag helt manuellt. Den manuella schemaläggningen utgör en naturlig begränsning av SABHs patientkapacitet. Denna uppsats syftar till att effektivisera schemaläggningsprocessen hos SABH genom att föreslå en automatiserad lösning som hanterar koordinering av personal och resurser och dem förändringar som behöver göras i schemat under dagen, för att få bort schemaläggningsprocessen som ett hinder mot ökad patientkapacitet. Krav på schemaläggningen identifieras i diskussion med SABH och genom att studera litteratur kring liknande områden där schemaläggning lösts automatiserat. Vi formulerar schemaläggningen som ett datologiskt problem och analyserar det med utgångspunkt i teoretisk datalogi. Vi visar att problemet är NP-svårt och därför inte kan förväntas lösas optimalt inom rimlig tid. Vår lösning approximerar istället fram ett rimligt svar, där fokus hos algoritmen är att patienterna ska besökas de tider de behöver, personalens restider ska vara så korta som möjligt samtidigt som arbetsbördan hos personalen ska vara så lika fördelad som möjligt och patienterna ska, i den mån det är möjligt, få vård av samma personal. Med en girig algoritm konstrueras ett initialt schema som uppfyller de grundläggande kraven, detta schema förbättras med lokalsökning, simulated annealing och tabusökning. En exakt lösning framställs för uppdatering av schemat. Algoritmen för att lägga ett dagligt schema (utan uppdateringar) implementerades och testades med riktigt data från SABH. Vår algoritm visade sig vara effektiv, men för att kunna göra hela schemaläggningsprocessen effektiv behöver den integreras med journalsystemet.

Page generated in 0.094 seconds