• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3
  • Tagged with
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Computation Offloading for Real-Time Applications : Server Time Reservation for Periodic Tasks / Beräkningsavlastning för realtidsapplikationer

Tengana Hurtado, Lizzy January 2023 (has links)
Edge computing is a distributed computing paradigm where computing resources are located physically closer to the data source compared to the traditional cloud computing paradigm. Edge computing enables computation offloading from resource-constrained devices to more powerful servers in the edge and cloud. To offer edge and cloud support to real-time industrial applications, the communication to the servers and the server-side computation needs to be predictable. However, the predictability of offloading cannot be guaranteed in an environment where multiple devices are competing for the same edge and cloud resources due to potential server-side scheduling conflicts. To the best or our knowledge, no offloading scheme has been proposed that provides a highly predictable real-time task scheduling in the face of multiple devices offloading to a set of heterogeneous edge/cloud servers. Hence, this thesis approaches the problem of predictable offloading in real-time environments by proposing a centralized server time reservation system to schedule the offloading of real-time tasks to edge and cloud servers. Our reservation system allows end-devices to request external execution time in advance for real-time tasks that will be generated in the future, therefore when such a task is created, it already has a designated offloading server that guarantees its timely execution. Furthermore, this centralized reservation system is capable of optimizing the reservation scheduling strategy with the goal of minimizing energy consumption of edge servers while meeting the stringent deadline constraints of real-time applications. / Edge computing är ett distribuerat datorparadigm där datorresurser är fysiskt placerade närmare datakällan jämfört med det traditionella molnberäkningsparadigmet. Edge computing möjliggör beräkningsavlastning från resursbegränsade enheter till mer kraftfulla servrar i kanten och molnet. För att erbjuda kant- och molnstöd till industriella tillämpningar i realtid måste kommunikationen till servrarna och beräkningen på serversidan vara förutsägbar. Förutsägbarheten av avlastning kan dock inte garanteras i en miljö där flera enheter konkurrerar om samma kant- och molnresurser på grund av potentiella schemaläggningskonflikter på serversidan. Så vitt vi vet har inget avlastningsschema föreslagits som ger en mycket förutsägbar uppgiftsschemaläggning i realtid inför flera enheter som laddas av till en uppsättning heterogena edge-/molnservrar. Därför närmar sig denna avhandling problemet med förutsägbar avlastning i realtidsmiljöer genom att föreslå ett centraliserat servertidsreservationssystem för att schemalägga avlastningen av realtidsuppgifter till edge- och molnservrar. Vårt reservationssystem tillåter slutenheter att begära extern exekveringstid i förväg för realtidsuppgifter som kommer att genereras i framtiden, därför när en sådan uppgift skapas har den redan en utsedd avlastningsserver som garanterar att den utförs i tid. Dessutom kan detta centraliserade bokningssystem optimera bokningsschemaläggningsstrategin med målet att minimera energiförbrukningen för edge-servrar samtidigt som de stränga deadline-begränsningarna för realtidsapplikationer uppfylls.
2

Edge Compute Offloading Strategies using Heuristic and Reinforcement Learning Techniques.

Dikonimaki, Chrysoula January 2023 (has links)
The emergence of 5G alongside the distributed computing paradigm called Edge computing has prompted a tremendous change in the industry through the opportunity for reducing network latency and energy consumption and providing scalability. Edge computing extends the capabilities of users’ resource-constrained devices by placing data centers at the edge of the network. Computation offloading enables edge computing by allowing the migration of users’ tasks to edge servers. Deciding whether it is beneficial for a mobile device to offload a task and on which server to offload, while environmental variables, such as availability, load, network quality, etc., are changing dynamically, is a challenging problem that requires careful consideration to achieve better performance. This project focuses on proposing lightweight and efficient algorithms to take offloading decisions from the mobile device perspective to benefit the user. Subsequently, heuristic techniques have been examined as a way to find quick but sub-optimal solutions. These techniques have been combined with a Multi-Armed Bandit algorithm, called Discounted Upper Confidence Bound (DUCB) to take optimal decisions quickly. The findings indicate that these heuristic approaches cannot handle the dynamicity of the problem and the DUCB provides the ability to adapt to changing circumstances without having to keep adding extra parameters. Overall, the DUCB algorithm performs better in terms of local energy consumption and can improve service time most of the times. / Utvecklingen av 5G har skett parallellt med det distribuerade beräkningsparadigm som går under namnet Edge Computing. Lokala datacenter placerade på kanten av nätverket kan reducera nätverkslatensen och energiförbrukningen för applikationer. Exempelvis kan användarenheter med begränsade resurser ges utökande möjligheter genom avlastning av beräkningsintensiva uppgifter. Avlastningen sker genom att migrera de beräkningsintensiva uppgifterna till en dator i datacentret på kanten. Det är dock inte säkert att det alltid lönar sig att avlasta en beräkningsintensiv uppgift från en enhet till kanten. Detta måste avgöras från fall till fall. Att avgöra om och när det lönar sig är ett svårt problem då förutsättningar som tillgänglighet, last, nätverkskvalitét, etcetera hela tiden varierar. Fokus i detta projekt är att identifiera enkla och effektiva algoritmer som kan avgöra om det lönar sig för en användare att avlasta en beräkningsintensiv uppgift från en mobil enhet till kanten. Heuristiska tekniker har utvärderats som en möjlig väg att snabbt hitta lösningar även om de råkar vara suboptimala. Dessa tekniker har kombinerats med en flerarmad banditalgoritm (Multi-Armed Bandit), kallad Discounted Upper Confidence Bound (DUCB), för att ta optimala beslut snabbt. Resultaten indikerar att dessa heuristiska tekniker inte kan hantera de dynamiska förändringar som hela tiden sker samtidigt som DUCB kan anpassa sig till dessa förändrade omständigheter utan att man måste addera extra parametrar. Sammantaget, ger DUCM-algoritmen bättre resultat när det gäller lokal energikonsumtion och kan i de flesta fallen förbättra tiden för tjänsten.
3

Hardware Acceleration in the Context of Motion Control for Autonomous Systems / Hårdvaruacceleration i samband med rörelsekontroll för autonoma system

Leslin, Jelin January 2020 (has links)
State estimation filters are computationally intensive blocks used to calculate uncertain/unknown state values from noisy/not available sensor inputs in any autonomous systems. The inputs to the actuators depend on these filter’s output and thus the scheduling of filter has to be at very small time intervals. The aim of this thesis is to investigate the possibility of using hardware accelerators to perform this computation. To make a comparative study, 3 filters that predicts 4, 8 and 16 state information was developed and implemented in Arm real time and application purpose CPU, NVIDIA Quadro and Turing GPU, and Xilinx FPGA programmable logic. The execution, memory transfer time, and the total developement time to realise the logic in CPU, GPU and FPGA is discussed. The CUDA developement environment was used for the GPU implementation and Vivado HLS with SDSoc environment was used for the FPGA implementation. The thesis concludes that a hardware accelerator is needed if the filter estimates 16 or more state information even if the processor is entirely dedicated for the computation of filter logic. Otherwise, for a 4 and 8 state filter the processor shows similar performance as an accelerator. However, in a real time environment the processor is the brain of the system, so it has to give instructions to many other functions parallelly. In such an environment, the instruction and data caches of the processor will be disturbed and there will be a fluctuation in the execution time of the filter for every iteration. For this, the best and worst case processor timings are calculated and discussed. / Tillståndsberäkningsfilter är beräkningsintensiva block som används för att beräkna osäkra / okända tillståndsvärden från bullriga / ej tillgängliga sensoringångar i autonoma system. Ingångarna till manöverdonen beror på filterens utgång och därför måste schemaläggningen av filtret ske med mycket små tidsintervall. Syftet med denna avhandling är att undersöka möjligheten att använda hårdvaruacceleratorer för att utföra denna beräkning. För att göra en jämförande studie utvecklades och implementerades 3 filter som förutsäger information om 4, 8 och 16 tillstånd i realtid med applikationsändamålen CPU, NVIDIA Quadro och Turing GPU, och Xilinx FPGA programmerbar logik. Exekvering, minnesöverföringstid och den totala utvecklingstiden för att förverkliga logiken i båda hårdvarorna diskuteras. CUDAs utvecklingsmiljö användes för GPU-implementeringen och Vivado HLS med SDSoc-miljö användes för FPGA-implementering. Avhandlingen drar slutsatsen att en hårdvaru-accelerator behövs om filtret uppskattar information om mer än 16 tillstånd även om processorn är helt dedikerad för beräkning av filterlogik. För 4 och 8 tillståndsfilter, visar processorn liknande prestanda som en accelerator. Men i realtid är processorn hjärnan i systemet; så den måste ge instruktioner till många andra funktioner parallellt. I en sådan miljö kommer processorns instruktioner och datacacher att störas och det kommer att bli en fluktuation i exekveringstiden för filtret för varje iteration. För detta beräknas och diskuteras de bästa och värsta fallstiderna.

Page generated in 0.1126 seconds